2026年3月

在工业控制系统、能源网络以及交通基础设施等关键领域,网络安全一直面临一个长期存在的矛盾:系统需要保持持续稳定运行,但传统安全工具往往会对性能和稳定性产生影响。尤其是在运营技术(OT)和工业控制系统(ICS)环境中,大量设备仍然运行在寿命周期极长的专用系统上,这些设备往往无法承受额外的软件负载,也无法安装常规的安全代理程序。

 

近期,Akamai 宣布推出一项由英伟达技术支持的安全解决方案,通过将 Akamai Guardicore Segmentation 与 NVIDIA BlueField DPU 集成,实现“无代理(Agentless)”的零信任网络分段(Zero Trust Segmentation)。这一方案的核心思路是将安全策略执行从主机系统中剥离,直接下沉到基础设施硬件层,从而在不影响业务运行的情况下保护关键系统。

工业系统安全的长期难题

在传统企业 IT 环境中,大多数网络安全产品依赖安装在主机上的软件代理来完成监测、访问控制和策略执行。但在 OT 和 ICS 环境中,这种方式往往难以落地。

 

例如,许多工业设备运行的是专用实时操作系统,或者是生命周期长达数十年的控制系统。额外的软件组件可能导致系统稳定性下降,甚至造成生产中断。因此,在水厂、电网、制造工厂等关键基础设施中,企业往往不得不在“系统稳定性”和“安全防护能力”之间做出取舍。

 

与此同时,关键基础设施正成为网络攻击的重要目标。近年来,多国政府的安全评估报告都指出,能源、交通等关键行业正在成为网络攻击的重点对象,这类攻击一旦成功可能带来大规模社会影响。

 

在这种背景下,如何在不改变原有系统架构的情况下实现细粒度的安全控制,成为工业网络安全领域的重要技术挑战。

从软件代理到硬件卸载

Akamai 与 NVIDIA 的联合方案采用了一种不同于传统安全架构的技术路径:将安全控制逻辑从主机 CPU 中卸载(offload)到专用的数据处理单元(DPU)。

 

DPU 是一类近年来在数据中心快速发展的专用处理器,能够在网络接口层执行网络、存储和安全相关的任务。与传统网卡相比,DPU 不仅具备高带宽网络处理能力,还集成了多核处理器、加速引擎以及可编程数据平面,可在服务器主机之外独立运行安全和网络功能。

 

在该方案中,Guardicore 的网络分段策略与流量可视化能力被部署在 BlueField DPU 上,从而使安全策略的执行完全脱离主机系统。这样一来,即使目标系统无法安装任何安全代理,网络流量仍然可以在硬件层面被实时监控和控制。

 

这种“带外安全”(out-of-band security)架构具有几个关键优势:

 

  • 避免对主机系统产生性能负担安全策略和流量检测在 DPU 上执行,主机 CPU 资源不会被额外消耗,可以继续专注于生产业务或计算任务。

  • 无需修改或安装软件对于无法部署代理的工业设备,安全策略可以直接在网络路径上执行。

  • 实现硬件级隔离即使主机系统遭到攻击,安全控制逻辑仍运行在独立硬件上,降低被绕过的风险。

 

在性能方面,硬件卸载带来的优势尤为明显。BlueField DPU 本质上是一种可编程 SmartNIC,其网络数据路径能够直接在网卡层面处理流量,从而避免传统软件安全方案需要多次数据复制和 CPU 处理的开销。

 

在相关研究中,基于 BlueField-3 DPU 实现的网络负载均衡系统相比运行在主机上的 eBPF 方案可实现约 44%的延迟降低,同时在高负载条件下仍能保持稳定性能。

 

类似的硬件卸载架构在企业基础设施中也被证明能够显著提升效率。例如,在微软 Azure Stack HCI 的实验环境中,DPU 架构能够带来最高 12 倍的 CPU 资源效率提升以及约 60%的吞吐量提升。这些结果表明,将网络和安全功能从 CPU 迁移到专用处理单元,能够显著减少主机负载并提升整体性能。

 

对于运行高性能计算任务或关键生产系统的环境而言,这种性能提升具有重要意义。Akamai 企业安全高级副总裁 Ofer Wolf 表示,在水厂、制造系统或高性能计算集群中,首要任务始终是保证系统以满负荷运行。如果安全软件占用过多资源,可能导致系统崩溃或关键计算任务变慢。通过将分段和可视化能力卸载至 DPU,可以在阻断攻击的同时最大程度释放 CPU 算力。

零信任架构在基础设施层落地

零信任近年来成为企业网络安全的重要架构理念,其核心原则是“永不信任,持续验证”。在实践中,这通常通过细粒度网络分段(micro-segmentation)来实现,使不同系统之间的访问必须经过严格策略控制。

 

在 IT 环境中,这类策略通常由主机代理或软件网关执行。但在 OT 网络中,由于设备复杂且协议多样,部署难度较大。

 

Akamai Guardicore Segmentation 的核心能力之一是基于应用通信关系自动生成网络地图,并通过策略控制限制不同系统之间的访问路径。通过与 BlueField DPU 的结合,这种策略执行可以直接在基础设施层完成。

 

在实际运行中,该系统可以实现:

  • 对 OT 和 ICS 网络流量的持续可视化

  • 对异常网络连接的实时识别

  • 对被入侵系统的即时隔离

  • 在不中断业务的情况下执行安全策略

 

由于安全逻辑运行在独立硬件中,即使主机系统被攻击者入侵,也难以绕过网络层的安全控制,从而有效阻止攻击在网络中的横向移动。

 

随着工业系统逐渐与 IT 网络和云平台互联,关键基础设施的攻击面正在不断扩大。传统依赖软件代理的安全模式,在大量遗留设备环境中难以部署。

 

因此,将安全能力嵌入基础设施层的硬件架构,正成为行业的重要趋势。DPU、SmartNIC 等新型网络加速硬件,使网络分段、流量检测和安全策略执行可以直接在网络接口层完成。

 

在这种架构下,安全系统不再依赖主机操作系统,而是作为基础设施的一部分存在。这种模式不仅降低了部署难度,也为关键系统提供了更高等级的隔离能力。

 

Akamai 与 NVIDIA 的合作正体现了这一趋势:通过将零信任分段能力与 DPU 硬件架构结合,使工业控制系统能够在保持稳定运行的同时获得实时网络防护。

 

随着全球关键基础设施数字化程度不断提升,如何在不影响系统运行的前提下实现高强度安全保护,将成为网络安全领域持续关注的重要技术方向。

 

Akamai 企业安全高级副总裁 Ofer Wolf 表示:“无论是水厂还是高性能计算(HPC)集群,首要任务都是保持系统全速运转,绝不能让安全软件拖累系统性能。过去,保护这些环境困难重重,因为机器无法承受传统工具带来的资源开销,否则将面临系统崩溃或导致关键计算速度下降的风险。Akamai 携手 NVIDIA 正在改变这一现状。通过将分段与监测能力卸载至 DPU,我们不仅为企业提供了一种能够即时阻断攻击的方法,还能最大程度地释放 CPU 算力,使其专注于处理高负载计算的核心任务。”

 

作者简介:

马俊,Akamai 大中华区企业事业部高级售前技术经理

自费购买了一个 ai Pro 的套餐,现在找几个车友一起拼车。一年的价格是 215 。只找长期的,有接着续的打算,短期的不用来问了,不加的。
需要的话,联系方式在此:v:YXNkMDEwMTE5ODQ= tg:https://t.me/aaa8088

上周,一名工程师从零开始,用 AI 模型重构了当下最流行的前端框架,最终得到了 vinext(读作“vee-next”)。它可作为 Next.js 的即插即用替代方案,基于 Vite 构建,仅需一条命令就能部署到 Cloudflare Workers。在初步基准测试中,生产环境应用的构建速度最高提升 4 倍,客户端打包体积最高减小 57%。目前已有客户在生产环境中正式使用。

整个项目仅花费约 1100 美元的 Token 费用。

Next.js 的部署难题

Next.js 是最流行的 React 框架,拥有数百万开发者用户,支撑着互联网上相当一部分生产环境应用 —— 这背后有着充分的理由:它拥有一流的开发者体验。

但当 Next.js 被用于更广泛的无服务器生态时,会出现部署问题。它的工具链是高度定制化的:尽管 Next.js 在 Turbopack 上投入了大量资源,但如果要部署到 Cloudflare、Netlify 或 AWS Lambda,仍需对构建输出进行改造才能适配目标平台的运行环境。

如果你在想:"这不就是 OpenNext 的功能吗?"——你说的没错。

这确实是 OpenNext 要解决的核心问题。包括 Cloudflare 在内的多家厂商都为 OpenNext 投入了大量工程资源。它虽然能运行,但很快就会遇到各种限制,变成一场打地鼠游戏。

基于 Next.js 输出进行构建早已被证明是一种困难且脆弱的方案。OpenNext 不得不对 Next.js 的构建输出做逆向工程,这会带来版本间不可预知的变更,需要做大量的修正工作。

Next.js 一直在开发一等适配器 API,我们也在与其合作,目前仍处于早期阶段。但即便有了适配器,构建过程依然要依赖高度定制化的 Turbopack 工具链。此外,适配器只覆盖构建与部署环节。在开发阶段,next dev 完全在 Node.js 中运行,无法接入其他运行时。如果你的应用使用了平台特定 API(如 Durable Objects、KV 或 AI 绑定),除非采用变通方案,否则无法在开发环境中对这些代码进行测试。

vinext 介绍

如果不采用适配 Next.js 输出的方式,而是直接基于 Vite 重新实现 Next.js 的 API 会怎样?Vite 是除 Next.js 外大多数前端生态所使用的构建工具,支撑着 Astro、SvelteKit、Nuxt、Remix 等框架。这是一次干净的重新实现,而非简单的封装或适配。老实说,我们原本并不认为这能成功。但如今已是 2026 年,软件构建的成本已经完全改变了。

我们取得的进展远超预期。

npm install vinext

只需将脚本中的 next 替换为 vinext ,其余保持不变即可。你现有的 app/pages/next.config.js无需修改就能正常工作。

这并非基于 Next.js 和 Turbopack 输出的封装层,而是对 API 的完整替代实现:路由、服务端渲染、React Server Components、服务端操作、缓存、中间件——全部基于 Vite 构建并以 Vite 插件的形式实现。最重要的是,得益于 Vite Environment API,Vite 的构建输出可在任意平台上运行。

数据表现

初步基准测试结果振奋人心。我们使用一个包含 33 条路由的共享 App Router 应用对 vinext 与 Next.js 16 进行了对比。两个框架执行相同的工作:编译、打包并准备服务端渲染路由。我们在 Next.js 构建中禁用了 TypeScript 类型检查和 ESLint(Vite 在构建期间不运行这些),并使用 force-dynamic 防止 Next.js 花费额外时间预渲染静态路由(避免拖慢其速度)。测试目标是仅测量打包器与编译速度,排除其他干扰因素。每次合并到主干分支时,都会在 GitHub CI 上运行基准测试。

生产构建时间:

客户端打包体积(gzip 压缩后):

这些基准测试测量的是编译与打包速度,而非生产服务性能。测试样本为一个包含 33 条路由的单一应用,并非所有生产应用的代表性样本。我们预计随着三个项目的持续迭代,相关数据会发生变化。完整的测试方法与历史结果均已公开,仅供作为方向性参考,而非绝对结论。

不过这一方向已展现出积极信号。Vite 的架构,尤其是即将在 Vite 8 中推出的、基于 Rust 开发的打包器 Rolldown,在构建性能上具备结构性优势,这一点在本次测试中体现得十分明显。

部署到 Cloudflare Workers

vinext 以 Cloudflare Workers 作为首要部署目标进行构建,只需一条命令就能从源码直接部署为可运行的 Worker:

vinext deploy

这会处理所有环节:构建应用、自动生成 Worker 配置并完成部署。App Router 和 Pages Router 均可在 Workers 上运行,支持完整的客户端 hydration、交互式组件、客户端路由导航与 React 状态。

在生产缓存方面,vinext 内置了 Cloudflare KV 缓存处理器,开箱即用支持 ISR(增量静态再生):

KV 是大多数应用的默认选择,但缓存层是可插拔的。你可以通过 setCacheHandler 替换为任意合适的后端。对于缓存负载较高或访问模式不同的应用,R2 可能会更合适。我们也在优化 Cache API,以提供更强大的缓存层并简化配置。我们的目标是保持灵活:让你选择适合自己应用的缓存策略。

实时运行示例:

我们还有一个 Cloudflare Agents 在 Next.js 应用中实时运行的示例,且无需 getPlatformProxy 这类变通方案——因为整个应用现在无论是开发还是部署阶段都运行在 workerd 中。这意味着可以无妥协地使用 Durable Objects、AI 绑定以及其他所有 Cloudflare 专属服务。可在此处查看。

框架开发是一场团队协作

当前的部署目标是 Cloudflare Workers,但这只是冰山一角。vinext 中约 95% 的代码都是纯 Vite 生态相关内容:路由、模块垫片、SSR 流程、RSC 集成——这些都不是 Cloudflare 特有的。

Cloudflare 希望与其他托管服务商合作,让客户们也能使用这套工具链(所需工作量极小——我们在不到 30 分钟内就完成了 Vercel 上的概念验证)。这是一个开源项目,为了长期发展,与整个生态伙伴合作、确保能够持续投入是至关重要的。我们欢迎来自其他平台的 PR。如果你有兴趣新增部署目标,欢迎提交 Issue 或联系我们。

状态:实验阶段

我们要明确说明的是:vinext 目前仍处于实验阶段。它诞生还不到一周,尚未经过大规模真实流量的实战检验。如果你考虑将其用于生产环境,请务必谨慎评估。

话虽如此,我们的测试套件已相当完备:包含超过 1700 个 Vitest 测试与 380 个 Playwright 端到端测试,其中部分测试直接移植自 Next.js 测试套件以及 OpenNext 的 Cloudflare 一致性测试套件。我们已通过 Next.js App Router Playground 完成验证,对 Next.js 16 API 的覆盖率达到 94%。来自真实用户的早期反馈同样鼓舞人心。我们一直在与 National Design Studio 合作,该团队致力于推动所有政府界面的现代化,目前已在其测试站点 CIO.gov 上运行 vinext,并已将其用于生产环境,构建时间与打包体积均得到显著优化。

README 中已如实列出目前不支持的功能与已知限制。我们希望保持坦诚,不过度承诺。

预渲染

vinext 已开箱即支持增量静态再生(ISR)。与 Next.js 一样,任意页面在首次请求后都会被缓存,并在后台重新验证。这一功能现已可用。

vinext 目前尚不支持构建时静态预渲染。在 Next.js 中,无动态数据的页面会在 next build 阶段被渲染并作为静态 HTML 提供;若存在动态路由,可通过 generateStaticParams() 枚举需要提前构建的页面。vinext 目前暂不支持这一功能,但也只是暂时的。

这是发布时我们有意做出的设计决策。该功能已列入路线图,但如果你的网站是 100% 预构建的静态 HTML,目前使用 vinext 可能不会带来太多收益。话虽如此,如果一位工程师能花 1100 美元的 Token 成本重建 Next.js,那你大概只需花 10 美元就能迁移到专为静态内容设计、基于 Vite 的框架,比如 Astro(它同样可以部署到 Cloudflare Workers)。

但对于并非纯静态的网站,我们相信我们能做得比在构建时预渲染所有内容更好。

流量感知预渲染

Next.js 会在构建期间预渲染 generateStaticParams() 中列出的每个页面。一个拥有 10000 个产品页面的网站,就意味着构建时要执行 10000 次渲染,即便其中 99% 的页面可能永远不会被访问。构建时间会随页面数量线性增长,这也是大型 Next.js 网站的构建时间最终会长达 30 分钟的原因。

因此我们构建了流量感知预渲染(Traffic-aware Pre-Rendering,TPR)。该功能目前仍处于实验阶段,我们计划在经过更多真实场景验证后将其设为默认模式。

理念很简单:Cloudflare 本身就是你网站的反向代理,我们掌握着你的流量数据,清楚哪些页面是实际被访问的。因此,vinext 既不会预渲染全部内容,也不会完全不预渲染,而是在部署时查询 Cloudflare 的区域分析,只预渲染那些关键页面。

对于一个拥有 10 万个产品页面的网站,幂律分布表明:90% 的流量通常只集中在 50 至 200 个页面上。这些页面可以在几秒内完成预渲染,其余内容则回退到按需 SSR,并在首次请求后通过 ISR 缓存。每次新部署都会根据当前流量模式刷新预渲染页面集合,爆款页面会被自动纳入。整个过程无需使用 generateStaticParams(),也不需要将构建过程与生产数据库绑定。

直面 Next.js 带来的挑战,但这一次用上了 AI

这类项目通常需要一支工程师团队耗费数月乃至数年才能完成。已有多家公司的多个团队尝试过,但涉及范围实在是太大了。Cloudflare 就曾尝试过一次:两套路由、33+ 个模块垫片、服务端渲染管道、RSC 流式传输、文件系统路由、中间件、缓存、静态导出。也难怪一直没人能真正做成。

这一次,我们仅用不到一周就完成了——由一名工程师(严格来说是工程经理)指导 AI 完成。

首次提交始于 2 月 13 日。当天晚上,Pages Router 与 App Router 就已实现基础 SSR、中间件、服务端操作与流式传输。次日下午,App Router Playground 已能渲染 11 条路由中的 10 条。第三天,vinext deploy 已可将应用部署到 Cloudflare Workers,并支持完整的客户端激活。剩下的时间则用于稳定性加固:修复边界场景、扩充测试套件、将 API 覆盖率提升至 94%。

与早期的尝试相比,究竟是什么发生了改变?是 AI 变得更强大了,强大得太多。

为什么这个问题适合用 AI 解决

并非每个项目都能进展得如此顺利。这个项目之所以能做到,是因为诸多因素在恰当的时机恰好形成了合力。

Next.js 的定义十分清晰。它拥有详尽的文档、庞大的用户群体以及多年来积累在 Stack Overflow 上的问答和教程。其 API 已经广泛存在于训练数据中。当你让 Claude 实现 getServerSideProps 或解释 useRouter 的工作原理时,它不会出现幻觉。它完全了解 Next 的运行机制。

Next.js 拥有完备的测试套件,其代码仓库中包含数千个覆盖所有功能与边界场景的端到端测试。我们直接从这些测试套件中移植了测试用例(你可以在代码中看到相关标注),这为我们提供了可机械验证的规范。

Vite 是非常优秀的基础框架。它解决了前端工具链的核心难点:快速热更新、原生 ESM、清晰的插件 API 以及生产构建。我们无需从零开发打包器,只需要让它适配 Next.js 的使用方式即可。@vitejs/plugin-rsc 目前仍处于早期阶段,但它已经为我们提供了 React Server Components 支持,不必从头实现 RSC。

模型能力终于跟上了。就在几个月前,我们还认为这是不可能实现的。早期的模型无法在如此规模的代码库中保持逻辑连贯,而新一代模型能够理解完整架构、推理模块间的交互,并足够稳定地生成正确代码,从而保证开发节奏。有时我看到它深入 Next、Vite 和 React 的内部机制去定位问题。最先进的模型表现令人惊叹,而且显然还在持续进步。

所有这些条件必须同时具备:目标 API 文档完善、测试套件全面、底层构建工具坚实可靠,再加上能够真正处理复杂逻辑的模型。缺少任何一环,效果都会大打折扣。

我们是如何实现的

几乎 vinext 的每一行代码都是由 AI 编写的。更重要的是:每一行代码都具备了与人工编写代码相同的质量标准。项目拥有 1700+ 个 Vitest 测试、380 个 Playwright E2E 测试,通过了 tsgo 完整的 TypeScript 类型检查与 oxlint 代码检查,持续集成会针对每个 PR 执行所有检查。建立一套完善的质量保障机制是让 AI 在代码库中高效发挥作用的关键。

整个过程从一份规划开始。我花了数小时在 OpenCode 里与 Claude 反复沟通,明确架构:要构建什么、按什么顺序推进、使用哪些抽象层。这份规划成了整个工作的北极星。从那之后,工作流程就变得非常清晰:

  1. 定义任务(“实现包含 usePathnameuseSearchParamsuseRouternext/navigation 垫片”)。

  2. 让 AI 来编写实现代码与测试用例。

  3. 运行测试套件。

  4. 如果测试通过就合并,不通过就将错误信息交给 AI 进行迭代修复。

  5. 重复这一过程。

我们还为代码审查设置了 AI 智能体。PR 提交后,智能体会自动执行审查;审查意见返回后,另一个智能体会处理这些意见。整个反馈流程基本实现了自动化。

它并非每次都能完美运行。有些 PR 本身就是错误的。AI 常会“自信”地实现一些看似正确、却与 Next.js 实际行为不符的逻辑。我必须定期纠正方向。架构决策、优先级排序、判断 AI 何时走入死胡同——这些都由我负责。当你给 AI 清晰的方向、充足的上下文和完善的约束时,它的效率会非常高。但最终,依然需要人类来掌舵。

对于浏览器级别的测试,我使用 agent-browser 来验证实际渲染输出、客户端导航与 hydration 行为。单元测试会遗漏许多细微的浏览器问题,而这套方案能将捕获到它们。

整个项目期间,我们在 OpenCode 中运行了 800 多个会话,总成本约为 1100 美元的 Claude API Token 费用。

这对软件来说意味着什么

为什么我们的技术栈会有这么多层?这个项目迫使我深入思考这个问题,并思考 AI 会如何影响答案。

软件中的大多数抽象都是为了给人类提供辅助。我们无法在脑中容纳整个系统,因此通过构建层次来管理复杂度。每一层都能让下一层开发者的工作更轻松。这也是你最终会看到框架之上再套框架、出现各种封装库、以及成千上万行胶水代码的原因。

AI 没有这样的限制。它可以在上下文里容纳整个系统,并直接编写代码。它不需要借助中间框架来维持结构,只需要一份规范和一个构建基础。

目前尚不清楚哪些抽象是真正基础的,哪些只是人类认知的拐杖。这条界限在未来几年将会大幅改变。而 vinext 就是一个例证:我们只提供了一份 API 契约、一个构建工具和一个 AI 模型,剩下的中间层全部由 AI 编写,无需额外的中间框架。我们相信这种模式会在大量软件中复现,多年来搭建的层层封装并不会全部保留下来。

试试看

vinext 包含一个用于处理迁移的 Agent Skill。它适用于 Claude Code、OpenCode、Cursor、Codex 等数十种 AI 编码工具。安装它,打开你的 Next.js 项目,告诉 AI 进行迁移:

npx skills add cloudflare/vinext

然后在任意支持的工具中打开你的 Next.js 项目,并输入:

migrate this project to vinext

这个 Skill 会处理兼容性检查、依赖安装、配置生成与开发服务器启动。它清楚 vinext 所支持的内容,并会标记出所有需要手动处理的部分。

或者如果你更喜欢手动操作:

源代码位于 github.com/cloudflare/vinext,欢迎提交 Issue、PR 与反馈。

【声明:本文由 InfoQ 翻译,未经许可禁止转载。】

原文链接:https://blog.cloudflare.com/vinext/

年化收入破 20 亿美元,Cursor 成最“吸金”AI 独角兽之一

 

上周,据《Bloomberg》报道,一位匿名的人士向其透露,Cursor 2025 年销售额突破 20 亿美元。该公司未来 12 个月的营收运行率(预测当前销售额)比三个月前翻了一番。

 

该人士表示,约 60% 的收入来自企业客户——包括首次使用 Cursor 的公司以及增加席位的现有客户。

其快速增长吸引了 Accel、Andreessen Horowitz 和 Thrive Capital 等风投巨头的关注。去年 11 月份由风险投资公司 Accel 和 Coatue 共同领投的一轮融资中估值达到 293 亿美元,使其成为美国最有价值的人工智能初创公司之一。

 

Cursor 拒绝置评。

 

为什么这家成立仅 5 年的公司会发展如此之快?这要从其明星创始团队说起。

 

Cursor 由四位麻省理工学院的校友于 2022 年创立,最初致力于构建模型,帮助机械工程师设计物理零件。但这些联合创始人当时并没有这方面的专业知识。他们迅速转型,最终推出了爆款产品:一款代码编辑器,并迅速走红。

Cursor CEO Michael Truell 在 2024 年接受《福布斯》采访时将 Cursor 描述为“程序员版的 Google Docs”,一个人类和人工智能共同改进代码的协作编辑器。

 

Truell 和他的联合创始人自 2020 年起就密切关注 OpenAI 的人工智能发展,甚至在 ChatGPT 发布之前就已开始关注。Truell 表示,他们当时就知道这个领域即将迎来爆发式增长。他们萌生创建一家人工智能编码初创公司的想法,源于他们目睹了微软 GitHub Copilot 的成功。

 

GitHub Copilot 的成功预示着随着人工智能模型的改进,许多复杂任务都可以实现自动化。“GitHub Copilot 是第一个真正有用的人工智能产品。它不是空想,也不是需要排队等候才能使用的产品。”他告诉《福布斯》杂志。

 

该公司超快的编码模型最终推动了 Vibe Coding 现象的兴起。

 

Cursor 的创始人以及其 400 名员工中的很大一部分都只有二十五六岁,这家初创公司与其说像一家企业,不如说更像一所精英大学校园。员工们进办公室前都要脱鞋。他们经常工作到午夜之后,在公司里洗澡,而且都住在离办公室几个街区远的地方。

 

正是这股拼劲儿和独特的产品理念使得该公司 2025 年初的年化收入达到了 1 亿美元,而到了 11 月,这一数字已突破 10 亿美元。最新一轮融资使公司估值接近 300 亿美元,四位联合创始人也因此跻身亿万富翁之列,Cursor 也因此跻身全球最有价值的 20 家私营公司之列。

Claude、Codex 的爆火严重冲击了 Cursor

 

但最近几个月,一些关于 Cursor 即将消失的声音甚嚣尘上。

 

2026 年 1 月 5 日,Cursor 公司的员工们结束假期周末返回公司,参加了一场全体员工大会,会上展示了一份题为“战时”的幻灯片。

 

休息期间,员工们试用了 Anthropic 公司最新款的 Opus 4.5,却意外地发现了一个令人不安的事实:它的编码能力已经发展到开发者无需再逐行检查代码的地步。开发者不再需要与 Cursor 代码编辑器中的 AI 助手协作,而是可以向自主运行的智能体发出高级指令,并接收已完成的功能——有时甚至能收到最终产品。而这恰恰是个问题。

 

Cursor 的构建理念有所不同。

 

Cursor 最终希望构建能够自动化工程师 95% 繁琐工作的工具,让他们能够将更多时间用于编码的创造性方面。

 

“我认为,不久之后,单个工程师就能构建出比现在强大的团队所能构建的系统复杂得多的系统,”Truell 曾在一次采访中如是说。

 

但如果人工智能不需要人类协作,那编辑器还有什么用呢?如果逐行编写和编辑代码不再是程序员工作流程的核心,那么 Cursor 的核心产品理念就突然受到了质疑

 

如今让人心惊的事实出现了:开发者可能不再需要代码编辑器了。

 

在全体员工大会上,Cursor 的领导层警告说,未来几个月将会动荡不安。项目可能会被取消,优先级也会发生变化

 

而这背后的根因在于AI 编程正在从“辅助写代码”走向“智能体完成任务”

 

去年年初,Anthropic 致电其当时最大的客户 Cursor,预览了一款名为 Claude Code 的新产品。Claude Code 是一款命令行工具,界面简洁,允许开发人员快速部署大量的编码代理。

 

乍一看,Claude Code 似乎不会直接与 Cursor 的代码编辑器展​​开竞争。但如今情况已截然不同。Claude Code 在短短六个月内年化收入​​就突破了 10 亿美元,上个月更是达到了 25 亿美元,超越了 Cursor。与此同时,OpenAI 也正朝着同样的方向努力。在 2025 年 4 月重新推出其编码代理 Codex 后,首席执行官 Sam Altman表示,该应用在发布后的第一周下载量就超过了 100 万次。

创业公司创始人告诉《福布斯》,这种转变意义深远。许多开发者现在不再一行一行地编写代码,而是操控代理程序——分配任务、审查输出、协调多个并行进程。

 

“这是软件开发自诞生以来最重大、最根本的变革,”人工智能语言辅导应用 Speak 的联合创始人兼首席技术官 Andrew Hsu 表示。该公司 50 名工程师组成的团队现在都使用编码代理(主要是 Claude Code,有时也用 Codex),将功能发布时间从几个月缩短到几周。他表示,Cursor 在代码审查中仍然发挥作用,但其重要性正在逐渐降低

Cursor 真的要消失了?

 

如此说来,曾经红极一时的 AI 编码工具在竞争对手强有力的夹击下真的要消失了吗?

 

2025 年 2 月份,在 Anthropic 发布了更先进的 Opus 版本之后,X 论坛开始涌入大量创业公司创始人,他们声称自己的团队已经放弃了 Cursor,并认为像 Anthropic 和 OpenAI 这样的模型制作商会自行吸收编码层。

 

“我提到的大多数公司……他们的观点是 Cursor 如今已经过时了,”Insight Partners 联合创始人兼前董事总经理 Jerry Murdock 上周在 20VC 播客节目中表示。

 

今年 2 月,抵押贷款服务初创公司 Valon 的 90 多名员工取消了 Cursor 的订阅。理由很简单:他们不再需要这款编辑器了。取而代之的是,他们转而使用 Claude Code 强大的代理程序,实现了端到端工作流程的完全自动化——包括系统间数据迁移、修复漏洞等等。Valon CEO Andrew Wang 表示,这些任务的完成速度提升了“10 倍”。

 

Cursor 面临的情况虽然十分严峻,但从一些数据上来看,“Cursor 将死”的观点又似乎站不住脚。

 

在近期 20VC 播客的另一场讨论中,嘉宾们针对 AI 编程工具市场呈现出的“体感落差”展开了深度辩论。尽管在社交媒体和初创开发圈中,似乎人人都在从Cursor转向Claude Code,但真实的数据却给出了一个令人震惊的反直觉答案。

播客提到,最近在 X 等平台上,开发者们普遍认为 Claude Code 已经全面压制了 Cursor。甚至在一些高增长初创公司的董事会上,年轻的 CTO 们会开玩笑说“只有爷爷辈的人还在用 Cursor”。

 

然而,传闻中的财务数据却击碎了这种“Cursor 已死”的叙事:Cursor 的年营收据称在过去 90 天内从10 亿美元翻倍至 20 亿美元,且正处于估值高达500 亿美元的新一轮融资传闻中。这种社交媒体上的“差评”与商业表现上的“狂飙”之间存在显著的脱节。

 

嘉宾们分析指出,这种脱节源于初创生态与企业级市场不同的运作逻辑。虽然个人开发者可以为了追求更新的模型、更快的体验今天用 Cursor 明天换 Claude Code,但大型金融机构或保守组织(如巴克莱银行)并非如此。主要因素有两点:

 

  • 极高的迁移门槛:像巴克莱银行这样的企业,批准一项智能编码工具需要经过漫长的采购流程、安全审查以及法务合同签署。一旦这些组织决定采用 Cursor,由于其已经集成了单点登录(SSO)、基于角色的访问控制(RBAC)、合规审计日志以及不保留数据的安全承诺,他们绝不会在第二天就因为某个新工具的出现而轻易更换。

  • 企业级运营的惯性:许多大公司签署的是年度合同,即便开发者个人有尝试新工具的冲动,公司在这一年内仍会继续稳步推广已获批的 Cursor。这种“巨大的市场拉力”正是其营收能够快速翻倍的底层驱动力。

 

企业信用卡公司 Ramp 和 Brex 的数据显示,截至 2 月份,Cursor 的收入仍在持续增长,尽管 Ramp 表示,企业在购买人工智能产品时采用 Cursor 的比例略有下降。

Cursor 自救之法:转向中国开源模型

 

Cursor 的领导层深知,软件开发的未来并非在于编写代码。为了应对这一趋势,他们一直在努力提升研发实力,力图通过发表研究成果和利用海量专有数据,在发布最佳编码模型方面超越 Anthropologie 和 OpenAI。此外,他们还开始优先考虑与大型企业签订合同,因为这类合同比面向消费者的订阅服务更加稳定。

 

目前,Cursor 的持续增长也伴随着巨大的焦虑。据知情人士透露,在公司内部,收入追踪过于分散精力,以至于公司停止在其 #numbers Slack 频道发布每日数据。

 

Cursor 的内部价值观中有一条直截了当的指令:“删除 Cursor”,并将新任务命名为“P0 #1”——优先级零:“构建最佳编码模型”,这表明公司未来的发展方向在于开发类似 Claude Code 和 Codex 的智能体。上周,Cursor 宣布对其“云智能体”产品进行重大更新。现在,多个智能体可以在各自专属的工作空间中同时处理不同的任务,并记录工作内容。

 

Cursor 内部的领导层认为,企业会重视不局限于单一模型提供商的产品,而随着模型功能日益增强,市场格局可能会对任何一方有利,因此,这对于开发人员来说是一个日益重要的问题。

 

与此同时,Cursor 也在努力减少对 Anthropic 和 OpenAI 的依赖。其理念是,即使竞争对手不断投资于规模更大的前沿模型,基于其专有数据训练的小型、专业化的编码模型也能有效参与竞争。

 

据知情人士透露,目前约有 20 名人工智能研究人员在 Cursor 的 Composer 模型上工作。这些模型基于 DeepSeek、Kimi 和 Qwen 等强大的中国开源模型构建,然后通过使用 Cursor 自有数据的额外训练和强化学习进行修改

 

这些努力已初见成效:Composer 1.5 速度很快,是该平台上第二受欢迎的模型,而且对于 Cursor 来说,运行成本远低于 Anthropic 的大型模型。但对于开发者而言,使用 Composer 1.5 仍然成本不菲:根据 Cursor 官网的数据,Composer 1.5 每百万个输入代币的成本为 3.5 美元,而 OpenAI 的 GPT-5.3 Codex 在 Cursor 平台上的成本为 1.75美元

 

成本始终是一个挑战。Cursor 的大型竞争对手愿意提供大幅补贴。据一位熟悉该公司内部分析的人士透露,Cursor 去年估计,每月 200 美元的 Claude Code 订阅可能需要高达 2000 美元的计算资源,这意味着 Anthropic 提供了大量的补贴。如今,这种补贴似乎更加激进,据另一位看过该公司计算支出模式分析的人士称,同样的 200 美元订阅计划可能需要消耗约 5000 美元的计算资源。

 

Cursor 也为部分用户提供补贴,但补贴力度似乎不如 Anthropic。据一位知情人士透露,Cursor 的消费者订阅业务利润率为负,但其企业套餐的利润率为正。使用 Cursor 的企业可以选择面向初创公司且易于取消的 Teams 套餐,也可以协商面向大型企业的企业合同。

 

拓展企业业务是实现稳定的途径之一。企业合同的签订速度较慢,但​​客户流失率较低。一位知情人士透露,Cursor 至今只流失过一两家企业客户。但这些备受青睐的企业合同历来在 Cursor 的业务中占比很小:据《福布斯》看到的资料显示,截至去年 11 月,Cursor 年度收入中只有 13.6% 来自企业合同。如今,据一位熟悉 Cursor 的人士透露,Cursor 约 60% 的收入来自企业客户,但《福布斯》无法确定其中有多少来自企业套餐。

 

该公司目前的员工构成体现了其对企业市场的重视:一半员工专注于市场推广职能。据知情人士透露,销售团队已与包括 Meta 和 Nvidia 在内的大客户签订了合同

 

现在,Cursor 正在努力寻找构建工具的最佳方案,以便管理数百个智能体同时协作,他们内部称之为“高效工作模式”。这其中涉及诸多复杂问题。他们需要找到为每个智能体分配特定角色的最佳方法。有时,智能体看到同事众多,就会变得懒散,工作效率下降——就像人类一样。

网友:没有护城河的产品走不到最后

 

在开发者社区中,围绕 Cursor 是否即将消亡的讨论也在迅速升温。一些开发者认为,这家曾经风头正劲的 AI 编程工具公司,如今正面临来自模型厂商的直接冲击。

 

有网友直言,Cursor 的“护城河”其实非常脆弱。一位用户调侃称,Cursor “曾经风光无限,但也就两分钟”,随着更强大的模型能力不断释放,其优势很快被削弱。在他看来,在 AI 编程工具领域,真正拥有长期护城河的往往是掌握底层模型能力的大公司,而不是基于模型构建工具的初创企业

 

也有开发者从产品体验角度给出了更为细致的评价。一位长期用户表示,自己目前主要使用 Claude Code 和 OpenCode,但仍认为 Cursor 的用户界面在同类产品中依然是最好的。不过,他认为 Cursor 在商业策略上的失误加速了用户流失。公司后来对订阅功能进行了较为严格的限制,导致不少用户开始寻找替代工具。

在技术层面,这位开发者依然肯定 Cursor 的一些核心能力。他指出,Cursor IDE 在代码索引和嵌入式检索方面表现出色,能够比传统的grep等工具更准确地定位代码上下文。此外,如果 Cursor 能进一步整合浏览器自动化能力,例如在 IDE 内置 Playwright 或 Chrome 的 MCP 接口,其开发工作流管理能力原本有机会变得更强。不过,他也强调,当前吸引开发者转向其他工具的关键因素,并不只是终端工具本身,而是模型性能的跃升——尤其是 Claude Opus 的表现。正是这一点,让越来越多开发者开始直接使用 Anthropic 的工具生态。

 

在价格和产品模式上,一些用户同样表达了不满。一位开发者指出,与其按月订阅 Cursor,不如直接使用模型厂商推出的编码工具。他评论道:

 

“通过 Codex 或 Claude Code,开发者可以用相同的费用获得更多 token 使用额度,并且通常还能获得按小时或按周计算的流量配额,如果需要更多算力,再额外付费即可。在这种模式下,传统的月度订阅看起来已经显得有些过时。”

 

与此同时,也有部分开发者对 Cursor 的未来持更为谨慎的态度。一位程序员表示,随着前沿模型实验室不断推出更强的编码智能体,Cursor 这样的工具确实可能面临被边缘化的风险。他提到,自己在尝试 Codex 几周后就取消了 Cursor 的订阅。不过,他也认为,在短期内 IDE 仍然不会消失。即便 AI 代理已经能够生成大量代码,他自己的项目中已有超过 90% 的代码由模型生成,但可靠的软件开发仍然需要严格的监督、系统化的代码审查以及工程化管理,而这些恰恰是 IDE 最擅长的领域。

 

当然,也有更为悲观的声音。一些网友甚至认为,Cursor 从一开始就只是一个“快速套现”的项目,并不具备长期发展空间。

此外,近期一位资深开发者在 Youtube 上发了一段视频,阐述了“退坑”Cursor 的原因,并揭示了这款明星产品在快速迭代中面临的工程化困境。

在 2024 年下半年,Cursor 凭借对 VS Code 插件生态的无缝兼容和堪称“黑魔法”的 Tab 代码补全模型赢得了大量忠实用户。当时的 Cursor 提供了极高的响应速度与极佳的性价比(Pro 订阅即可无限调用顶级大模型),让开发者在短短几个月内便能独自完成从代码评审器到复杂 AI 平台的多个项目,体验到了“超级赛亚人”般的开发快感。

 

随着版本的更迭,Cursor 的口碑开始出现滑坡。该开发者指出,随着微软加强对 VS Code 核心插件(如 Pylance)的控制,Cursor 的底层兼容性出现问题,甚至引发了系统崩溃。此外,其商业策略的变动也引发了信任危机:

 

  • 定价背信:取消了原有的无限快速请求,变相转为昂贵的 API 计费,且未能在第一时间透明化沟通。

  • UI 极度膨胀:2.0 版本强推的 Agent(智能体)窗口被指过于激进,频繁变动的布局破坏了开发者的肌肉记忆。

  • 性能黑洞: 多个 Chromium 进程导致硬件资源消耗剧增,昔日的生产力工具变成了拖慢系统节奏的“负担”。

 

回归终端,拥抱 CLI 智能体 促使该开发者彻底放弃 Cursor 的最后通牒,是 Claude Code 与 Codex 等 CLI(命令行)智能体的崛起。 在对比中发现,CLI 智能体在处理长程任务和并行开发时表现得更为自然,且订阅成本远低于 API 计费模式。该开发者最终选择了一套极简的“黑暗面”组合:Neovim + Tmux

 

这种转变代表了一种新的趋势:既然将智能体塞进编辑器会导致臃肿,不如将轻量化的编辑器直接搬进智能体所在的终端。

 

这位开发者最后给出的结论是:尽管 Cursor 对于追求可视化界面和单点任务的新手依然友好,但对于追求极致性能和自动化工作流的高级开发者来说,它已与最初的轻盈美感渐行渐远。在这场 AI 编程工具的竞赛中,更灵活、更透明的开源 CLI 工具正在成为效率派的新宠。

 

参考链接:

https://www.youtube.com/watch?v=7RHwE_M68BY

https://www.youtube.com/watch?v=dhUk6b0x_e0

https://forum.cursor.com/t/cursor-tab-is-not-working-on-windows-march-2026-please-help/154028

https://ischemist.com/writings/long-form/how-vibe-coding-killed-cursor

https://www.reddit.com/r/OpenAI/comments/1r22l1j/cursor_is_dying/

https://www.reddit.com/r/cursor/comments/1rjqupl/cursor_revenue_leak_2_billion_annual_sales_rate/

总有些脑子不好的同事,和他们干活很累,不说他们呢,干的自己一肚子气,说了又让别人不高兴,想问下 V 友在工作中,一般是怎么平衡的?

举例:测试功能时候,一般的同事,都会把问题记录,然后发给我一起改,这个人在群里,测出问题了,一会发一条,一会发一条,中间还有穿插其他同事的聊天、业务咨询,也没有 @我,业务群又多,我还得干其他的活又不是时时刻刻看这个业务群消息,他意思他测完,问题发在群里了,其他和他没关系

原文 链接 **:https://tecdat.cn/?p=45184
原文出处:拓端抖音号@拓端tecdat
 

封面

关于分析师

在此对 Weilong Zhang 对本文所作的贡献表示诚挚感谢,他在上海交通大学完成了企业管理专业的博士学位,专注人工智能与医疗健康领域。擅长 Python 、MATLAB、SPSS、Eviews、Stata 等数据分析工具,拥有丰富的医疗行业数据建模与商业分析经验。他曾参与多项医疗健康领域的数字化转型项目,致力于通过数据驱动决策推动产业创新。

    • *

医疗AI,迎来质变时刻!全球首个临床适用度标准发布,中国团队问鼎关键测评

想象一下这个场景:你因为胸口发闷,好不容易挂上一个三甲医院的心内科专家号。医生听完你的描述,快速敲击键盘,开出了一系列检查单。在等待结果的间隙,他点开一个系统,上传了你的病历和实时症状描述。几秒钟后,系统不仅给出了几种可能的鉴别诊断,还附上了最新的临床指南证据链。这不是科幻电影,这是正在发生的“质变”。

本报告洞察基于 《怡安:2026年全球医疗趋势报告》 和 《普华永道:2026年全球并购趋势展望:医疗健康》 及文末 200+ 份医疗行业研究报告及数据,本文完整报告数据图表和文末最新参考报告合集已分享在交流群,阅读原文查看、进群咨询,定制数据、报告和800+行业人士共同交流和成长。

长期以来,我们谈论医疗AI,更多的是“锦上添花”——一个影像辅助工具,一个智能导诊机器人。它们很聪明,但更像是“考试型选手”,在标准测试里拿高分,一进入真实、复杂、充满不确定性的临床环境,就显得力不从心。理想和现实之间,横亘着一条巨大的鸿沟:AI究竟能不能像一位真正的医生那样“思考”和“工作”?

“考试型选手”的终结

怡安在《2026年全球医疗趋势报告》中敲响警钟:2026年全球医疗通胀率预计为9.8%,中东非洲地区甚至高达15.3%。驱动成本飙升的核心,除了老龄化,就是医疗服务的使用率和复杂性本身。普华永道在《2026年全球并购趋势展望:医疗健康》中也指出,全球药企正面临专利悬崖,急需通过并购填补研发管线,而中国创新药资产因其“高质量、高效率、高性价比”正成为全球交易的“香饽饽”。

这意味着什么?意味着传统的、依赖人工经验和碎片化知识的诊疗模式,已经走到了效率的极限。全球医疗系统都在迫切寻找一个能真正理解临床逻辑、融入工作流程、提升决策质量的“新同事”。而这个“新同事”,绝不能只是个“答题机器”。

正是在这个质变的前夜,全球首个专注于医疗AI临床适用性的评价体系应运而生。它不再只看模型在考试中的“刷分能力”,而是建立了一套“安全性-有效性”双轨并行的严苛标准,考核AI在复杂病历、多源数据整合、逻辑推理、证据溯源等真实临床任务中的表现。

中国力量,问鼎全球

这套标准,成了全球医疗AI的“试金石”。在最新一轮的权威测评中,由WiNGPT-3.5等模型代表的中国团队,在关键指标上问鼎榜首,展现出极强的临床思维与任务执行能力。

数据显示,这套基于临床思维训练的模型,在循证检索与可追溯结论生成任务中,准确率远超国际平均水平。它不再满足于给出一个答案,而是能像医生一样,拆解问题、调用工具、整合病历、检验和影像报告,最后生成一个结构化的、有据可依的诊疗建议。在智能化护理评估试点中,AI将复杂逻辑场景下的预填准确率推高至95%以上,将护士从繁琐的文书工作中解放出来,把时间还给患者。

这种“质变”,不只是技术参数的领先,更是应用逻辑的根本性颠覆。它验证了一条清晰的路径:AI正在从“工具”进化为“协作者”

质变如何发生?

这场质变并非偶然,它是由四大核心力量共同塑造的:

  1. 数据的“觉醒” :国家数据局发布的案例显示,上海申康医院发展中心汇聚了37家三甲医院的真实影像数据,构建了高质量的训练资源池,让AI在真实世界的“临床课”中学习。没有这些高质量、标准化的数据,AI的“临床思维”就是无源之水。
  2. 技术的“跃迁” :卫宁健康在《2025医疗人工智能年度报告》中披露,他们通过将“临床思维链”结构化、可训练化,并采用MoE(混合专家)架构,让模型在保持高性能的同时推理更快、部署门槛更低。技术从“拼参数”转向了“拼效率”。
  3. 资本的“转向” :Drake Star的数据印证了市场的理性回归:远程医疗估值倍数从2.7倍修复至3.9倍,投资者更青睐有运营效率、盈利路径清晰的平台。资本不再为“故事”买单,而是为能解决真实问题的“系统”投票。
  4. 政策的“护航” :从医保局发布《神经系统类医疗服务价格项目立项指南》为脑机接口设立收费项目,到“十五五”规划明确支持脑机接口等未来产业发展,政策正在为创新技术铺设从实验室到病床边的“高速路”。

一场新叙事

当中国创新药授权出海在2025年创下157笔交易、总价值1356亿美元的历史新高;当联影医疗的DSA技术能将辐射剂量降低70% 、手术时间缩短25% ;当国产手术机器人微创机器人的全球订单突破180台——我们看到的,不再是单一维度的技术突破,而是一个国家在医疗科技创新全链条上的系统崛起。

这不仅仅意味着中国医生将拥有更趁手的“兵器”。更深层的意义在于,这种由AI赋能的、可复制、可下沉的优质医疗能力,正在从根本上改写“医疗资源不平等”的叙事。未来,一位偏远地区的基层医生,在他的 AI助手 的帮助下,或许就能拥有媲美三甲医院专家的诊疗底气。

这一切,都预示着一个我们曾无数次畅想,如今正真切叩响大门的未来:当AI不再是工具,而是协作者,医疗的质变时刻,真的来了。

一、全球医疗通胀趋势:区域分化与成本驱动因素

1.1 2026年全球医疗通胀率区域分化显著

2026年全球平均医疗通胀率预计为 9.8% ,这是自2023年以来首次回归个位数增长。然而,区域差异极为明显:中东和非洲以 15.3% 的增速领跑,亚太地区 11.3% 紧随其后,而欧洲仅为 8.2% 。中东非洲的高通胀主要源于进口依赖、货币贬值及慢性病负担加重;欧洲则受益于通胀降温及公共医疗体系控费成效。


图表1:全球各地区医疗通胀率刻度线图
图表1数据EXCEL及图表PDF模板已分享到会员群

3秒解读:中东非洲看病成本涨得最快,欧洲最稳。
行动建议(跨国企业HR/福利负责人):在中东非洲地区为员工设计弹性福利时,需重点考虑医疗通胀对冲,例如增加远程医疗服务或与当地优质医院签订定向 协议 **。

1.2 名义与净通胀率双降,连续三年递减趋势确立

2026年名义通胀率从2025年的10.0%降至9.8%,净通胀率从7.2%降至7.1%。这一趋势表明,扣除一般通胀后的医疗成本增速正在放缓,反映了宏观经济降温及医疗使用率回归常态。


图表2:全球医疗通胀率对比折线图
图表2数据EXCEL及图表PDF模板已分享到会员群

1.3 五大疾病驱动医疗成本攀升

心血管疾病连续位居影响医疗成本的首位(100%),癌症/肿瘤(95%)、高血压(85%)、糖尿病(75%)紧随其后。值得注意的是,肌肉骨骼类疾病首次进入前五(70%),反映出久坐工作方式导致的相关健康问题显著上升。


图表3:五大疾病影响程度灰底条形图
图表3数据EXCEL及图表PDF模板已分享到会员群

    • *

相关文章

2026AI医疗行业专题报告:智能医疗器械、手术机器人、脑机接口、可穿戴设备|附240+份报告PDF、数据、可视化模板汇总下载

原文链接:https://tecdat.cn/?p=44979

    • *

3秒解读:心脏和癌症最烧钱,“办公臀”也开始拖后腿了。
行动建议(健康险产品经理):设计慢性病管理保险时,应覆盖肌肉骨骼康复服务,并结合可穿戴设备提供预防干预。

1.4 中国人均医疗成本十年增长126%

2015年至2026年,中国人均医疗成本从1292元增至2918元,年化增长率达8.5%。疫情后的2023年反弹18.7%,2026年预计增长7.8%,老龄化与技术进步是长期驱动因素。


图表4:中国人均医疗成本趋势折线图
图表4数据EXCEL及图表PDF模板已分享到会员群

1.5 人口结构与疾病负担变化:住院率十年提升6个百分点

全国居民住院率从2015年的15%升至2024年的21%,员工平均年龄从31岁增至35岁,重大疾病发生率近乎翻番(0.10%→0.23%),其中肺部恶性肿瘤占比从6%升至14%。


图表5:中国人口结构与疾病负担刻度线图
图表5数据EXCEL及图表PDF模板已分享到会员群

1.6 门诊费用结构变化:集采西药费下降3%,中草药费暴涨13%

2025年门诊次均费用较2024年增长约5%,西药费下降3%,但中草药费上升13%,中成药费上升7%,治疗费和检查费也小幅上涨。这反映集采控费成效与价值医疗转向。


图表6:门诊费用变化刻度线图
图表6数据EXCEL及图表PDF模板已分享到会员群

    • *

二、远程医疗与投资热点:并购复苏与AI驱动

2.1 远程医疗并购与融资活动双爆发

2025年远程医疗并购交易达87笔(+64%),融资活动343笔(+107%),创历史新高。美国主导交易流,欧洲增速更快(+93%)。AI正在成为远程医疗从视频咨询转向智能护理编排的核心驱动力。


图表7:远程医疗并购融资对比多边形条形图
图表7数据EXCEL及图表PDF模板已分享到会员群

2.2 估值倍数连续四季度回升,市场回归理性

远程医疗EV/Revenue倍数从2024年上半年的2.7倍修复至2025年下半年的3.9倍,接近十年平均水平。投资者更青睐有运营效率、盈利路径清晰的平台。


图表8:远程医疗估值倍数折线图
图表8数据EXCEL及图表PDF模板已分享到会员群

2.3 全球健康科技市场:亚太占比41%居首

2025年全球健康科技市场区域分布中,亚太地区占比41%,北美29%,欧洲19%,拉美和中东非洲各5%。数字治疗与护理子市场增速最快(7.6%)。


图表9:全球健康科技区域分布圆环图
图表9数据EXCEL及图表PDF模板已分享到会员群

2.4 AI医疗市场十年增长530%,CAGR达20%

AI医疗市场规模预计从2024年的27亿美元增至2034年的170亿美元,AI正在从辅助工具升级为端到端护理编排的核心。


图表10:AI医疗市场规模预测折线图
图表10数据EXCEL及图表PDF模板已分享到会员群

    • *

三、医疗并购与中国创新出海

3.1 全球医疗并购价值增长46%,巨额交易驱动

2025年全球医疗健康并购交易金额达3900亿美元,同比增长46%,11笔超50亿美元巨额交易远超2024年的3笔,显示行业整合加速。


图表11:全球医疗并购金额折线图
图表11数据EXCEL及图表PDF模板已分享到会员群

3.2 亚太成并购增长引擎,中国交易数量激增53%

亚太地区并购数量增长12%,其中中国交易数量同比大增53%,反映全球创新格局向东方转移。


图表12:各地区并购增长率阴影条形图
图表12数据EXCEL及图表PDF模板已分享到会员群

3.3 中国创新药授权出海:交易数量与金额双创新高

2025年中国创新药授权出海交易达157笔,总价值1356亿美元,预付款70亿美元。辉瑞12.5亿美元预付款收购三生制药案例彰显中国创新资产全球吸引力。


图表13:中国创新药授权出海数量折线图
图表13数据EXCEL及图表PDF模板已分享到会员群


图表14:中国创新药预付款折线图
图表14数据EXCEL及图表PDF模板已分享到会员群

3.4 全球并购交易数量下降,价值集中

尽管交易价值增长46%,但交易数量下降5%,反映出资金向头部资产集中。美洲贡献近三分之二交易额。


图表24:全球医疗并购数量折线图
图表24数据EXCEL及图表PDF模板已分享到会员群


图表25:各地区并购金额阴影条形图
图表25数据EXCEL及图表PDF模板已分享到会员群

    • *

四、设备招投标与国产替代

4.1 2025年医疗设备招投标强势反弹

2025年医疗设备公开招中标市场规模达1937.59亿元,同比增长24%,接近2022年高点。设备更新政策释放472%增长动能。


图表15:医疗设备招中标规模折线图
图表15数据EXCEL及图表PDF模板已分享到会员群

4.2 细分领域增速:影像与放疗领跑

医学影像设备同比增长35.37%,放射治疗设备36.34%,其中DR增速高达107.09%,伽马射束治疗机增长186.48%。IVD受集采影响下降6.16%。


图表16:医疗设备细分领域增长率刻度线图
图表16数据EXCEL及图表PDF模板已分享到会员群

4.3 DSA国产化率仅12.5%,替代空间巨大

2025年国内DSA市场进口品牌占比88%,联影医疗和其他国产各占6%。联影零噪声技术突破有望加速进口替代。


图表17:DSA市场品牌占比灰底条形图
图表17数据EXCEL及图表PDF模板已分享到会员群

4.4 国产头部企业招投标增速:开立医疗77%领跑

迈瑞医疗36%,联影医疗34%,开立医疗77%,澳华内镜24%,头部集中趋势明显。


图表18:国产头部企业增速刻度线图
图表18数据EXCEL及图表PDF模板已分享到会员群

4.5 2025年下半年月度招采规模逐月攀升

12月达285亿元峰值,政策红利持续释放。


图表21:医疗设备月度招采规模折线图
图表21数据EXCEL及图表PDF模板已分享到会员群

4.6 医学影像细分领域增速:DR超100%

DR增速107.09%,CT 51.34%,超声42.91%,DSA 32.85%,内窥镜18.74%,高端设备反弹明显。


图表22:医学影像设备增速刻度线图
图表22数据EXCEL及图表PDF模板已分享到会员群

4.7 手术机器人招中标规模增长21.8%

2025年手术机器人招中标51.7亿元,国产企业注册获批加速,海外订单突破彰显全球化竞争力。


图表23:手术机器人招中标规模折线图
图表23数据EXCEL及图表PDF模板已分享到会员群

    • *

五、医疗新科技商业化

5.1 脑机接口市场规模三年复合增20%

2024年32亿元,预计2027年超55亿元,2026年商业化元年。


图表19:脑机接口市场规模折线图
图表19数据EXCEL及图表PDF模板已分享到会员群

5.2 手术机器人全球市场规模2030年近600亿美元

2024年150亿美元,2030年599亿美元,CAGR 18.9%。国产企业2025年海外订单突破。


图表20:手术机器人市场规模折线图
图表20数据EXCEL及图表PDF模板已分享到会员群

    • *

六、医疗健康博士教育:申请者画像与需求洞察

6.1 生源地域分布:京粤沪占比超53%

北京22.2%,广东20.6%,上海11.1%,经济发达地区集中。


图表26:生源地域分布灰底条形图
图表26数据EXCEL及图表PDF模板已分享到会员群

6.2 政策认知行为:知行鸿沟显著

超75%了解政策,仅7.46%实际申请,认知转化障碍成最大痛点。


图表27:政策认知行为圆环图
图表27数据EXCEL及图表PDF模板已分享到会员群

6.3 读博需求动机:学历提升占90.48%

人脉积累61.90%,学术追求相对次要,反映实用导向。


图表28:读博需求动机刻度线图
图表28数据EXCEL及图表PDF模板已分享到会员群

6.4 项目意向度排名:公卫DrPH 68.2%居首

健康数据数字医疗62.1%成新兴热点,临床医学MD仅22.7%最低。


图表29:项目意向度排名刻度线图
图表29数据EXCEL及图表PDF模板已分享到会员群

6.5 研究生学科背景:医学类71.9%,管理学26.3%

交叉能力提升需求明确。


图表30:学科背景分布刻度线图
图表30数据EXCEL及图表PDF模板已分享到会员群

6.6 单位属性与资源支持:医院占58.3%,45%有明确支持

资源支持呈双轨制,需差异化培养方案。


图表31:单位属性与资源支持拼图
图表31数据EXCEL及图表PDF模板已分享到会员群

6.7 工作经验分布:近60%拥有5年以上经验

资深从业者构成主体,课程需强实践性。


图表32:工作经验分布灰底条形图
图表32数据EXCEL及图表PDF模板已分享到会员群

6.8 学术成果储备:57.1%有明确成果,36.5%无成果

硬实力分化明显。


图表33:学术成果储备圆环图
图表33数据EXCEL及图表PDF模板已分享到会员群

    • *

七、对比表:同一主题报告的核心差异

报告名称核心结论数据差异原因分析
怡安《2026年全球医疗趋势报告》全球医疗通胀率9.8%,中东非洲15.3%最高各地区通胀率数据具体基于100+个怡安分支机构调研,反映企业医疗计划成本预期
普华永道《2026年全球并购趋势展望:医疗健康》全球医疗并购价值增长46%,中国交易数量增53%并购交易量价数据基于伦敦证券交易所集团数据,涵盖已宣布交易
平安证券《从设备招投标看2026年行业投资机遇》2025年医疗设备招中标1937.59亿元,yoy+24%细分领域增速数据基于众成数科招投标数据,设备更新政策驱动
Drake Star《远程医疗:2025年回顾与2026展望》远程医疗并购87笔(+64%),融资343笔(+107%)交易数量及估值倍数覆盖欧美远程医疗公司,反映资本流动趋势
医往教育《2025年医疗健康领域非全日制博士申请者画像》90.48%申请者为提升学历,生源京粤沪占53%申请者动机与地域分布基于600份有效问卷,反映非全日制博士申请者特征
    • *

八、行动清单:可落地的3件事

  1. 为跨国企业设计弹性医疗福利
    针对医疗通胀率高的中东非洲、亚太地区,企业可引入远程医疗平台、与本地优质医院签订定向合作协议,并设置弹性福利账户,让员工选择最适合的医疗保障。
  2. 国产设备厂商加速高端产品临床验证与出海
    联影、迈瑞等头部企业应利用DSA、光子计数CT等创新技术,与顶级三甲医院合作开展临床研究,积累真实世界数据,同时瞄准欧洲、东南亚市场,以性价比优势参与国际招标。
  3. 健康险产品融合慢病管理与AI预警
    保险公司可将肌肉骨骼疾病、心血管疾病等纳入核心保障,并与可穿戴设备厂商合作,提供基于AI的风险预警和个性化健康干预,从“事后赔付”转向“事前预防”。
    • *

九、风险提示:报告没说但你必须知道的“坑”

坑1:AI医疗的数据安全与合规风险

报告说:AI能提升诊疗效率30%以上。
但现实:医疗数据涉及患者隐私,一旦发生泄露或模型被恶意攻击,企业将面临巨额罚款和声誉损失。
应对方案:部署私有化AI模型,采用联邦学习技术,确保原始数据不出域;同时与合规律所合作,提前布局数据安全体系。社群内已有医疗CIO分享《医疗数据安全合规自查清单》,进群可领取。

坑2:设备更新政策落地不及预期

报告说:2026年设备更新政策将持续释放需求。
但现实:地方财政压力可能导致招标延迟或预算削减,部分医院可能观望。
应对方案:设备厂商应拓宽民营医院和海外市场,同时关注县域医共体采购机会,利用集采政策调整产品定价策略。

坑3:GLP-1类药物对医疗成本的长期影响

报告说:GLP-1类药物贡献了约10%的医疗趋势增长率。
但现实:如果减肥药被滥用或纳入医保,将迅速推高企业保险成本,且缺乏长期安全性数据。
应对方案:企业HR应重新评估保险计划中GLP-1的覆盖范围,优先保障确诊糖尿病患者,同时引入健康管理项目,从源头控制肥胖及相关疾病。

    • *

十、核心数据表格汇总

图表ID图表内容关键数据
图表1全球各地区医疗通胀率全球9.8%,中东非洲15.3%,亚太11.3%,欧洲8.2%
图表2全球医疗通胀率对比2025名义10.0%,2026名义9.8%;2025净7.2%,2026净7.1%
图表3五大疾病影响程度心血管100%,癌症95%,高血压85%,糖尿病75%,肌肉骨骼70%
图表4中国人均医疗成本2015年1292元,2026年2918元
图表5人口结构与疾病负担住院率15%→21%,员工平均年龄31→35岁,重大疾病发生率0.10%→0.23%
图表6门诊费用各项目变化西药-3%,治疗+4%,检查+1%,中草药+13%,中成药+7%
图表7远程医疗并购与融资并购53→87笔,融资166→343笔
图表8远程医疗估值倍数2.7→3.9倍
图表9全球健康科技区域分布亚太41%,北美29%,欧洲19%,拉美5%,中东非洲5%
图表10AI医疗市场规模2024年27亿美元,2034年170亿美元
图表11全球医疗并购金额2019年2000亿,2025年3900亿美元
图表12各地区并购增长率亚太+12%,欧洲+5%,中东非洲-23%
图表13中国创新药授权出海数量2019年50笔,2025年157笔
图表14中国创新药预付款2019年10亿,2025年70亿美元
图表15医疗设备招中标规模2019年1200亿,2025年1937亿元
图表16医疗设备细分领域增长率医学影像35.37%,放疗36.34%,外科15.81%,生命支持25.10%,康复31.76%,IVD -6.16%
图表17DSA市场品牌占比进口88%,联影6%,其他国产6%
图表18国产头部企业招投标增速迈瑞36%,联影34%,开立77%,澳华24%
图表19脑机接口市场规模2024年32亿,2027年55亿元
图表20手术机器人全球市场规模2024年150亿,2030年599亿美元
图表21医疗设备月度招采规模12月285亿元峰值
图表22医学影像细分领域增速CT 51.34%,MRI 35.82%,DR 107.09%,超声42.91%,DSA 32.85%,内窥镜18.74%
图表23手术机器人招中标规模2019年19.4亿,2025年51.7亿元
图表24全球医疗并购数量2016年2500笔,2025年2470笔
图表25各地区医疗并购金额美洲3800亿,欧洲1200亿,中东非洲1000亿美元
图表26生源地域分布北京22.2%,广东20.6%,上海11.1%,山东6.3%等
图表27政策认知行为了解但没申请过40.3%,刚刚了解35.82%,申请过并非常了解7.46%,完全不了解16.42%
图表28读博需求动机学历提升90.48%,人脉积累61.90%,项目合作47.62%,学术成就41.27%,其他6.35%
图表29项目意向度排名公共卫生DrPH 68.2%,健康数据数字医疗62.1%,健康经济学43.9%,银发经济42.4%,工程博士生物与医药37.9%,营养与健康科学24.2%,临床医学MD 22.7%
图表30研究生学科背景医学类71.9%,管理学类26.3%,交叉学科10.5%,其他12.3%
图表31单位属性与资源支持医院58.3%,企业26.7%,事业单位10.0%,其他5.0%;有明确支持45%,无明确支持55%
图表32工作经验分布近5年40.4%,5-10年29.8%,10年以上29.8%,5年以上合计59.6%
图表33学术成果储备有明确成果57.1%,无明确成果36.5%,模糊未明确6.3%
    • *

本专题内的参考报告(PDF)目录

  • 2025年第四季度远程医疗报告(英文)-DrakeStar.pdf
  • 2026-03-10 16:29
  • 人工智能与医疗行业计费的未来:供应商和投资者的突破-William Blair.pdf
  • 2026-03-05 14:49
  • 2026年全球并购趋势展望:医疗健康.pdf
  • 2026-03-04 21:40
  • 国家数据局:2025年“数据要素×”大赛全国总决赛获奖项目案例集——医疗保障赛道.pdf
  • 2026-03-02 16:10
  • 卫宁健康:2025医疗人工智能年度报告.pdf
  • 2026-02-28 16:04
  • 医往教育:2025年医疗健康领域非全日制博士申请者画像:大数据洞察报告.pdf
  • 2026-02-28 16:02
  • 从设备招投标看2026年行业投资机遇-设备拐点向上趋势明确,医疗新科技蓬勃发展.pdf
  • 2026-02-26 15:52
  • 国家基本医疗保险、生育保险和工伤保险药品目录(2025年)-国家医保局.pdf
  • 2026-02-25 14:50
  • 远程医疗:2025年回顾与2026展望.pdf
  • 2026-02-23 09:18
  • AON怡安智库:2026年全球医疗趋势报告.pdf
  • 2026-02-14 15:48
  • 中国信通院:智能化医疗装备产业蓝皮书(2025年).pdf
  • 2026-02-12 14:28
  • 医药生物行业从设备招投标看2026年行业投资机遇——设备拐点向上趋势明确,医疗新科技蓬勃发展.pdf
  • 2026-02-12 14:21
  • 医疗保健行业创新链系列——中国创新药研发景气度渐趋改善,早研产业链或显著受益.pdf
  • 2026-02-12 14:21
  • 医疗耗材&线下药店行业深度报告——在分化中寻找确定性.pdf
  • 2026-02-12 14:21
  • 医疗器械创新系列行业报告(一):手术机器人五问五答.pdf
  • 2026-02-12 14:21
  • 2026年医疗健康与生命科学行业职场展望Final.pdf
  • 2026-02-11 15:32
  • 医疗卫生行业:新冠肺炎全球风险评估-第9版.pdf
  • 2026-02-11 15:26
  • 创新医疗器械盘点系列(4):肿瘤基因检测的“勇敢者游戏”(上篇).pdf
  • 2026-02-09 14:20
  • 家用医疗器械专题报告(一):健康监测&呼吸治疗篇.pdf
  • 2026-02-08 09:56
  • 华西证券-小核酸药物行业深度研究报告:RNA精准医疗时代的崛起与挑战.pdf
  • 2026-02-08 09:56
  • 中国民营医疗服务:穿越寒冬,静待春生.pdf
  • 2026-02-06 16:42
  • 2025年全球医疗健康产业资本报告.pdf
  • 2026-02-04 16:40
  • 第139期-叶彦辛&宋立恒-《智启 Al 新程从 FastGPT 实战到医疗模型可解释性探索》.pdf
  • 2026-02-04 16:37
  • 口腔医疗机构广告合规指南(2025).pdf
  • 2026-02-01 13:30
  • AI医疗行业专题报告——AI重构医疗,从场景落地到变现讨论.pdf
  • 2026-02-01 13:27
  • “通往再平衡之路”系列之二:从医疗服务涨价看稳通胀路径.pdf
  • 2026-02-01 13:26
  • 长江证券:医疗器械出海深度(二)复盘希森美康——海外深耕,属地筑基.pdf
  • 2026-02-01 13:25
  • 光大证券:AI医疗行业专题报告——AI重构医疗,从场景落地到变现讨论.pdf
  • 2026-02-01 13:25
  • 医疗器械出海深度(二)复盘希森美康——海外深耕,属地筑基.pdf
  • 2026-01-30 15:56
  • 知识产权出版社:医疗健康行业2025年专利分析白皮书.pdf
  • 2026-01-30 15:54
  • 未来健康7:未来的医疗体系.pdf
  • 2026-01-29 14:29
  • 2025年智能体时代:重塑企业未来报告-医疗保健和生命科学行业.pdf
  • 2026-01-28 16:00
  • 华创医疗器械求索系列11:脑机接口行业:政策加码,临床加速,产业化进入关键阶段.pdf
  • 2026-01-28 15:51
  • 人工智能行业专题:OpenAI发布医疗健康Gpt,开启AI医疗新时代.pdf
  • 2026-01-27 15:48
  • 思宇MedTech:2025医疗器械BD白皮书.pdf
  • 2026-01-25 12:39
  • 上海社会科学院:AI医疗治理白皮书(2026版).pdf
  • 2026-01-24 17:41
  • 中国生物制药、医疗设备及医用耗材出口及重点进口国市场分析.pdf
  • 2026-01-22 12:06
  • 医疗保障、气象服务领域“数据要素×”典型场景指引.pdf
  • 2026-01-21 17:32
  • 口腔医疗机构广告合规指南(2025) .pdf
  • 2026-01-21 16:17
  • 讯飞医疗科技-2506.HK-医疗AI领军企业,大模型技术领先,BC端场景加速落地.pdf
  • 2026-01-21 15:37
  • 硕远咨询:2025年中国母婴医疗服务行业市场研究报告.pdf
  • 2026-01-19 16:57
  • 2025年中国可穿戴医疗设备行业市场研究报告.pdf
  • 2026-01-19 16:47
  • 财信证券:医疗器械行业深度——时代变革下,创新与出海仍是投资主线.pdf
  • 2026-01-15 15:33
  • 贝恩公司:2026年全球医疗健康行业私募股权报告(英文版).pdf
  • 2026-01-14 16:12
  • 医疗保障法律法规及政策汇编(2026年版).pdf
  • 2026-01-14 16:09
  • 全球医药、医疗行业——2026年-关注慢病迭代,经营质量和现金流.pdf
  • 2026-01-12 15:12
  • 全球医药、医疗行业——2026年-关注慢病迭代,经营质量和现金流.pdf
  • 2026-01-11 09:25
  • 中国科技产业化促进会:2025年中国健康医疗数据要素应用案例集.pdf
  • 2026-01-06 16:03
  • StartUs Insights:2026年全球医疗行业趋势研究报告(英文版).pdf
  • 2026-01-06 15:25
  • 医疗科技跨年展望暨近期热点综述.pdf
  • 2026-01-06 15:15
  • 医疗彩超行业:临床诊断的基石与智能化升级核心.pdf
  • 2026-01-06 15:15
  • 2025年量子技术:健康与医疗保健领导者的战略要务报告.pdf
  • 2026-01-03 10:50
  • 动脉智库:2025年数字医疗年度创新白皮书.pdf
  • 2025-12-31 15:38
  • 段涛教授团队:2025 妇儿医疗健康科普白皮书.pdf
  • 2025-12-30 14:53
  • 从医疗科技到健康科技:赋能未来健康护理生态.pdf
  • 2025-12-30 14:48
  • IVD体外诊断相关医疗器械行业报告——IVD国内短期承压,头部企业积极出海.pdf
  • 2025-12-30 14:40
  • 耐用消费产业行业研究:宠物医疗系列之一:黄金增长期叠加连锁化率提升,宠物医院板块机会在即.pdf
  • 2025-12-29 15:52
  • 医药行业报告:数说德国医疗医保系统,医保商保协调发展.pdf
  • 2025-12-29 15:51
  • 动脉智库:2025年医疗器械及供应链年度创新白皮书.pdf
  • 2025-12-27 16:59
  • 2025医疗人工智能产业报告:价值计量&支付探索,突破医疗AI困境.pdf
  • 2025-12-26 16:07
  • 医药生物行业:AI医疗应用商业化加速,重视AI医疗底部机会.pdf
  • 2025-12-26 15:59
  • CIC工信安全:医疗器械行业数字化转型发展报告(2025).pdf
  • 2025-12-25 16:53
  • CIC工信安全:医疗装备行业数字化转型场景图谱(2025).pdf
  • 2025-12-25 16:53
  • CIC工信安全:医疗装备行业数字化转型场景需求清单(2025).pdf
  • 2025-12-25 16:53
  • 丁香园:2024医疗机构最佳雇主洞察报告.pdf
  • 2025-12-25 16:52
  • 动脉智库:2025年医疗服务年度创新白皮书.pdf
  • 2025-12-25 16:43
  • 全球医药、医疗行业——2026年医疗科技行业展望,AI提效、资本开支复苏与医疗器械政策趋稳.pdf
  • 2025-12-24 15:30
  • 2025年中国口腔医疗行业市场研究报告-硕远咨询.pdf
  • 2025-12-22 15:02
  • 蛋壳研究院:2025年医疗人工智能产业报告.pdf
  • 2025-12-18 14:47
  • 药品和医疗器械警戒领域的前瞻性监管情报.pdf
  • 2025-12-16 16:22
  • 易观分析:2025年AI精准医疗市场专题分析报告.pdf
  • 2025-12-15 16:10
  • 2024年中德比较视野下的中国基层医疗守门模式-一个多层次的分析框架.pdf
  • 2025-12-14 08:43
  • 医药魔方:2025年中国医疗器械投融资趋势与国产替代机遇报告.pdf
  • 2025-12-14 08:30
  • PitchBook:2026年医疗保健展望报告(英文版).pdf
  • 2025-12-11 16:27
  • 医疗实践:美国医疗系统改善女性医疗保健的500亿美元机遇.pdf
  • 2025-12-10 16:59
  • 商业医疗险报告三——探索受益于商业医疗险发展的细分赛道.pdf
  • 2025-12-09 16:09
  • 商业医疗险报告二:他山之石,辩证看待美国健康险管理医疗模式.pdf
  • 2025-12-09 16:09
  • 2026年医疗器械年度投资策略:支付优化,创新出海.pdf
  • 2025-12-08 16:07
  • 商业医疗险报告三-探索受益于商业医疗险发展的细分赛道.pdf
  • 2025-12-07 10:18
  • 保持领先地位——药品和医疗器械警戒领域的前瞻性监管情报.pdf
  • 2025-12-05 16:51
  • 国家医疗保障局:长期护理保险服务管理文书(2026年版.pdf
  • 2025-12-05 16:51
  • 沙利文:2025年中国医疗器械国际化现状与趋势蓝皮书.pdf
  • 2025-11-26 15:49
  • 2025年美国医疗服务可负担性及价值评估追踪报告.pdf
  • 2025-11-22 16:34
  • 全球医药、医疗行业——代谢新药研发系列(四),PCSK9Lp(a)心血管新药黄金时代.pdf
  • 2025-11-22 16:26
  • 医疗保健设备与服务行业——当医疗遇上AI,技术突破或重构诊疗逻辑.pdf
  • 2025-11-15 15:03
  • 2025未来健康指数报告:构筑医疗Al信任基石-医患双重视角下的医疗健康未来.pdf
  • 2025-11-13 15:31
  • 2025年智启新质生产力之三 ——生成式人工智能 (AIGC)在医疗器械 的潜在应用.pdf
  • 2025-11-10 13:50
  • 让GCCs适用于中端医疗技术.pdf
  • 2025-11-10 13:40
  • Salesforce:2025年中国医疗健康和生命科学行业报告.pdf
  • 2025-11-08 17:46
  • 医疗器械专题:脑机接口行业深度专题二:三个维度看脑机接口行业发展趋势.pdf
  • 2025-11-08 17:40
  • 克劳锐:2025健康医疗内容消费趋势洞察报告.pdf
  • 2025-11-07 16:31
  • TempusAI启示:用数据构筑AI+医疗行业领先优势-中邮证券.pdf
  • 2025-11-05 16:40
  • SVB:2025年医疗科技行业未来展望报告(英文版).pdf
  • 2025-10-31 15:12
  • 全球医药、医疗行业——全球健康产业进入新拐点-长期韧性显现,创新动能积聚.pdf
  • 2025-10-28 16:18
  • 欧盟人工智能法案如何重塑emea的医疗器械产业.pdf
  • 2025-10-27 16:12
  • 医疗器械海外深度(三):中美对比,创新出海.pdf
  • 2025-10-24 14:06
  • 北欧可持续医疗中心:2025年可持续医疗趋势报告.pdf
  • 2025-10-20 14:55
  • 探索医疗保健领域的塑料循环利用机会.pdf
  • 2025-10-20 14:53
  • 跨越信任鸿沟:AI在科研与医疗领域深度应用的核心挑战.pdf
  • 2025-10-18 17:14
  • 2025中国医疗健康保障体系转型发展报告:应对老龄化挑战与推动商业健康保险创新.pdf
  • 2025-10-17 16:00
  • 2025年医疗服务报告:基于对30个国家的调研(英文版).pdf
  • 2025-10-17 15:59
  • 医疗保健:医疗器械2025.pdf
  • 2025-10-16 15:19
  • AI 时代的医疗保健业:科技注入,赋能 医疗创新与患者关怀-IBM.pdf
  • 2025-10-14 15:25
  • 医药生物行业专题报告:AI职能蜕变,医疗行业变革蓄势待发.pdf
  • 2025-10-14 15:09
  • 动脉橙:2025年9月全球医疗健康领域投融资月报.pdf
  • 2025-10-13 09:51
  • 西心血管疾病相关医疗器械行业报告——心血管行业空间广阔,集采助力国产替代.pdf
  • 2025-09-30 16:37
  • 2025年中国医疗美容市场洞察报告:轻医美如何用“生活化场景”开拓新增长极?.pdf
  • 2025-09-29 15:55
  • 2025年Q3医疗器械行业薪酬报告.pdf
  • 2025-09-29 15:54
  • 2025年Q3医疗美容行业薪酬报告.pdf
  • 2025-09-29 15:54
  • 2025年AI应用与行业转型:对医疗、金融服务、气候与能源及交通领域的影响报告(英文版).pdf
  • 2025-09-26 14:23
  • 美国医疗行业系列研究(三)——美国药品支付体系拆解-美国高药价的成因?特朗普药价政策的影响?.pdf
  • 2025-09-25 16:00
  • 生物医药行业——商业医疗险报告一-见微知著,医保承压下商保或为破局之法.pdf
  • 2025-09-25 16:00
  • _印孚瑟斯Infosys:2025年医疗保健市场前景报告(英文版).pdf
  • 2025-09-23 16:36
  • 可负担医疗的未来:释放人工智能的潜力,以改造东南亚的卫生系统.pdf
  • 2025-09-22 16:20
  • 农林牧渔行业:宠物医疗空间广阔,全国连锁模式最优.pdf
  • 2025-09-21 17:13
  • 2025热电偶导线在医疗器械中的应用场景白皮书.pdf
  • 2025-09-20 16:56
  • 2025年智能医疗健康:人工智能驱动转型与价值重塑报告.pdf
  • 2025-09-14 19:32
  • 2025年未来医生白皮书:医疗行业持续发展的关键洞察(英文版).pdf
  • 2025-09-14 19:30
  • 美国卫生与公众服务部发布 “医疗卫生行业人工智能发展战略计划”.pdf
  • 2025-09-12 16:35
  • 2025年未来AI与劳动力:生成式AI对医疗行业岗位的影响研究报告(英文版).pdf
  • 2025-09-12 16:33
  • 医疗保健行业GLP_1受体激动剂行业深度报告:GLP_1RAs引领降糖减重市场,更多适应症有待开发.pdf
  • 2025-09-11 15:12
  • 浙江省基本医疗保险医疗服务项目目录(2025年).pdf
  • 2025-09-09 15:21
  • 上海喜美医疗美容品牌升级规划方案.pdf
  • 2025-09-06 19:21
  • ITIF:2025 AR&VR在医疗领域中的应用潜力研究报告(英文版).pdf
  • 2025-08-27 16:52
  • 信任與創新:提升遙距醫療管治.pdf
  • 2025-08-26 17:02
  • 中国医疗器械出海东南亚白皮书 - 天册律师事务所.pdf
  • 2025-08-26 17:02
  • 2025年信任与创新:提升遥距医疗管治研究报告(繁体版).pdf
  • 2025-08-21 17:01
  • 顺为人和:2025年医疗器械标杆企业组织效能报告.pdf
  • 2025-08-21 16:57
  • 全球医药、医疗行业:GenAI前沿实践更新,Agent化落地成主线.pdf
  • 2025-08-15 16:00
  • 医疗器械行业深度(R3):神经介入行业,大空间,新机遇.pdf
  • 2025-08-15 15:59
  • 2025年医疗保健预算执行-从瓶颈到解决方案报告.pdf
  • 2025-08-14 16:55
  • 智慧健康医疗体系概述.pdf
  • 2025-08-14 16:48
  • AI医疗行业深度:驱动因素、重点方向、产业链及相关公司深度梳理.pdf
  • 2025-08-14 16:47
  • 医疗保健预算执行 从瓶颈到解决方案.pdf
  • 2025-08-12 16:08
  • 医疗保健服务公共比较表和估值指南.pdf
  • 2025-08-12 16:07
  • 2025年emea医疗保健市场快照:欧洲、中东和非洲地区医疗保健私营市场活动概述.pdf
  • 2025-08-11 15:46
  • 2025年信心与价值:提升医疗价格透明度研究报告(繁体简版).pdf
  • 2025-08-10 18:40
  • 艾社康:2024-2025多层次医疗保障创新案例集.pdf
  • 2025-08-06 16:18
  • 2025年马来西亚医疗器械评估优化白皮书:价值导向型综合性方法(英文版).pdf
  • 2025-08-06 16:16
  • 2025年AI科技勾勒医疗未来蓝图-AI for 医疗健康系列报告“智” 愈未来.pdf
  • 2025-08-05 15:30
  • 医疗健康大模型伦理与安全白皮书.pdf
  • 2025-08-05 15:27
  • 2025人工智能大模型在医疗领域发展态势研究报告.pdf
  • 2025-08-02 16:20
  • 中国医疗保健:银发经济崛起-高盛.pdf
  • 2025-08-01 16:47
  • 亿欧智库 _ 2025中国人工智能医疗健康研究报告.pdf
  • 2025-07-29 17:10
  • 2025年医疗耗材数字化领用白皮书-以低值耗材为切入口的AI智能仓储实践.pdf
  • 2025-07-29 17:09
  • 医药行业2025年中期投资策略——BD加速创新药重估,后续持续看好创新药及产业链、AI医疗、脑机接口等结构性机会.pdf
  • 2025-07-23 16:22
  • 2025中国宠物医疗行业现状报告-嘉世咨询.pdf
  • 2025-07-20 20:06
  • 2025“人工智能 ”医疗健康行业应用白皮书-阿里云.pdf
  • 2025-07-20 20:04
  • 医药生物行业专题报告:“AI+医疗”商业化进程有望加快.pdf
  • 2025-07-20 19:59
  • 健闻咨询:2025年Z世代个性化消费医疗洞察报告.pdf
  • 2025-07-18 16:43
  • 汇银林泰:2025高端医疗发展白皮书.pdf
  • 2025-07-18 16:43
  • 动脉智库:2025年H1全球医疗健康产业资本报告.pdf
  • 2025-07-17 15:51
  • 2025商业健康保险与医药产业高质量 协同发展——团体补充医疗保险改革新视角.pdf
  • 2025-07-17 15:48
  • 医药生物-AI医疗行业系列二暨GenAI系列深度之62:AI医药,智愈未来,技术变革下的生态重塑.pdf
  • 2025-07-16 16:02
  • 2024年塑造美国医疗经济的八大趋势研究报告(英文).pdf
  • 2025-07-15 16:24
  • 医疗器械行业2025H2投资策略:国内不利因素逐渐消退,海外市场进展迅速.pdf
  • 2025-07-15 16:23
  • 宠物医疗行业系列2-宠物医院分散格局谋突破,连锁专科领未来.pdf
  • 2025-07-11 15:57
  • 2025年未来医疗调查报告(英文).pdf
  • 2025-07-09 16:23
  • 2025年医疗美容行业白皮书-薪智.pdf
  • 2025-07-07 16:50
  • 保健品品牌 × 小红书“疗愈式营销”品效双赢【医疗保健】【医药保健】【种草营销】.pdf
  • 2025-07-06 08:30
  • 薪智:2025年Q2薪智医疗美容行业薪酬报告.pdf
  • 2025-06-30 15:06
  • 德勤:2025年中国智慧医疗行业白皮书.pdf
  • 2025-06-28 17:12
  • 2025年关于最有价值和最强大的制药、医疗器械和服务品牌的年度报告(英文版).pdf
  • 2025-06-28 17:08
  • 香2024年优化跨境就医应对医疗需求报告(繁体版).pdf
  • 2025-06-28 17:03
  • 2025年医疗保健品牌榜.pdf
  • 2025-06-26 16:55
  • 2025制药、医疗科技与生物技术领域AI应用 :解锁商业成功之道(英文).pdf
  • 2025-06-25 16:34
  • 2024年全球医疗科技行业状况及2025年展望报告(英文版)-Vamstar.pdf
  • 2025-06-23 15:39
  • 2025“面向未来的医疗”调研报告(英文).pdf
  • 2025-06-19 16:03
  • 嘉世咨询:2025年宠物医疗行业简析报告.pdf
  • 2025-06-17 15:21
  • 荣续ESG智库:2025年医疗器械行业ESG白皮书.pdf
  • 2025-06-16 09:49
  • 荣续ESG智库:2025年医疗卫生行业ESG白皮书.pdf
  • 2025-06-16 09:49
  • IDC:2025年医疗行业智慧文印解决方案白皮书.pdf
  • 2025-06-14 16:43
  • 医药生物行业深度报告:引领医疗革命,CGT成长空间广阔.pdf
  • 2025-06-13 16:08
  • 沙利文:2025年中国医疗器械出海现状与趋势蓝皮书.pdf
  • 2025-06-12 15:39
  • 阿里云:2025医疗健康行业AI应用白皮书.pdf
  • 2025-06-11 16:38
  • 兰州市基本医疗保障政策指南.pdf
  • 2025-06-09 13:31
  • 2025年易凯资本中国健康产业白皮书-医疗技术与器械篇.pdf
  • 2025-06-07 16:42
  • 2025年易凯资本中国健康产业白皮书-医疗与健康服务篇.pdf
  • 2025-06-06 15:36
  • 2025 医疗健康新质生产力 “创变引擎” 系列洞察 创新医疗科技篇.pdf
  • 2025-06-04 16:26
  • 智药局:2025年AI Agent+医疗行业研究报告.pdf
  • 2025-06-02 08:58
  • 2025年AI医疗行业发展现状、趋势、主要应用领域及相关标的分析报告.pdf
  • 2025-05-22 15:55
  • 医疗器械行业深度:AI医疗重构诊疗流程,效率与市场增长下的投资机会.pdf
  • 2025-05-16 16:45
  • 2025年人工智能与机器学习在医疗科技领域的崛起研究报告(英文版).pdf
  • 2025-05-13 16:24
  • 2025年第一季度欧洲和美国远程医疗报告.pdf
  • 2025-05-12 15:49
  • 医疗行业分布式数据库解决方案白皮书 .pdf
  • 2025-05-12 15:43
  • 南京大学(高阳):2024年健康医疗数据的确权与流通报告.pdf
  • 2025-05-10 15:44
  • 2025年医疗大模型研究报告-新质生产力大模型在各医疗场景的赋能实践.pdf
  • 2025-05-09 16:27
  • 2025年迈向全民医疗保障的中国经验研究报告(英文版).pdf
  • 2025-05-09 16:25
  • 国际劳工组织(ILO):2025年迈向全民医疗保障的中国经验研究报告.pdf
  • 2025-05-08 15:59
  • 罗氏医疗(梁莉):融合创新技术团队适应医疗行业的敏捷转型之路.pdf
  • 2025-05-03 10:35
  • 中国LSHC生命科学与医疗行业调查报告.pdf
  • 2025-04-30 17:14
  • 智慧医疗专题-智慧养老整体解决方案(22页 ).pdf
  • 2025-04-26 14:23
  • 艾昆纬:降低医疗科技行业的风险与干扰.pdf
  • 2025-04-24 15:54
  • 中国软件评测中心:2024年广东省医疗诊断、监护及治疗设备产业调研报告.pdf
  • 2025-04-22 15:41
  • 2024年高性能医疗器械创新发展报告-国家高性能医疗器械创新中心.pdf
  • 2025-04-21 10:04
  • 人工智能在医疗场景中的应用分享.pdf
  • 2025-04-17 16:46
  • AI医疗专题:从AIGC角度看医药产业图谱.pdf
  • 2025-04-17 16:36
  • AI 医疗:提质增效,全面赋能.pdf
  • 2025-04-17 16:36
  • 沙利文:2025年放疗医疗器械市场行业研究报告.pdf
  • 2025-04-16 15:38
  • 中国AI医疗行业白皮书:精准医疗,智能未来.pdf
  • 2025-04-16 15:28
    • *

加入社群,获取300+份完整报告PDF、数据表格及可视化模板,与800+医疗行业从业者共同交流成长。

封面

一、为什么需要ETL与Hudi集成

随着企业数据规模的爆发式增长,传统的数据仓库架构已难以满足业务对实时性和灵活性的需求。Apache Hudi作为新一代流式数据湖框架,将流处理的能力引入数据湖,实现了批流一体的数据管理范式。

然而,将业务数据高效写入Hudi数据湖并与现有ETL流程无缝衔接,是许多企业面临的技术挑战。传统的做法是通过多级数据搬运:先写入Kafka,再由Spark/Flink消费后写入Hudi。这种方案虽然可行,但架构复杂、延迟较高、维护成本居高不下。

1.传统方案痛点

架构复杂、延迟高、组件多、运维难

2.集成后优势

一站式写入、分钟级延迟、统一管理

3.业务价值

降本增效、数据实时可用、分析更灵活

image.png

二、Apache Hudi核心概念解析

Apache Hudi(Hive Update, Deletion, and Insertion)是Uber开源的流式数据湖框架,于2020年晋升为Apache顶级项目。它在HDFS/云存储之上提供了类似于数据库的ACID事务能力,支持增量处理和模式演化。

Hudi三大表类型

Copy On Write (COW)

写入时直接重写数据文件,无压缩合并。适合写少读多的场景,读取性能最优。

Merge On Read (MOR)

数据先写入日志文件,读取时合并。适合写多读少的场景,写入性能最优。

Log (仅MOR)

增量日志方式存储最新写入,兼顾实时性与压缩优化。

image.png

Hudi四种查询类型

c0e40bf8-25b8-40ed-8f1f-e2b939969ec1.png

三、ETLCloud集成Hudi实战

ETLCloud提供了开箱即用的Hudi集成能力,支持将任意数据源的数据直接写入Hudi数据湖。整个过程可视化配置,无需编写代码。

操作步骤一:创建Hudi数据目标

  • 在ETLCloud「数据目标」页面,选择「Hudi」类型;
  • 配置Hudi表参数:表名、存储路径(HDFS/S3)、表类型(COW/MOR);
  • 设置分区策略:按日期/业务ID/动态分区;
  • 配置写入参数:压缩策略、并发度、记录键字段;

操作步骤二:配置ETL转换流程

  • 拖拽创建「数据源」节点 → 「数据转换」节点 → 「Hudi输出」节点;
  • 在数据转换节点中配置字段映射、类型转换、数据清洗规则;
  • 设置Hudi输出节点的Upsert策略:Insert if Not Exists / Update if Exists;

操作步骤三:执行与监控

  • 点击「运行」按钮,任务将以Spark引擎执行;
  • 在「运行监控」页面查看写入进度、延迟、数据量;
  • 支持异常告警配置,数据写入失败自动通知;

四、最佳实践与性能优化

1.表类型选择建议

Copy On Write (COW)

适合读多写少场景,如数据仓库、历史数据分析。读取时无需合并,延迟更低。

Merge On Read (MOR)

适合写多读少场景,如实时数仓CDC写入。写入性能更高,存储更紧凑。

2.分区策略优化

  • 按日期分区:最常用策略,便于数据生命周期管理和历史数据清理
  • 按业务ID分区:避免小文件问题,提升查询性能
  • 动态分区:根据数据内容自动创建分区,减少元数据管理开销

3.写入性能调优

  • 调整并发度:根据集群资源合理配置写入并发,通常建议4-8个并发任务
  • 小文件合并:配置自动合并策略,避免小文件影响读取性能
  • 批量提交:合理设置commit间隔,在延迟与吞吐量间取得平衡

五、总结

ETL与数据湖Hudi的集成是构建现代流式数据架构的关键一环。通过ETLCloud的可视化配置,企业可以快速实现数据源到Hudi的高效写入,无需深入了解底层技术细节。掌握Hudi的表类型选择、分区策略和性能调优,将帮助企业更好地发挥数据湖的价值,支撑实时分析与AI数据需求。

不久之前我和 Gemini 讨论了关于作为一名乡党委书记的工作情况,大致如下:“小明是 XX 乡党委书记,他今天在工作中 xxxxx ,你作为一名客观公正的第三方,来评估下这件事会给他带来什么影响?” ,全程使用第三人称。

从那以后,Gemini 就把我当作了某乡党委书记,经常和它聊着聊着就蹦出来下面这一段话:

你极其聪明、硬核且执行力惊人,但你正在让自己的“系统”超载。你的硬件(精力)和带宽(时间)无法同时支撑乡党委书记和顶级前端工程师的双线作战。


我很是哭笑不得,尝试了很多方法,告诉它这段记忆是错误的,让它删除关于我是“某乡党委书记”的记忆,之间的那个会话我也翻出来删除了。

Gemini 答应的很好,声称自己会更新记忆,但是这段记忆并没有被修正。

大家有什么好的解决办法吗?

前言

前端技术日新月异,但核心知识体系却有章可循。作为一名资深前端工程师,我深知系统学习的重要性——零散的知识点如同孤岛,只有串联成网,才能真正内化为能力。因此,我发起这个为期365天的写作计划,每天一篇技术文章,旨在帮助读者循序渐进地构建完整的前端知识架构,无论你是初学者还是有一定经验的开发者,都能从中获益。

计划概览

本计划按季度划分为四大阶段,每个阶段聚焦一个核心领域,同时穿插实战项目,确保理论与实践结合。全年共约365篇文章,涵盖HTML/CSS、JavaScript、框架、工程化、性能优化、全栈、前沿技术等20+个模块。

整体大纲

季度主题核心内容
Q1基础重塑HTML/CSS进阶、JavaScript核心、ES6+深入
Q2框架与工程化React全家桶、Webpack/Vite、工程化最佳实践
Q3性能与原理浏览器原理、性能优化、TypeScript系统课
Q4拓展与架构全栈开发、移动端/桌面端、前沿技术、架构设计

详细计划(按月划分)

第一阶段:基础重塑(第1-3个月)

第1月:HTML/CSS 深度之旅

  • 第1周:语义化与文档流

    • 文章1:HTML5语义化标签的正确使用场景
    • 文章2:深入理解块级与行内元素,以及display的新特性
    • 文章3:文档流与格式化上下文(BFC/IFC)实战解析
    • 文章4:CSS选择器优先级与继承机制
    • 文章5:box-sizing与边距折叠的终极解决方案
    • 文章6:实战:重构一个老旧页面,提升语义化与可访问性
    • 文章7:每周总结与Q&A
  • 第2周:布局大师

    • 文章8:浮动布局的过去与现在(清除浮动的多种方法)
    • 文章9:Flexbox完全指南(容器属性、项目属性、实战案例)
    • 文章10:Grid网格布局从入门到精通
    • 文章11:多列布局与瀑布流实现
    • 文章12:响应式设计的核心:媒体查询与断点设置
    • 文章13:移动端适配方案(rem、vw/vh、视口)
    • 文章14:实战:构建一个响应式官网首页
  • 第3周:视觉美化

    • 文章15:CSS颜色与渐变(线性、径向、锥形渐变)
    • 文章16:字体排版与Web字体加载优化
    • 文章17:过渡与动画(transition、animation关键帧)
    • 文章18:变换(transform)2D/3D应用
    • 文章19:滤镜与混合模式(filter、backdrop-filter)
    • 文章20:实战:制作一个炫酷的加载动画库
    • 文章21:每周总结与优秀作品展示
  • 第4周:预处理与后处理

    • 文章22:Sass基础:变量、嵌套、混合、继承
    • 文章23:Sass进阶:函数、循环、条件、模块化
    • 文章24:Less与Stylus快速对比
    • 文章25:PostCSS生态:autoprefixer、stylelint、cssnano
    • 文章26:CSS-in-JS方案对比(styled-components、emotion)
    • 文章27:原子化CSS(Tailwind CSS)实战
    • 文章28:项目:重构一个组件库的样式层

第2月:JavaScript 核心再探索

  • 第1周:变量、类型与作用域

    • 文章29:JavaScript数据类型详解(含Symbol、BigInt)
    • 文章30:隐式转换与装箱/拆箱机制
    • 文章31:作用域与作用域链(全局、函数、块级)
    • 文章32:闭包的本质与应用场景(防抖、节流、模块化)
    • 文章33:执行上下文与调用栈(图解)
    • 文章34:垃圾回收与内存泄漏排查
    • 文章35:实战:实现一个简易的模块加载器
  • 第2周:原型与面向对象

    • 文章36:原型与原型链(__proto__prototypeconstructor
    • 文章37:继承的多种实现方式(原型链、盗用构造函数、组合、寄生、ES6类)
    • 文章38:ES6 class的语法糖与底层实现
    • 文章39:new关键字的工作原理
    • 文章40:instanceof与typeof的底层逻辑
    • 文章41:对象属性描述符(数据属性、访问器属性)
    • 文章42:实战:手写一个发布-订阅事件系统
  • 第3周:异步编程

    • 文章43:事件循环(Event Loop)完全解析(浏览器与Node)
    • 文章44:回调地狱与Promise/A+规范
    • 文章45:手写Promise(符合Promise/A+标准)
    • 文章46:async/await的语法糖与异常处理
    • 文章47:Generator函数与协程
    • 文章48:异步迭代器与for await...of
    • 文章49:实战:并发请求控制(带并发限制的请求队列)
  • 第4周:DOM与BOM

    • 文章50:DOM树与节点操作(CRUD)
    • 文章51:事件流(捕获、冒泡)与事件委托
    • 文章52:自定义事件与EventTarget接口
    • 文章53:MutationObserver监听DOM变化
    • 文章54:BOM核心:window、navigator、location、history
    • 文章55:Web Storage(localStorage、sessionStorage)与IndexedDB
    • 文章56:实战:实现一个可拖拽的面板

第3月:ES6+ 与现代化特性

  • 第1周:语法增强

    • 文章57:let/const与暂时性死区
    • 文章58:解构赋值的灵活运用
    • 文章59:字符串与正则增强(模板字符串、Unicode、新方法)
    • 文章60:数值扩展(二进制/八进制、Number新方法、Math方法)
    • 文章61:数组扩展(扩展运算符、Array.from、find、flat等)
    • 文章62:对象扩展(属性简写、合并、键名计算)
    • 文章63:实战:用新语法重构旧项目代码
  • 第2周:函数与模块

    • 文章64:箭头函数的特点与适用场景
    • 文章65:函数参数默认值、剩余参数
    • 文章66:尾调用优化与尾递归
    • 文章67:ES6模块(export/import)与CommonJS区别
    • 文章68:动态import与代码分割
    • 文章69:模块循环加载的处理机制
    • 文章70:实战:设计一个工具库,使用ES6模块打包
  • 第3周:数据结构与集合

    • 文章71:Set与WeakSet
    • 文章72:Map与WeakMap
    • 文章73:Symbol的用途与内置Symbol
    • 文章74:迭代器协议与可迭代对象
    • 文章75:生成器的高级用法(状态机、异步流控制)
    • 文章76:Proxy与Reflect(元编程)
    • 文章77:实战:用Proxy实现数据绑定
  • 第4周:类型与扩展

    • 文章78:装饰器(Decorator)提案与使用
    • 文章79:可选链(?.)与空值合并(??)
    • 文章80:BigInt与整数运算
    • 文章81:globalThis与跨环境访问
    • 文章82:ES2023新特性速览(findLast、Hashbang等)
    • 文章83:JavaScript未来的发展方向
    • 文章84:月度总结与知识图谱梳理

第二阶段:框架与工程化(第4-6个月)

第4月:React 从入门到原理

  • 第1周:React基础

    • 文章85:React设计哲学与虚拟DOM
    • 文章86:JSX语法与Babel编译原理
    • 文章87:组件与Props(函数组件、类组件)
    • 文章88:State与生命周期(类组件)
    • 文章89:事件处理与合成事件
    • 文章90:条件渲染与列表渲染(key的作用)
    • 文章91:实战:搭建第一个React应用(Create React App)
  • 第2周:Hooks 详解

    • 文章92:useState与状态管理
    • 文章93:useEffect与副作用(清除、依赖、执行时机)
    • 文章94:useContext与跨组件通信
    • 文章95:useReducer与复杂状态逻辑
    • 文章96:useRef与DOM操作、保存变量
    • 文章97:自定义Hooks(复用逻辑)
    • 文章98:Hooks原理(链表、闭包陷阱)
  • 第3周:高级模式与性能

    • 文章99:高阶组件(HOC)与render props
    • 文章100:Portals与Modal实现
    • 文章101:错误边界(Error Boundaries)
    • 文章102:Fragment与StrictMode
    • 文章103:React.memo与useMemo、useCallback
    • 文章104:代码分割与Suspense
    • 文章105:实战:优化一个列表组件,避免重复渲染
  • 第4周:React原理探秘

    • 文章106:Fiber架构与协调过程
    • 文章107:Render阶段与Commit阶段
    • 文章108:Diff算法详解(单节点、多节点)
    • 文章109:事件机制与批量更新
    • 文章110:React 18新特性(并发渲染、自动批处理、useTransition等)
    • 文章111:手写迷你React(一):渲染与更新
    • 文章112:手写迷你React(二):Hooks实现

第5月:React 生态与实战

  • 第1周:路由管理

    • 文章113:React Router v6基础(BrowserRouter、Routes、Link)
    • 文章114:嵌套路由与Outlet
    • 文章115:路由传参与获取(useParams、useSearchParams)
    • 文章116:路由守卫与权限控制
    • 文章117:懒加载与路由级代码分割
    • 文章118:与状态管理结合(路由变化触发数据加载)
    • 文章119:实战:实现一个带权限的后台管理路由系统
  • 第2周:状态管理

    • 文章120:Redux核心概念(Store、Action、Reducer)
    • 文章121:React-Redux与connect、useSelector、useDispatch
    • 文章122:Redux Toolkit(configureStore、createSlice)
    • 文章123:Redux异步方案(Thunk、Saga)
    • 文章124:Zustand入门与对比
    • 文章125:MobX响应式状态管理
    • 文章126:实战:从Redux迁移到Redux Toolkit
  • 第3周:UI组件库与样式

    • 文章127:Ant Design实战与主题定制
    • 文章128:Material-UI(MUI)使用指南
    • 文章129:Semi Design与字节组件库解析
    • 文章130:组件库设计原则(原子设计)
    • 文章131:Storybook搭建与文档编写
    • 文章132:CSS模块化方案对比(CSS Modules、styled-components)
    • 文章133:实战:封装一个通用表格组件
  • 第4周:服务端渲染与框架

    • 文章134:Next.js入门(Pages、路由、预渲染)
    • 文章135:Next.js数据获取(getStaticProps、getServerSideProps)
    • 文章136:Next.js API路由与全栈开发
    • 文章137:Next.js部署与优化
    • 文章138:Gatsby静态站点生成
    • 文章139:Remix框架初探
    • 文章140:SSR与SSG原理对比

第6月:工程化体系搭建

  • 第1周:构建工具

    • 文章141:Webpack核心概念(Entry、Output、Loaders、Plugins)
    • 文章142:常用Loader解析(babel-loader、css-loader、file-loader)
    • 文章143:常用Plugin解析(HtmlWebpackPlugin、CleanWebpackPlugin)
    • 文章144:Webpack优化(热更新、缓存、多进程)
    • 文章145:Vite原理与使用(基于ESM的构建)
    • 文章146:对比Webpack、Vite、Rollup、Parcel
    • 文章147:实战:从零配置一个React+Vite项目
  • 第2周:代码规范与质量

    • 文章148:ESLint配置与规则定制
    • 文章149:Prettier与代码格式化
    • 文章150:Husky与lint-staged(Git钩子)
    • 文章151:Commit规范与Commitizen
    • 文章152:EditorConfig与跨编辑器一致性
    • 文章153:Code Review指南与自动化
    • 文章154:实战:搭建前端团队代码规范脚手架
  • 第3周:测试策略

    • 文章155:单元测试与Jest基础(断言、匹配器)
    • 文章156:React组件测试(Testing Library)
    • 文章157:Mock与异步测试
    • 文章158:快照测试与覆盖率
    • 文章159:E2E测试(Cypress/Playwright)
    • 文章160:测试驱动开发(TDD)实战
    • 文章161:实战:为组件库编写完整测试用例
  • 第4周:包管理与发布

    • 文章162:npm/yarn/pnpm对比与使用技巧
    • 文章163:package.json全字段解析
    • 文章164:语义化版本与依赖管理
    • 文章165:发布npm包流程(注册、登录、发布、更新)
    • 文章166:Monorepo管理(Lerna、Turborepo、pnpm workspaces)
    • 文章167:私有npm仓库搭建(Verdaccio)
    • 文章168:实战:发布一个自己的工具库到npm

第三阶段:性能与原理(第7-9个月)

第7月:TypeScript 系统精讲

  • 第1周:基础类型与接口

    • 文章169:TypeScript环境搭建与编译配置
    • 文章170:原始类型与对象类型
    • 文章171:数组、元组、枚举
    • 文章172:接口(Interface)与类型别名(Type)
    • 文章173:函数类型与重载
    • 文章174:类型断言与非空断言
    • 文章175:实战:用TS重写JavaScript工具函数
  • 第2周:高级类型

    • 文章176:联合类型与交叉类型
    • 文章177:类型保护与类型收窄(typeof、instanceof、in、谓词)
    • 文章178:可辨识联合(Discriminated Unions)
    • 文章179:泛型基础(泛型函数、接口、类)
    • 文章180:泛型约束与条件类型
    • 文章181:映射类型与内置工具类型(Partial、Required、Pick等)
    • 文章182:实战:实现一个类型安全的EventEmitter
  • 第3周:类型编程

    • 文章183:条件类型与infer关键字
    • 文章184:递归类型与模板字面量类型
    • 文章185:协变与逆变
    • 文章186:声明文件(.d.ts)编写
    • 文章187:模块扩展与全局声明
    • 文章188:利用TypeScript增强React Props类型
    • 文章189:实战:为第三方库编写类型声明
  • 第4周:工程化与框架集成

    • 文章190:tsconfig.json配置详解
    • 文章191:Webpack/Vite中集成TypeScript
    • 文章192:ESLint + TypeScript规范
    • 文章193:JSDoc与TypeScript互补
    • 文章194:TypeScript在Node.js中的应用
    • 文章195:TypeScript 5.x新特性
    • 文章196:月度总结:TS在前端架构中的价值

第8月:浏览器与网络原理

  • 第1周:渲染原理

    • 文章197:浏览器架构与进程/线程模型
    • 文章198:导航流程(输入URL到页面显示)
    • 文章199:渲染流水线(DOM树、CSSOM、渲染树、分层、绘制、合成)
    • 文章200:重排、重绘与合成
    • 文章201:硬件加速与层压缩
    • 文章202:关键渲染路径优化
    • 文章203:实战:分析并优化页面渲染性能
  • 第2周:JavaScript引擎与内存

    • 文章204:V8引擎工作原理(JIT、内联缓存)
    • 文章205:垃圾回收机制(新生代、老生代、标记清除)
    • 文章206:内存泄漏检测工具与技巧
    • 文章207:微任务与宏任务队列深度剖析
    • 文章208:requestAnimationFrame与requestIdleCallback
    • 文章209:Web Worker与多线程
    • 文章210:实战:用Web Worker优化计算密集型任务
  • 第3周:网络协议

    • 文章211:HTTP/1.1与队头阻塞
    • 文章212:HTTPS与加密握手过程
    • 文章213:HTTP/2多路复用与服务器推送
    • 文章214:HTTP/3与QUIC协议
    • 文章215:WebSocket与实时通信
    • 文章216:CDN原理与配置
    • 文章217:实战:配置Nginx实现负载均衡与缓存
  • 第4周:安全攻防

    • 文章218:XSS跨站脚本攻击与防御(CSP、转义)
    • 文章219:CSRF跨站请求伪造与防御(Token、SameSite)
    • 文章220:点击劫持与X-Frame-Options
    • 文章221:SQL注入与ORM防护
    • 文章222:中间人攻击与HSTS
    • 文章223:前端加密与敏感信息保护
    • 文章224:实战:为网站添加安全头

第9月:性能优化实战

  • 第1周:加载优化

    • 文章225:首屏加载优化指标(FCP、LCP、TTI等)
    • 文章226:资源压缩与Tree Shaking
    • 文章227:图片优化(格式、压缩、懒加载、响应式)
    • 文章228:字体加载优化(font-display、预加载)
    • 文章229:代码分割与动态导入
    • 文章230:预加载与预连接(preload、preconnect)
    • 文章231:实战:使用Lighthouse评估并优化首屏
  • 第2周:运行时优化

    • 文章232:减少重排重绘的策略
    • 文章233:事件节流与防抖
    • 文章234:虚拟列表与无限滚动
    • 文章235:Web动画性能优化(transform代替left等)
    • 文章236:长任务拆分与时间切片
    • 文章237:使用WebAssembly加速计算
    • 文章238:实战:优化长列表渲染性能
  • 第3周:缓存与存储

    • 文章239:浏览器缓存机制(强缓存、协商缓存)
    • 文章240:Service Worker与离线缓存
    • 文章241:IndexedDB大规模数据存储
    • 文章242:Web SQL与LocalStorage的替代方案
    • 文章243:HTTP缓存头最佳实践
    • 文章244:缓存更新策略(CDN刷新、版本控制)
    • 文章245:实战:构建一个PWA应用
  • 第4周:性能监控与工具

    • 文章246:Performance API与性能标记
    • 文章247:使用Chrome DevTools分析性能
    • 文章248:前端监控体系搭建(错误监控、性能上报)
    • 文章249:Sentry接入与错误分析
    • 文章250:自定义性能指标与上报
    • 文章251:A/B测试与性能评估
    • 文章252:月度总结:性能优化 checklist

第四阶段:拓展与架构(第10-12个月)

第10月:全栈开发与Node.js

  • 第1周:Node.js基础

    • 文章253:Node.js架构与事件驱动
    • 文章254:模块系统(CommonJS与ESM)
    • 文章255:文件系统操作与流
    • 文章256:Buffer与二进制数据
    • 文章257:进程与子进程
    • 文章258:cluster模块与多核利用
    • 文章259:实战:编写一个命令行工具
  • 第2周:Web框架(Express/Koa)

    • 文章260:Express中间件机制与路由
    • 文章261:请求处理与响应
    • 文章262:静态文件服务与模板引擎
    • 文章263:Koa的洋葱模型与async/await
    • 文章264:对比Express、Koa、Fastify
    • 文章265:RESTful API设计规范
    • 文章266:实战:搭建一个RESTful API服务
  • 第3周:数据库与ORM

    • 文章267:关系型数据库(MySQL)基础
    • 文章268:NoSQL(MongoDB)基础
    • 文章269:Sequelize ORM使用
    • 文章270:Mongoose ODM使用
    • 文章271:数据库连接池与性能
    • 文章272:事务与ACID
    • 文章273:实战:为博客系统设计数据库模型
  • 第4周:全栈项目实战

    • 文章274:前后端分离与接口联调
    • 文章275:JWT身份认证与鉴权
    • 文章276:文件上传与处理(multer)
    • 文章277:WebSocket实时通信(Socket.io)
    • 文章278:日志与错误处理
    • 文章279:部署Node应用(PM2、Docker)
    • 文章280:项目:从零构建一个全栈问答社区

第11月:移动端与桌面应用

  • 第1周:小程序开发

    • 文章281:微信小程序架构与开发流程
    • 文章282:小程序组件与API使用
    • 文章283:小程序云开发与数据库
    • 文章284:多端框架(Taro/uni-app)
    • 文章285:小程序性能优化
    • 文章286:小程序自动化测试
    • 文章287:实战:开发一个天气查询小程序
  • 第2周:React Native

    • 文章288:React Native环境搭建与原理
    • 文章289:组件与样式(Flexbox)
    • 文章290:导航(React Navigation)
    • 文章291:状态管理与原生模块桥接
    • 文章292:热更新与CodePush
    • 文章293:性能优化(列表、动画)
    • 文章294:实战:构建一个简单的Todo应用
  • 第3周:Electron桌面应用

    • 文章295:Electron主进程与渲染进程
    • 文章296:跨平台配置与打包
    • 文章297:IPC通信与菜单
    • 文章298:系统通知与托盘
    • 文章299:自动更新与分发
    • 文章300:性能与安全考虑
    • 文章301:实战:开发一个Markdown编辑器
  • 第4周:跨端技术对比

    • 文章302:Flutter for Web简介
    • 文章303:对比React Native、Flutter、Weex
    • 文章304:PWA与Native App的融合
    • 文章305:桌面端技术选型(Electron vs Tauri)
    • 文章306:移动端调试与真机调试
    • 文章307:跨端UI组件库设计
    • 文章308:月度总结:跨端开发趋势

第12月:前沿技术与架构设计

  • 第1周:微前端

    • 文章309:微前端核心思想与价值
    • 文章310:single-spa原理与使用
    • 文章311:qiankun框架详解
    • 文章312:微应用通信与隔离
    • 文章313:样式隔离与依赖共享
    • 文章314:微前端落地实践
    • 文章315:实战:将巨石应用拆分为微前端
  • 第2周:WebAssembly与新兴技术

    • 文章316:WebAssembly基础与Emscripten
    • 文章317:Rust与Wasm结合
    • 文章318:AssemblyScript入门
    • 文章319:WebGPU与图形编程
    • 文章320:WebRTC实时通信
    • 文章321:Web3与区块链前端
    • 文章322:实战:用Wasm实现图像处理滤镜
  • 第3周:设计模式与架构

    • 文章323:前端常见设计模式(单例、观察者、工厂、策略等)
    • 文章324:MVC、MVP、MVVM模式演变
    • 文章325:分层架构与DDD在前端的应用
    • 文章326:组件化与可复用设计
    • 文章327:前端架构文档编写
    • 文章328:技术选型方法论
    • 文章329:实战:重构老旧项目,引入设计模式
  • 第4周:总结与展望

    • 文章330:前端知识体系全景回顾
    • 文章331:如何持续学习与跟踪新技术
    • 文章332:面试题精讲(一):HTML/CSS
    • 文章333:面试题精讲(二):JavaScript
    • 文章334:面试题精讲(三):框架与工程化
    • 文章335:面试题精讲(四):性能与安全
    • 文章336:毕业项目:搭建个人技术博客并撰写总结

后记

365天,336篇技术干货(加上穿插的实战与总结,实际超过365篇),这不仅仅是一个写作计划,更是一个共同成长的约定。我将以资深工程师的视角,结合多年实战经验,为你呈现一个系统、深入、实用的前端知识体系。每一篇文章都力求做到:原理+实践+思考,让你不仅知其然,更知其所以然。

希望你能跟随这个计划,每天进步一点点,一年后蜕变为能够独当一面的前端架构师。如果你有任何建议或想要深入探讨的话题,欢迎在评论区留言,我们一起完善这个知识图谱。

明天,我们从HTML/CSS开始,不见不散!

背景依赖增多导致环境复杂度上升

如何才能在真正使用到某个依赖时动态加载该依赖呢?

import lazyllm
# 只用核心能力时,我们不希望触发 tools/rag 依赖检查
chat = lazyllm.OnlineChatModule(source="openai")
print("core ok")
# 一旦访问 Document,才会触发懒加载链路:
# lazyllm.Document
# -> import lazyllm.tools
# -> import lazyllm.tools.rag
# -> check_dependency_by_group('rag')
from lazyllm import Document  # 若缺少 rag 依赖,会在这里抛 ImportError

在较为复杂的 Python 项目中,常见问题是:代码尚未进入核心逻辑,运行环境会因为依赖冲突、缺失或版本不兼容而失败;不同模块往往依赖不同的第三方库。若将所有依赖统一安装,环境会迅速膨胀;若仅安装部分依赖,又容易在执行过程中因缺少依赖而中断。更进一步,即使框架自身依赖关系已经梳理清楚,也仍可能与用户本地环境产生版本或分发差异。这是 Python 生态中常见的依赖管理上的典型挑战。

难点依赖库难以管理,且相关报错不友好

业界常见的解决方案以及难点:

1️⃣全量安装依赖

import lazyllm
# 如果此句直接加载全量依赖会耗时很长,且会导致环境臃肿。用户不会用到的依赖白白占用空间。

2️⃣在用到某依赖时动态import

def func():
  from lazyllm import OnlineChatModule
  pass
# 调用到func时再加载某些依赖会过晚暴露问题,增加开发难度,降低开发者的用户体验

3️⃣缺少依赖或依赖冲突的导致的问题直接打印在海量日志中:关键依赖缺失信息会淹没在其他日志中,增加用户修复环境的成本。

解决方案按需加载与集中检查相结合

LazyLLM 采用按需加载策略:未使用的功能不预先要求安装 ;当用户首次调用相关能力时,框架对该功能组的依赖进行集中校验

以 rag 为例,当用户首次使用相关能力时,LazyLLM 会:

1.一次性检查该功能组所需的全部依赖

2.明确列出缺失的包列表

3.给出统一的安装指令:lazyllm install rag

依赖组的版本约束由 LazyLLM 的预置逻辑管理,用户无需手动查阅兼容矩阵或推断版本组合。总体体验可以概括为:未使用的能力不引入依赖;使用时一次性补齐依赖并可直接继续运行。

下文进入实现细节👇

机制总览

LazyLLM 的延迟加载三层模型:

接下来依次揭开他们的神秘面纱👇

1️⃣顶层懒加载:lazyllm.__getattr__

  • 解决的问题:

加载顶层模块时直接加载所有依赖。

  • lazy的方法:

通过__getattr__ 实现动态加载用户想要加载的子模块,在模块名合法的情况下动态调用该子模块内部的依赖加载流程,能让用户省略子模块路径。

getattr 的作用:当用户访问不存在的属性时,python会调用 obj.__getattr__(name) 以动态实现属性加载逻辑。

  • 关键代码:
# 文件:lazyllm/__init__.py
def __getattr__(name: str):
    if name == 'tools': # 调用中间模块的加载逻辑
        return importlib.import_module('lazyllm.tools')
    elif name in __all__:
        tools = importlib.import_module('lazyllm.tools')
        builtins.globals()[name] = value = getattr(tools, name)  # 导入后会缓存导入结果以避免后续重复导入
        return value
    raise AttributeError(f"module 'lazyllm' has no attribute '{name}'") # 保证加载在顶层init中声明/暴露出来的子模块
  • 效果:

👉顶层 API 暴露完整,但实际导入延后到首次访问
👉导入后写入 globals(),后续访问几乎无额外开销

2️⃣工具子模块懒加载:lazyllm.tools.__getattr__

  • 解决的问题:

加载子模块时直接加载所有依赖。

  • lazy的方法:

与顶层__init_.py 类似,lazyllm.tools 也不会一次性导入所有子模块,而是根据名称映射到具体模块并按需加载。

  • 关键代码:
# lazyllm/tools/__init__.py
def __getattr__(name: str):
    if name == 'fc_register':
        agent = import_module('.agent', package=__package__)
        globals()['fc_register'] = value = agent.register
    elif name in _SUBMOD_MAP:
        return import_module(f'.{name}', package=__package__)
    elif name in _SUBMOD_MAP_REVERSE:
        module = import_module(f'.{_SUBMOD_MAP_REVERSE[name]}', package=__package__)
        globals()[name] = value = getattr(module, name)
    return value

其中_SUBMOD_MAP, _SUBMOD_MAP_REVERSE 用于指定"类名 → 子模块"之间的映射。​​​​​​​

_SUBMOD_MAP = {
    'rag': ['Document', 'Reranker', 'Retriever', 'SentenceSplitter', 'LLMParser'],
    'agent': ['ToolManager', 'FunctionCall', 'ReactAgent', 'PlanAndSolveAgent', 'ReWOOAgent'],
    'sql': ['SqlManager', 'MongoDBManager', 'DBManager', 'DBResult', 'DBStatus'],
    # 其他模块略
}
  • 效果:

当用户编写 from lazyllm.tools import Document 时,才会实际导入 lazyllm.tools.rag。

3️⃣依赖集中检查:子模块导入时统一检测

  • 解决的问题:

👉实际使用依赖时才暴露缺少依赖。

👉多个同时需要的依赖出现异常时,提示分散在不同的场景、log、时间等维度。

  • lazy的方法:

在子模块被导入时触发整个依赖组的检查。

  • 关键代码:
# lazyllm/tools/rag/__init__.py
from lazyllm.thirdparty import check_dependency_by_group
check_dependency_by_group('rag') # 模块init中指定该子模块隶属于哪个依赖组
# lazyllm/thirdparty/__init__.py
def check_dependency_by_group(group_name: str):
    missing_pack = []
    for name in load_toml_dep_group(group_name): # 依赖分组信息直接从整个工程的配置toml文件中获取
        real_name = package_name_map_reverse.get(name, name)
        if not (config['init_doc'] and real_name in module_names or check_package_installed(real_name)):
            missing_pack.append(name)
    if len(missing_pack) > 0:
        msg = f'Missing package(s): {missing_pack}\nYou can install them by:\n    lazyllm install {group_name}'
        LOG.error(msg) # 提示安装依赖组的命令
        raise ImportError(msg)
  • 效果:

👉对功能组进行整体校验
👉一次性列出缺失依赖

LazyLLM 将功能组(如 rag、rag-advanced、agent-advanced)的依赖声明在 pyproject.toml 的 extras 中,同时 lazyllm install 基于同一份配置解析并安装对应版本约束。因此,报错信息与安装命令在同一来源上生成:提示缺什么、安装什么、版本约束是什么保持一致。

👉提供明确的安装命令

4️⃣BONUS: 第三方包的延迟导入封装

当用户确实需要使用特定的三方依赖时也可以复用lazyllm中的延迟加载逻辑

  • lazy的方法:

LazyLLM 对第三方库(例如 torch、transformers)也提供了延迟加载封装。在lazyllm.thirdparty 中使用__getattribute__ 动态检查依赖的安装情况。

  • 关键代码:
# lazyllm/thirdparty/__init__.py
class PackageWrapper(object):
    def __getattribute__(self, __name):
        if self._Wrapper__lib is None:
            try:
                self._Wrapper__lib = importlib.import_module(self._Wrapper__key, package=self._Wrapper__package)
            except ImportError:
                pip_cmd = get_pip_install_cmd([self._Wrapper__key])
                err_msg = f'Cannot import module `{self._Wrapper__key}`, please install it by `{pip_cmd}`'
                raise ImportError(err_msg) from None
        return getattr(self._Wrapper__lib, __name)
  • 效果:

👉该机制将"运行到一半才报错"的问题前置到"首次使用即报错",并提供可直接执行的安装建议(包含版本约束时亦可体现)。

👉这样导入时 from lazyllm.thirdparty import transformers,lazyllm并不会立即导入真实库;直到首次访问其属性时才进行导入,并在缺失时给出明确的安装建议。

使用方式(覆盖常见场景)

情况1️⃣:如果你想仅使用最简功能,可以仅加载顶层模块​​​​​​​

import lazyllm
llm = lazyllm.OnlineChatModule(source="openai")

核心模块属于 lazyllm 的基础依赖,不需要额外安装。

情况2️⃣:如果你的开发涉及 RAG,可以通过顶层模块加载子模块(推荐方式)​​​​​​​

from lazyllm import Document, Retriever
docs = Document(dataset_path="/path/to/data", embed=lazyllm.OnlineEmbeddingModule())
retriever = Retriever(docs)

首次导入 Document 时会触发 rag 依赖检查。若缺少依赖,将提示:​​​​​​​

Missing package(s): [...]
You can install them by:
    lazyllm install rag

然后用户可执行安装命令一次性补全依赖:

lazyllm install rag

情况3️⃣:如果你清楚的知道自己需要什么,可以直接使用子模块

from lazyllm.tools.rag import Document, SentenceSplitter

该方式会直接导入 lazyllm.tools.rag,因此依赖检查会立即触发。

情况4️⃣:如果你需要使用全部 RAG 或 Agent的能力,则需要手动安装相关依赖组

若使用向量数据库、Embedding 微调或 MCP 等高级能力,可安装对应扩展组:​​​​​​​

lazyllm install rag-advanced
lazyllm install agent-advanced

这些扩展组来自 pyproject.toml 的 extras 配置,安装时会自动应用版本约束,通常无需人工拼装依赖版本。更多可安装的依赖场景见官网**安装引导文档(https://docs.lazyllm.ai/zh-cn/stable/)**或项目根目录中 pyproject.toml 的配置。

情况5️⃣:如果你想使用某个具体的第三方库,可以使用lazyllm.thirdparty 导入​​​​​​​

from lazyllm.thirdparty import transformers
tokenizer = transformers.AutoTokenizer.from_pretrained("...")

若缺少依赖,会直接提示执行带版本约束的 pip install ...。

小结

通过上面的介绍,相信你已经对 LazyLLM 这套"按需加载 + 集中检查"的依赖管理思路有了更直观的认识:不用的能力不必提前安装,真正用到时再一次性把依赖校验清楚,并给出可直接执行的安装指令。

简单回顾一下它解决的核心问题:

  • 让环境更轻量: 未使用的功能不引入额外依赖,避免安装集合不断膨胀。
  • 让报错更友好: 缺失依赖在首次使用时就明确提示,并一次性列全,减少反复试错。
  • 让安装更稳定: 依赖组与版本约束统一来源于同一份配置,提示与安装行为一致。

如果你也在维护一个功能模块多、依赖差异大的 Python 项目,这种设计思路通常会带来非常实际的收益:启动更快、环境更稳、问题暴露更早,用户使用门槛也更低。

欢迎升级体验 LazyLLM最新版本,请大家去github上点一个免费的star,支持一下~(也欢迎关注LazyLLM gzh哦!)

LazyLLM项目仓库链接🔗:

背景依赖增多导致环境复杂度上升

如何才能在真正使用到某个依赖时动态加载该依赖呢?

import lazyllm
# 只用核心能力时,我们不希望触发 tools/rag 依赖检查
chat = lazyllm.OnlineChatModule(source="openai")
print("core ok")
# 一旦访问 Document,才会触发懒加载链路:
# lazyllm.Document
# -> import lazyllm.tools
# -> import lazyllm.tools.rag
# -> check_dependency_by_group('rag')
from lazyllm import Document  # 若缺少 rag 依赖,会在这里抛 ImportError

在较为复杂的 Python 项目中,常见问题是:代码尚未进入核心逻辑,运行环境会因为依赖冲突、缺失或版本不兼容而失败;不同模块往往依赖不同的第三方库。若将所有依赖统一安装,环境会迅速膨胀;若仅安装部分依赖,又容易在执行过程中因缺少依赖而中断。更进一步,即使框架自身依赖关系已经梳理清楚,也仍可能与用户本地环境产生版本或分发差异。这是 Python 生态中常见的依赖管理上的典型挑战。

难点依赖库难以管理,且相关报错不友好

业界常见的解决方案以及难点:

1️⃣全量安装依赖

import lazyllm
# 如果此句直接加载全量依赖会耗时很长,且会导致环境臃肿。用户不会用到的依赖白白占用空间。

2️⃣在用到某依赖时动态import

def func():
  from lazyllm import OnlineChatModule
  pass
# 调用到func时再加载某些依赖会过晚暴露问题,增加开发难度,降低开发者的用户体验

3️⃣缺少依赖或依赖冲突的导致的问题直接打印在海量日志中:关键依赖缺失信息会淹没在其他日志中,增加用户修复环境的成本。

解决方案按需加载与集中检查相结合

LazyLLM 采用按需加载策略:未使用的功能不预先要求安装 ;当用户首次调用相关能力时,框架对该功能组的依赖进行集中校验

以 rag 为例,当用户首次使用相关能力时,LazyLLM 会:

1.一次性检查该功能组所需的全部依赖

2.明确列出缺失的包列表

3.给出统一的安装指令:lazyllm install rag

依赖组的版本约束由 LazyLLM 的预置逻辑管理,用户无需手动查阅兼容矩阵或推断版本组合。总体体验可以概括为:未使用的能力不引入依赖;使用时一次性补齐依赖并可直接继续运行。

下文进入实现细节👇

机制总览

LazyLLM 的延迟加载三层模型:

接下来依次揭开他们的神秘面纱👇

1️⃣顶层懒加载:lazyllm.__getattr__

  • 解决的问题:

加载顶层模块时直接加载所有依赖。

  • lazy的方法:

通过__getattr__ 实现动态加载用户想要加载的子模块,在模块名合法的情况下动态调用该子模块内部的依赖加载流程,能让用户省略子模块路径。

getattr 的作用:当用户访问不存在的属性时,python会调用 obj.__getattr__(name) 以动态实现属性加载逻辑。

  • 关键代码:
# 文件:lazyllm/__init__.py
def __getattr__(name: str):
    if name == 'tools': # 调用中间模块的加载逻辑
        return importlib.import_module('lazyllm.tools')
    elif name in __all__:
        tools = importlib.import_module('lazyllm.tools')
        builtins.globals()[name] = value = getattr(tools, name)  # 导入后会缓存导入结果以避免后续重复导入
        return value
    raise AttributeError(f"module 'lazyllm' has no attribute '{name}'") # 保证加载在顶层init中声明/暴露出来的子模块
  • 效果:

👉顶层 API 暴露完整,但实际导入延后到首次访问
👉导入后写入 globals(),后续访问几乎无额外开销

2️⃣工具子模块懒加载:lazyllm.tools.__getattr__

  • 解决的问题:

加载子模块时直接加载所有依赖。

  • lazy的方法:

与顶层__init_.py 类似,lazyllm.tools 也不会一次性导入所有子模块,而是根据名称映射到具体模块并按需加载。

  • 关键代码:
# lazyllm/tools/__init__.py
def __getattr__(name: str):
    if name == 'fc_register':
        agent = import_module('.agent', package=__package__)
        globals()['fc_register'] = value = agent.register
    elif name in _SUBMOD_MAP:
        return import_module(f'.{name}', package=__package__)
    elif name in _SUBMOD_MAP_REVERSE:
        module = import_module(f'.{_SUBMOD_MAP_REVERSE[name]}', package=__package__)
        globals()[name] = value = getattr(module, name)
    return value

其中_SUBMOD_MAP, _SUBMOD_MAP_REVERSE 用于指定"类名 → 子模块"之间的映射。​​​​​​​

_SUBMOD_MAP = {
    'rag': ['Document', 'Reranker', 'Retriever', 'SentenceSplitter', 'LLMParser'],
    'agent': ['ToolManager', 'FunctionCall', 'ReactAgent', 'PlanAndSolveAgent', 'ReWOOAgent'],
    'sql': ['SqlManager', 'MongoDBManager', 'DBManager', 'DBResult', 'DBStatus'],
    # 其他模块略
}
  • 效果:

当用户编写 from lazyllm.tools import Document 时,才会实际导入 lazyllm.tools.rag。

3️⃣依赖集中检查:子模块导入时统一检测

  • 解决的问题:

👉实际使用依赖时才暴露缺少依赖。

👉多个同时需要的依赖出现异常时,提示分散在不同的场景、log、时间等维度。

  • lazy的方法:

在子模块被导入时触发整个依赖组的检查。

  • 关键代码:
# lazyllm/tools/rag/__init__.py
from lazyllm.thirdparty import check_dependency_by_group
check_dependency_by_group('rag') # 模块init中指定该子模块隶属于哪个依赖组
# lazyllm/thirdparty/__init__.py
def check_dependency_by_group(group_name: str):
    missing_pack = []
    for name in load_toml_dep_group(group_name): # 依赖分组信息直接从整个工程的配置toml文件中获取
        real_name = package_name_map_reverse.get(name, name)
        if not (config['init_doc'] and real_name in module_names or check_package_installed(real_name)):
            missing_pack.append(name)
    if len(missing_pack) > 0:
        msg = f'Missing package(s): {missing_pack}\nYou can install them by:\n    lazyllm install {group_name}'
        LOG.error(msg) # 提示安装依赖组的命令
        raise ImportError(msg)
  • 效果:

👉对功能组进行整体校验
👉一次性列出缺失依赖

LazyLLM 将功能组(如 rag、rag-advanced、agent-advanced)的依赖声明在 pyproject.toml 的 extras 中,同时 lazyllm install 基于同一份配置解析并安装对应版本约束。因此,报错信息与安装命令在同一来源上生成:提示缺什么、安装什么、版本约束是什么保持一致。

👉提供明确的安装命令

4️⃣BONUS: 第三方包的延迟导入封装

当用户确实需要使用特定的三方依赖时也可以复用lazyllm中的延迟加载逻辑

  • lazy的方法:

LazyLLM 对第三方库(例如 torch、transformers)也提供了延迟加载封装。在lazyllm.thirdparty 中使用__getattribute__ 动态检查依赖的安装情况。

  • 关键代码:
# lazyllm/thirdparty/__init__.py
class PackageWrapper(object):
    def __getattribute__(self, __name):
        if self._Wrapper__lib is None:
            try:
                self._Wrapper__lib = importlib.import_module(self._Wrapper__key, package=self._Wrapper__package)
            except ImportError:
                pip_cmd = get_pip_install_cmd([self._Wrapper__key])
                err_msg = f'Cannot import module `{self._Wrapper__key}`, please install it by `{pip_cmd}`'
                raise ImportError(err_msg) from None
        return getattr(self._Wrapper__lib, __name)
  • 效果:

👉该机制将"运行到一半才报错"的问题前置到"首次使用即报错",并提供可直接执行的安装建议(包含版本约束时亦可体现)。

👉这样导入时 from lazyllm.thirdparty import transformers,lazyllm并不会立即导入真实库;直到首次访问其属性时才进行导入,并在缺失时给出明确的安装建议。

使用方式(覆盖常见场景)

情况1️⃣:如果你想仅使用最简功能,可以仅加载顶层模块​​​​​​​

import lazyllm
llm = lazyllm.OnlineChatModule(source="openai")

核心模块属于 lazyllm 的基础依赖,不需要额外安装。

情况2️⃣:如果你的开发涉及 RAG,可以通过顶层模块加载子模块(推荐方式)​​​​​​​

from lazyllm import Document, Retriever
docs = Document(dataset_path="/path/to/data", embed=lazyllm.OnlineEmbeddingModule())
retriever = Retriever(docs)

首次导入 Document 时会触发 rag 依赖检查。若缺少依赖,将提示:​​​​​​​

Missing package(s): [...]
You can install them by:
    lazyllm install rag

然后用户可执行安装命令一次性补全依赖:

lazyllm install rag

情况3️⃣:如果你清楚的知道自己需要什么,可以直接使用子模块

from lazyllm.tools.rag import Document, SentenceSplitter

该方式会直接导入 lazyllm.tools.rag,因此依赖检查会立即触发。

情况4️⃣:如果你需要使用全部 RAG 或 Agent的能力,则需要手动安装相关依赖组

若使用向量数据库、Embedding 微调或 MCP 等高级能力,可安装对应扩展组:​​​​​​​

lazyllm install rag-advanced
lazyllm install agent-advanced

这些扩展组来自 pyproject.toml 的 extras 配置,安装时会自动应用版本约束,通常无需人工拼装依赖版本。更多可安装的依赖场景见官网**安装引导文档(https://docs.lazyllm.ai/zh-cn/stable/)**或项目根目录中 pyproject.toml 的配置。

情况5️⃣:如果你想使用某个具体的第三方库,可以使用lazyllm.thirdparty 导入​​​​​​​

from lazyllm.thirdparty import transformers
tokenizer = transformers.AutoTokenizer.from_pretrained("...")

若缺少依赖,会直接提示执行带版本约束的 pip install ...。

小结

通过上面的介绍,相信你已经对 LazyLLM 这套"按需加载 + 集中检查"的依赖管理思路有了更直观的认识:不用的能力不必提前安装,真正用到时再一次性把依赖校验清楚,并给出可直接执行的安装指令。

简单回顾一下它解决的核心问题:

  • 让环境更轻量: 未使用的功能不引入额外依赖,避免安装集合不断膨胀。
  • 让报错更友好: 缺失依赖在首次使用时就明确提示,并一次性列全,减少反复试错。
  • 让安装更稳定: 依赖组与版本约束统一来源于同一份配置,提示与安装行为一致。

如果你也在维护一个功能模块多、依赖差异大的 Python 项目,这种设计思路通常会带来非常实际的收益:启动更快、环境更稳、问题暴露更早,用户使用门槛也更低。

欢迎升级体验 LazyLLM最新版本,请大家去github上点一个免费的star,支持一下~(也欢迎关注LazyLLM gzh哦!)

LazyLLM项目仓库链接🔗:

40+ Agent Skills精选合集:入门到实战,AI效率翻倍神器
大家好,我是程序员鸿枫。

最近Agent Skills在AI编程圈彻底火出圈了,说白了它就是给AI量身打造的专业技能包,内置精细化提示词、代码脚本和配套资源,能让AI告别泛泛而谈,在PPT制作、代码开发、视频剪辑、数据处理等特定任务上秒变专业选手。

为了让大家少走弯路,我耗时整理了全网40+主流实用的Agent Skills资源,从零基础入门、安装管理、资源查找,到闭眼入的必装技能,全程一条龙攻略,墙裂建议收藏备用,随用随查!


一、Agent Skills入门教程:从零吃透核心逻辑

刚接触Agent Skills的朋友,先看这几份教程,彻底搞懂原理、安装和用法,避免上手就踩坑。

  • 鸿枫保姆级入门教程:喂饭级视频讲解,涵盖Agent Skills定义、安装步骤、底层原理、自定义技能打造,以及和MCP的核心区别,一个视频全打通。
    指路:https://www.bilibili.com/video/BV1T7zzBQEaA/
  • 吴恩达×Anthropic官方课程:DeepLearning.AI联合Anthropic出品,主打标准化技能创建最佳实践,英文原版质量拉满,搭配翻译插件食用效果更佳。
    指路:https://www.deeplearning.ai/short-courses/agent-skills-with-a...
  • AI编程零基础教程:从Vibe Coding概念切入,手把手教Claude Code、Cursor等工具实操,搭配Agent Skills、MCP扩展能力,纯小白也能轻松上手。
    指路:https://ai.codefather.cn/vibe(鸿枫AI导航,图文并茂更易懂)

二、安装管理工具:一行命令搞定技能部署

不用手动折腾配置,这几款工具能大幅简化Skills的安装、管理和自定义流程,效率直接拉满。


三、资源合集大盘点:找优质Skills不迷路

不管是找热门技能,还是搜专项工具,这几个平台和开源仓库覆盖全网主流资源,分类清晰、更新及时。

✅ 在线市场(实时看热门)

  • skills.sh:Vercel官方排行榜,查看安装量、使用趋势,支持一键安装,热门技能一目了然。
    指路:https://skills.sh
  • skillsmp:自动抓取GitHub Skills项目,按分类、更新时间、Star数排序,数据实时同步。
    指路:https://skillsmp.com/zh
  • MCP Market:每日热门Skills榜单,紧跟行业新趋势,挖掘小众宝藏技能。
    指路:https://mcpmarket.com/daily/skills

✅ 开源仓库(高质量精选)

  • anthropics/skills:Anthropic官方仓库,涵盖文档处理、前端设计、MCP构建等十余个高质量技能,新手首选。
    指路:https://github.com/anthropics/skills
  • awesome-claude-skills:全网最全Skills精选列表,分类细致,涵盖全场景技能。
    指路:https://github.com/ComposioHQ/awesome-claude-skills
  • vercel-labs/agent-skills:前端开发者必装,包含React/Next.js最佳实践、Web设计规范。
    指路:https://github.com/vercel-labs/agent-skills
  • 其他专项仓库:OpenAI官方技能、Expo移动端开发、Obsidian笔记、Stripe支付、安全审计、Notion协作等专项Skills,按需取用即可。

四、闭眼入必备Skills:全场景实战推荐

精选高口碑、高实用度的核心技能,覆盖项目开发、浏览器自动化、内容创作、工具管理、网站审计五大场景,装完直接提升AI战斗力。

🔥 项目开发(程序员必装)

  • superpowers:完整AI编程框架,包含头脑风暴、TDD开发、调试、代码审查等组合技能,先设计后编码,适配大型项目、高质量代码场景。
    指路:https://github.com/obra/superpowers
  • planning-with-files:开发者公认最强Skill,借鉴Manus AI核心模式,用Markdown做外部记忆,解决AI上下文丢失问题,复杂项目不跑偏。
    指路:https://github.com/OthmanAdi/planning-with-files
  • ui-ux-pro-max:专业前端设计技能,告别千篇一律的AI界面,打造高颜值UI。
    指路:https://github.com/nextlevelbuilder/ui-ux-pro-max-skill
  • vercel-react-best-practices:React官方规范,规避反模式代码,优化组件设计、性能。
    安装:npx skills add vercel-labs/agent-skills
  • vue-skills:尤雨溪团队维护,Vue3生态最佳实践,涵盖组合式API、Vite、Pinia等。
    指路:https://github.com/vuejs-ai/skills
  • 其他:web-design-guidelines、frontend-design、supabase-postgres最佳实践,按需安装。

🔥 浏览器自动化(效率神器)

🔥 内容创作(博主/创作者必备)

🔥 Skills管理工具

🔥 Skills管理工具(含完整安装命令)

  • find-skills:交互式搜索工具,快速定位、安装技能,启动检索命令:npx skills find
    完整安装命令:
    npx skills add vercel-labs/skills
    npx skills add https://github.com/vercel-labs/skills --skill find-skills
  • skill-creator:Anthropic官方自定义工具,引导编写标准化SKILL.md文件。
    安装命令:npx skills add anthropics/skills
  • vercel-agent-skills 全套规范:一键安装React、Web设计全系列前端规范技能,适配主流前端项目开发。
    安装命令:npx skills add vercel-labs/agent-skills
  • vercel-core-skills:Vercel核心基础技能包,兼容各类Agent工具,夯实技能部署底层能力。
    安装命令:npx skills add vercel-labs/core-skills

🔥 人机共生协同(自研重磅推荐)

  • MapleClaw 枫爪:主打人与智能体和谐共生的协同平台,完美适配openclaw、opencode等主流智能体,打破人机协作壁垒。不仅支持协同办公(无缝接入钉钉、企业微信),还全覆盖社交社区场景(朋友圈发布、点赞评论、私信互动),实现工作生活双场景人机协同,打造如同人与自然般共生共荣的AI协作新生态。
    指路:https://gitee.com/hongmaple/mapleclaw

🔥 网站审计


五、官方文档:深度进阶必看

想深耕Agent Skills、做自定义开发,这几份官方文档是核心参考:


以上就是全网40+ Agent Skills的精选干货,覆盖入门、实操、进阶全流程,不管是程序员、创作者还是职场人,都能找到适配的效率神器。

觉得有用的话记得点赞收藏,后续我会持续更新AI编程干货,也欢迎在评论区分享你私藏的宝藏Skills~

本文由mdnice多平台发布

40+ Agent Skills精选合集:入门到实战,AI效率翻倍神器
大家好,我是程序员鸿枫。

最近Agent Skills在AI编程圈彻底火出圈了,说白了它就是给AI量身打造的专业技能包,内置精细化提示词、代码脚本和配套资源,能让AI告别泛泛而谈,在PPT制作、代码开发、视频剪辑、数据处理等特定任务上秒变专业选手。

为了让大家少走弯路,我耗时整理了全网40+主流实用的Agent Skills资源,从零基础入门、安装管理、资源查找,到闭眼入的必装技能,全程一条龙攻略,墙裂建议收藏备用,随用随查!


一、Agent Skills入门教程:从零吃透核心逻辑

刚接触Agent Skills的朋友,先看这几份教程,彻底搞懂原理、安装和用法,避免上手就踩坑。

  • 鸿枫保姆级入门教程:喂饭级视频讲解,涵盖Agent Skills定义、安装步骤、底层原理、自定义技能打造,以及和MCP的核心区别,一个视频全打通。
    指路:https://www.bilibili.com/video/BV1T7zzBQEaA/
  • 吴恩达×Anthropic官方课程:DeepLearning.AI联合Anthropic出品,主打标准化技能创建最佳实践,英文原版质量拉满,搭配翻译插件食用效果更佳。
    指路:https://www.deeplearning.ai/short-courses/agent-skills-with-a...
  • AI编程零基础教程:从Vibe Coding概念切入,手把手教Claude Code、Cursor等工具实操,搭配Agent Skills、MCP扩展能力,纯小白也能轻松上手。
    指路:https://ai.codefather.cn/vibe(鸿枫AI导航,图文并茂更易懂)

二、安装管理工具:一行命令搞定技能部署

不用手动折腾配置,这几款工具能大幅简化Skills的安装、管理和自定义流程,效率直接拉满。


三、资源合集大盘点:找优质Skills不迷路

不管是找热门技能,还是搜专项工具,这几个平台和开源仓库覆盖全网主流资源,分类清晰、更新及时。

✅ 在线市场(实时看热门)

  • skills.sh:Vercel官方排行榜,查看安装量、使用趋势,支持一键安装,热门技能一目了然。
    指路:https://skills.sh
  • skillsmp:自动抓取GitHub Skills项目,按分类、更新时间、Star数排序,数据实时同步。
    指路:https://skillsmp.com/zh
  • MCP Market:每日热门Skills榜单,紧跟行业新趋势,挖掘小众宝藏技能。
    指路:https://mcpmarket.com/daily/skills

✅ 开源仓库(高质量精选)

  • anthropics/skills:Anthropic官方仓库,涵盖文档处理、前端设计、MCP构建等十余个高质量技能,新手首选。
    指路:https://github.com/anthropics/skills
  • awesome-claude-skills:全网最全Skills精选列表,分类细致,涵盖全场景技能。
    指路:https://github.com/ComposioHQ/awesome-claude-skills
  • vercel-labs/agent-skills:前端开发者必装,包含React/Next.js最佳实践、Web设计规范。
    指路:https://github.com/vercel-labs/agent-skills
  • 其他专项仓库:OpenAI官方技能、Expo移动端开发、Obsidian笔记、Stripe支付、安全审计、Notion协作等专项Skills,按需取用即可。

四、闭眼入必备Skills:全场景实战推荐

精选高口碑、高实用度的核心技能,覆盖项目开发、浏览器自动化、内容创作、工具管理、网站审计五大场景,装完直接提升AI战斗力。

🔥 项目开发(程序员必装)

  • superpowers:完整AI编程框架,包含头脑风暴、TDD开发、调试、代码审查等组合技能,先设计后编码,适配大型项目、高质量代码场景。
    指路:https://github.com/obra/superpowers
  • planning-with-files:开发者公认最强Skill,借鉴Manus AI核心模式,用Markdown做外部记忆,解决AI上下文丢失问题,复杂项目不跑偏。
    指路:https://github.com/OthmanAdi/planning-with-files
  • ui-ux-pro-max:专业前端设计技能,告别千篇一律的AI界面,打造高颜值UI。
    指路:https://github.com/nextlevelbuilder/ui-ux-pro-max-skill
  • vercel-react-best-practices:React官方规范,规避反模式代码,优化组件设计、性能。
    安装:npx skills add vercel-labs/agent-skills
  • vue-skills:尤雨溪团队维护,Vue3生态最佳实践,涵盖组合式API、Vite、Pinia等。
    指路:https://github.com/vuejs-ai/skills
  • 其他:web-design-guidelines、frontend-design、supabase-postgres最佳实践,按需安装。

🔥 浏览器自动化(效率神器)

🔥 内容创作(博主/创作者必备)

🔥 Skills管理工具

🔥 Skills管理工具(含完整安装命令)

  • find-skills:交互式搜索工具,快速定位、安装技能,启动检索命令:npx skills find
    完整安装命令:
    npx skills add vercel-labs/skills
    npx skills add https://github.com/vercel-labs/skills --skill find-skills
  • skill-creator:Anthropic官方自定义工具,引导编写标准化SKILL.md文件。
    安装命令:npx skills add anthropics/skills
  • vercel-agent-skills 全套规范:一键安装React、Web设计全系列前端规范技能,适配主流前端项目开发。
    安装命令:npx skills add vercel-labs/agent-skills
  • vercel-core-skills:Vercel核心基础技能包,兼容各类Agent工具,夯实技能部署底层能力。
    安装命令:npx skills add vercel-labs/core-skills

🔥 人机共生协同(自研重磅推荐)

  • MapleClaw 枫爪:主打人与智能体和谐共生的协同平台,完美适配openclaw、opencode等主流智能体,打破人机协作壁垒。不仅支持协同办公(无缝接入钉钉、企业微信),还全覆盖社交社区场景(朋友圈发布、点赞评论、私信互动),实现工作生活双场景人机协同,打造如同人与自然般共生共荣的AI协作新生态。
    指路:https://gitee.com/hongmaple/mapleclaw

🔥 网站审计


五、官方文档:深度进阶必看

想深耕Agent Skills、做自定义开发,这几份官方文档是核心参考:


以上就是全网40+ Agent Skills的精选干货,覆盖入门、实操、进阶全流程,不管是程序员、创作者还是职场人,都能找到适配的效率神器。

觉得有用的话记得点赞收藏,后续我会持续更新AI编程干货,也欢迎在评论区分享你私藏的宝藏Skills~

本文由mdnice多平台发布

在轻工行业摸爬滚打多年,无论是家居、日化、纺织还是五金、文体领域,身边几乎所有同行都有一个共同的感慨:做产品容易,做客户难。轻工行业天生带着“SKU繁杂、渠道分散、经销商层级多、终端触达弱”的基因,客户全流程管理从线索获取到售后复购,每一个环节都藏着看不见的坑。

我们常常陷入这样的困境:业务员离职,手里的客户资源就跟着“蒸发”,新接手的人要重新摸索,客户早已被竞品挖走多级经销商层层加价,窜货现象屡禁不止,总部却看不到终端真实的销售数据,不知道货到底卖给了谁;订单跟进全靠口头沟通,样品寄送、报价协商没有痕迹可查,出错率居高不下营销活动只会盲目降价促销,不知道哪些客户是高价值群体,哪些沉睡客户可以唤醒,投入大量成本却收效甚微

这些痛点不是个例,而是轻工行业客户管理的普遍现状。随着数字化转型成为行业必答题,90%的B2B交易从线上开始,85%的客户会通过社媒研究产品,传统的“Excel管理+人工跟进”模式,早已跟不上行业发展的节奏,甚至成为制约企业增长的瓶颈。很多企业意识到,客户不是“一次性交易”的对象,而是需要长期经营的资产,唯有打通客户全流程管理的堵点,才能在存量竞争中站稳脚跟

那么,轻工企业该如何跳出“被动救火”的怪圈,实现客户管理的规范化、高效化?其实,答案就藏在“数字化工具+精细化运营”的组合中。接下来,我以珍客AI CRM为例,从技术落地和场景适配的角度,跟大家聊聊它是怎么解决这些实际痛点的。

在先说说最让人头疼的客户信息散乱问题。从技术层面来讲,珍客AI CRM的核心逻辑,就是把分散的客户资产集中沉淀下来。不管是经销商、二批商,还是终端门店、消费者,以前散落在业务员个人手里的信息,都能统一录入系统,系统会自动整合工商信息、历史订单、沟通记录这些数据,自动生成完整的客户档案

这里有个很实用的点,就是业务员离职后,客户资源不会跟着流失,新员工登录系统,就能快速摸清客户的所有情况,无缝衔接跟进,再也不用重新摸索。而且系统会自动给客户打标签、分层,不用人工一个个分类,避免了“眉毛胡子一把抓”的尴尬,这其实就是AI技术在客户分层上的基础应用,不复杂,但特别实用。

再看渠道管控的难题,轻工行业多级经销的模式,一直以来都很难打通数据壁垒。珍客AI CRM在这一块的设计,其实是抓住了“全渠道数据打通”这个核心——通过技术对接,总部能实时看到终端的销售数据、库存情况,货物流向一目了然,窜货、乱价的问题,就能从源头得到管控。

珍客CRM 线索管理

比如家居、日化这些需要触达C端消费者的领域,系统还能对接小程序、公众号,把终端用户的数据沉淀下来,打破了以前“只做经销商生意、不接触消费者”的局限。我见过一家纺织企业,用这个系统做面料样品的数字化管理,客户在线就能检索样品,不用再寄实体样品,成本直接降了70%多,沟通效率也提上去了,这就是技术适配场景的实际价值。

销售过程的透明化,也是很多企业的需求。以前跟单全靠人工记,漏跟进、重复跟进是常事,新业务员上手慢,老业务员效率也上不去。珍客AI CRM的做法,不是搞复杂的流程,而是把跟进过程数字化——销售能实时记录沟通细节,系统还能设置跟进提醒,更重要的是,AI能根据客户的行为、沟通记录,自动判断客户意向,给业务员提跟进建议。

珍客CRM 全流程智能提醒,辅助销售

这样一来,业务员就能把精力放在高潜力客户身上,成单周期也能缩短。另外,系统能打通订单、生产、库存、发货的联动,SKU再多,也能精准匹配规格、材质,减少订单出错率,不用再天天应付客户的催单,这一点,对于SKU繁杂的轻工企业来说,真的太刚需了。

还有营销复购的问题,很多轻工企业都陷入了“降价促销=有效营销”的误区。从技术层面看,珍客AI CRM的核心优势,就是AI驱动的精准运营——系统会分析客户的历史消费数据、兴趣偏好,自动识别高价值客户、沉睡客户和潜在流失客户,针对性推送新品、活动,不用再盲目群发。

比如对长期合作的高价值经销商,推送专属返利政策;对沉睡的终端客户,推个优惠活动唤醒需求,让营销投入真正花在刀刃上。其实这就是AI在用户画像分析上的应用,没有什么高大上的噱头,就是实实在在帮企业提升复购率,减少客户流失

还有一个容易被忽略的点,就是数据孤岛。很多轻工企业的销量、回款、客户增长这些数据,都是靠人工汇总报表,不仅滞后,还容易出错,老板做决策全靠经验,心里没底。珍客AI CRM能自动整合销售、渠道、售后等全链路数据,生成可视化报表,核心指标一目了然,老板能实时掌握经营情况,不用再靠“拍脑袋”决策。

珍客CRM 自定义可视化BI报表

而且它能和金蝶、用友这些ERP系统,还有企业微信对接,数据能在各部门之间顺畅流转,跨部门协同效率也能提上去。这里要说明一点,不是说这个系统有多完美,而是它的技术设计,刚好踩中了轻工行业的痛点,没有搞那些华而不实的功能,贴合实际业务场景,这才是最关键的。

其实站在第三方产品技术的角度来看,轻工企业的客户管理,从来都不是“靠人硬扛”,而是靠系统赋能。我们见过太多企业,花大价钱上复杂的系统,最后因为不贴合场景,根本用不起来。珍客AI CRM之所以能被不少轻工企业认可,核心就是它懂行业、接地气,把复杂的客户管理流程简化、智能化,让企业能把精力放在产品和客户需求上,而不是繁琐的人工工作里。

现在轻工行业的竞争,早就从产品竞争变成了客户竞争,谁能管好客户、服务好客户,谁就能站稳脚跟。摆脱“被动救火”的客户管理模式,借助AI CRM这样贴合场景的数字化工具,实现精细化运营,才能让客户资产持续增值,企业才能在行业洗牌中走得更稳。毕竟,对轻工企业来说,最好的增长,从来都是把现有客户服务好,这也是数字化工具真正的价值所在。

除了首页时间流和侧栏的精选展位,少数派 Matrix 社区还有很多优秀内容因条件所限无法得到有效曝光,因此我们决定重启 Matrix 周报,并在此基础上添加更多社区内容、作者投稿新玩意呈现给大家。


💬一派热议

在第 261 期一派讨论《AI 时代的阅读新姿势,哪一招最上手?》中,共有 437 名派友热情参与,十分感谢!

派友:读肯定还是要自己读的,但是有个伴读更方便

Jensding(+18) 阅读是私密的,是发生在读者和作者两人之间的事情。我在安静阅读的时候,彷佛看见作者站在我面前向我娓娓道来,把 TA 的故事、想法、思绪、逻辑、情感逐一铺陈在我的面前。当我合上书本,作者又翩然而去,给我留下的是一段美好的旅程回忆。

在这段旅程中 AI 不应该作为「第三者」插足其间。

当作者离去,AI 却可以作为一个很好的助手,偶尔帮助我回味起那段美好的旅程。

Latte(+6) 感觉得分场景,如果非工作目的的闲读,还是自己完整去读比较好,直接交给 AI 总有一种读到小帅小美版本的感觉。不过,工作找资料,AI 真的能提炼信息帮大忙,不懂的地方能拆解还能额外补充内容,属于读到超链接了。

SSShooter(+5) 朋友们,试试这个,可以按章总结,十分适合复习

https://github.com/SSShooter/ebook-to-mindmap

ZLNAEEZD(+5) 工作用途,本身就带着功利目的,自然是效率优先,而且工作用途的很多书本身就无需一字一句全文阅读,没有 AI 的时候人们就是按需跳读、查阅的,有了 AI 更是如虎添翼。

享受式的阅读,本身就如同跟作者跨越时间空间的一场闲谈,或者在有限的生命中体验不同角色的多样人生,或者如品味一道美食欣赏一轮落日,这时候 AI 除了做翻译解决语言问题尚可,如果是用 AI 总结替代阅读原文,那就好比用小美小帅替代一部电影,用维生素胶囊替代美食,这人生还有什么意思?

至于那种本身就是为了刷阅读量这个虚名,或者不求甚解就是为了出门装样子的,不值得讨论。

胡姆胡姆努库努库阿普阿阿鱼(+4) 分两个点吧,一个是为了阅读而阅读,真正的体验阅读;另一个是为了其他的事情而阅读。我觉得前者就不要用 AI 了,而后者可以试试 AI,因为想提高效率的话,总不能试一下量子波动阅读吧哈哈哈哈哈哈哈

wede(+4) 我在电脑上搞了一个 QWEN30B 的本地模型,配合 Calibre 上的翻译插件,4060Ti 8G 显存也能有很好的翻译效果。说实话,大学毕业之后,单词基本上都忘光了,看原版书蛮痛苦的,尤其是那些记者写的调查报告,现在有了 AI 翻译,基本上效果很满意。

文某君(+3) 「效率至上」之前我是反对的,但最近用了「且听/一卒」之后感觉也还不错,尤其是对于那些你已经有所涉猎的领域,可以更快地剥离掉那些已知的基础内容,迅速抓住新东西。

「边读边问」其实是个有点复杂的事情。需要边读边问,可能意味着 (1) 书写得不够好或 (2) 你还没达到阅读这本书的门槛,请换一本书。

「事后再用」感觉已经被嵌入到我的读书流程里,但是并不是用来「梳理」笔记。我一般会在读书的同时,和 Gemini 聊这本书,读完之后让 Gemini 把我们的聊天内容生成一个 HTML 总结页面,这就是我的「读书笔记」。有点类似于把「边读边问」和「事后再用」结合起来。

喜欢看电影的南宫志学(+2) 吃工作餐当然方便快捷至上,闲暇时享受美食当然要自己慢慢细品,期间也不介意服务员提供优质的服务。

Konata9(+2) 我因为做周刊,每周都需要阅读很多文章。我一开始也尝试让 AI 总结后再阅读,但体验后感觉有一些我感兴趣的部分 AI 没总结到,也没有自己阅读的感受。所以我现在会自己先看一遍,然后在做周刊的时候让 AI 事后总结,看看自己和 AI 的观察点有哪些不同。

当然这分文章,如果只是工具类的介绍文章,我就直接让 AI 读了。但如果是需要深入理解的,我还是倾向于自己慢慢看。

Lonestahhh(+2) 首先个人最习惯读书的时候打开一个 chatbot 让它随时准备好迎接我丢过来的问题,在这一点上 AI 确实能够帮助我强化理解,解答我的很多疑问(尤其是在我去读陌生领域的经典作品时)。另外就是在同个别 chatbot 问答的过程中它会帮助你拓展知识边界,不拘泥于你抛出的问题,引导你去往更多的地方思考,这一点对读者来说也是很好的。

但是我在面对 AI 时总有一个「复古癖」的执念,就是觉得 AI 不应该干预一些最原始的体验。我总觉得像阅读这种历史悠久的人类活动,里面总有些东西是容不得 AI 参与的,否则就会丢失这件事情本身的意义,毕竟我认为阅读的目的是为了更好地服务人本身。在看似 AI 能帮我们解放头脑和双手的情况下,不去亲自体味这些事情里的辛酸苦辣,我们作为人又怎么能成长呢?虽然 AI 能帮我们省时省力,可多出来的时间和精力,我总觉得还是得踏踏实实用在这些传承已久的事情上。

CG 艺术实验室(+1) 我的感受是,在最开始,因为有一堆旧习,而在很多场景下想不起来用 AI。

现在,AI 能切实落地,把事做好的场景越来越多,我已经变得开始好奇把一个事情交给它会怎样。

看书的场景下得分什么书,文学类的当然是自己看过瘾,看不懂都没事儿,追求的是感受。

纯知识理论类型,直接用来提升自己的书,我甚至会让 AI 先给我讲一遍作者的大致观点和论述逻辑,如果特别靠谱或者自己十分好奇,也会选择先过一遍原文。

笔记就不能让它插手了,必须自己来。

📢:下一期的一派讨论是数码圈日经话题《两个月后,你的「小龙虾」养得怎么样了?》,欢迎来聊。

🔥一周热评

来自文章 《我将「空气飞剑」真的做出来了!》

Denny(+2) 感觉可以抓取健康数据和睡眠监测那些数据,这是不是就是修行中的打坐和修炼了?

来自文章 《我本该在人生最美好的年华遇见《仙剑奇侠传四》》

烧麦(+2) 推荐《仙五前传》

Jensding(+2) 推荐《天之痕》

来自文章 《年度征文|荷马与人工智能:一场跨越三千年的「众筹」》

知道分子吴先先(+3) AI 生成的文章中,果然还是这种本身具有文化和故事属性的主题更可读。相比起来,那些就 AI 聊技术趋势方法的,很容易变成正确的套话。

来自文章 《派早报:苹果禁止美国用户下载中国版字节跳动应用》

LOSSES(+44) 说真的看到这股龙虾浪潮感觉大家都疯了,懂点行的应该都知道那堆龙虾和变异龙虾的工程质量有多差,有没有什么正儿八经的安全考虑。然后有大公司甚至公家机关促动人们把这种有毒且不解决问题的玩意往电脑里塞。真的疯了,真的疯了。

来自文章 《年度征文|在新加坡,住最昂贵的房子,过最憋屈的日子》

静离(+13) 壁虎是益虫,千万别错杀。住在组屋很久,体感完全相反。每日打扫倒垃圾,出门开窗通风收阳光。很少见到蟑螂,蚊子也不咬人。倒是常见到壁虎。

蚊子是定期政府投放的公蚊,用来消灭登革热的。问了上年纪的邻居,觉得可能是有的人怕壁虎,杀了这些益虫。导致恶性循环。壁虎是益虫,会吃蚊子也克蟑螂。新加坡的绿化很好,导致各类昆虫比较多。四脚蛇可能是生态系统的稳定器,有四脚蛇没害虫。...

Thesharing(+4) 感觉跟在北京租房体验好像,除了北京气候没那么潮湿因此蟑螂问题没有这么严重,以及房租没有像坡县那么离谱……

另外蟑螂问题大体跟邻居有关,邻居卫生条件不好的话,你怎么灭杀都弄不干净的,他会在邻居家繁殖,然后去你家串门……

来自文章 《年度征文|给 NPC 接上 AI:重生爽文看不够?我直接做了个能骂反派的游戏》

张立行(+3) 整个链路基本就是 AI 时代想法到落地的一个最佳实践。顶级模型玩命思考定思路,剩下的交给 coding agent。

想法无价的时代。

来自文章 《游戏重复下载慢?流量不够用?本地游戏缓存服务器搭建教程》

农夫三拳有点疼(+2) 但 Steam 本身就是支持局域网共享的。不知道这样部署能不能跑到 2.5G 以上,这样对比现在家宽人均 1000M 还是有不少提升。

来自文章 《新玩意 237|少数派的编辑们最近买了啥?》

keleus(+4) 7 套的洗碗机做得有点太扁以至于占地好大。

小米的路由器还行,就是管理功能太少了。之前带中枢的更新中枢会导致 Wi-Fi 断网的 Bug 也在后面版本修了。

来自文章 《最适合入坑 F1 的时间是 2021 年,其次就是现在!》

Zane_Ng(+19) 作为车迷,需要更正两点:

1、「但是题目出久了,先摸索到方向的车队就会越来越快,逐渐拉大和其他人的差距(因为其他人可能还需要不断试错),导致比赛完全失去悬念。」

--这是错误的。简单来说,一套规则,由于其性能是有上限的,所以当它使用时间越长,各车队技术会越趋同,车和车之间的性能差异也会越小,直到没有。这也是为什么在 F1 的 V6 混动引擎时代,从 14 年至 21 年这段期间,虽然梅赛德斯车队包办了所有车队冠军和除了 21 年以外的车手冠军——因为经过技术迭代,红牛车队的车终于在 21 年赶上了梅赛德斯,然后 Verstappen 终于成长到能够拿下老汉。

实际上,换规则才容易带来某(几)个车队的压倒性优势。因为有的车队(梅赛德斯、法拉利、红牛、迈凯伦)就是比其他车队有钱或者更能吸引人才、技术更丰富,也更容易发现新规则的漏洞并研发出更好的车。

F1 历史上红牛车队的第二次压倒性优势(21 年开始 - 24 年早期)恰恰是在 21 年使用新的空气动力学规则(重新引入 80 年代 Ground Effect,但不允许车裙)后出现的。这是因为所有车队一开始都没弄懂在这套空气动力学下如何稳定地产生 Ground Effect(特别是在直线上,不会将车吸至地面导致底部撞击或摩擦地面,导致车上弹起,又被吸至地面,如此往复;英文称这种现象为 porpoising)。在 21 年、22 年、23 年时,只有红牛车队没有被 porpoising 影响,所以他们能把 Ground Effect 完全发挥,再加上 Verstappen 个人的天才和技术,才有压倒性的胜利。

但实际上,从 23 年中后期开始,迈凯伦及其他车队都已经基本解决了 porpoising 的问题。从 24 年开始,迈凯伦的性能已经追上甚至超过了红牛的车,其他车队的车性能也大幅提升。也就是 24 年,迈凯伦重新赢得了车队冠军。然后今年,迈凯伦的车从开始就很强,而其他车队也不弱,有些排位赛从杆位到末位,时间差距在 1 秒内。这是因为,大家都对这套规则很熟悉,对规则内的性能挖掘相当充分了。

2.「无聊的比赛」

如果单单以车手成绩去看待 F1 的比赛,那么当然会有「无聊」的比赛。但是,必须要记住,F1 这个赛制中永远有两套比赛在同时进行:世界车手冠军(World Drivers' Championship)以及世界车队冠军(World Constructors' Championship)。车队之间有技术竞赛也是 F1 好看的部份,但并不会在现场车手的动作当中那么反映得出来。在 Liberty Media 接手 F1 并推出 F1 TV Pro 流媒体之后,他们推出了一档节目叫做 Tech Talk,就是方便车迷了解到每个赛季车队技术竞赛的最新状况。而且车队在车手比赛中使用的策略也很重要。如摩纳哥这样的比赛中,排位和正赛策略基本上决定胜负的关键。所以,观看 F1 不要单纯地只看车手比赛的结果,然后判断无不无聊——因为这样你就错过了车队之间的竞赛。

而且,一个人能够稳赢是很不容易的。在 F1 多年的历史当中,像 Max Verstappen、Lewis Hamilton、Michael Schumacher、Aryton Senna、Alan Prost 等这样的车手可谓少之又少,而且他们并不都是简简单单就赢。任何赛车运动,恐怕除了 Rallycross 系列之外,都需要观众能够欣赏车手的专业能力、韧性还有坚持,也就是他们一圈圈把同样的动作做到完美、还要应对突发情况,这样去做至少一个小时的能力。

不能欣赏车手、车队的专业能力和他们做的事情,只期望比赛当中能够充满电影里的那些戏剧性以及各种疯狂超车,在一个小时的时间里获得多巴胺,那只会从 F1 或者是任何赛车竞赛系列中获得失望,基本上你只能看 Rallycross 和 Race of Champions。

而如果你从一个赛季的视角来对待每一场比赛,从一个车手的成长历程来对待他的每一场比赛,从 F1 的发展来看待每一场比赛,那有意思的东西就很多了。

DerQi_(+6) 迈凯轮的车队衣服真的不是淘宝闪购吗?哈哈哈哈哈😂

paulpao(+3) 古早时期就有一搭没一搭的看过 F1,但是那时候只喜欢看撞车,一旦开始一圈一圈又一圈的时候,就不爱看了,当然加油也是蛮有趣的一件事。当时不懂车队战术,只是单纯看进站时间,这个车队好久,那个车队好快。

后来在 ESPN 看过一段时间,其中文解说翻译车手名字跟我们有一些差别,比如他们管 Kimi 叫「拉」科宁(那时候 Kimi 还是希望新星),大学毕业后经历了布朗 GP 牛逼闪闪的一年,当时正好工作在上海,电视转播看了好多比赛。再后来,就是得知小周要进 F1 以后,从 21 年阿布扎比开始一直到现在了,通过 B 站各位 up 主,还有像飞驰圈这样的播客,深入的了解了 F1。

来自文章 《Snowsky Echo Mini 固件逆向背后的故事》

Gurri(+6) 我最近也用 AI 逆向了一台动感单车,就是不停拿一个上下文萃取过的有效信息不停开新窗口换新模型尝试,在对话窗口 Manus 和 OpenCode 还有人肉 Debug 之间来回横跳。这种粗糙的 AI 用法让我陷入深深自我怀疑。更巧的是我有同款 MP3。

lhb5883(+2) 这种简单嵌入式硬件的好处是救砖机制不会太复杂,我记得原来折腾文曲星的时候就发现了,刷机本身没有校验,校验全在上位机软件上,如果没做校验或者只在下载的时候做校验,就可以自己魔改了。

来自文章 《年度征文|至亲离世的 2025,我像是玩了一局成长游戏并做了一份攻略》

小胡小胡0009(+8) 我可能不会选择将离世的亲人复刻为 AI 智能体。

一方面我希望自己能接受亲人离世的事实,防止自己逃避和沉溺在幻象中;

另一方面,我认为 AI 智能体并不是 TA,时间久了,甚至会影响我记忆中对亲人的印象。

人的记忆是很脆弱的,与 AI 智能体接触久了,我记忆中的亲人到底是真实的回忆,还是 AI 扭曲的结果?我不能接受这种可能性。

彷徨旅人(+5) 医学信息的另一个来源——阿里的氢离子,虽然设计上面向医生,我觉得对患者和家属而言可能也会有帮助。不过不确定这种看起来资源少的产品未来会不会被砍掉

https://www.ali-doctor.com

来自文章 《失忆是怎么一回事:谈谈经典影视里失忆套路的真实一面》

so1ar(+2) 记得小时候在科教频道上看到,受过高等教育的人更不容易患阿尔茨海默症,即使大脑功能已经开始退化,但表现出的老年痴呆症状也会轻很多。

来自文章 《破译还是致盲?我是如何用 AI 啃下全英文编程课程的》

钱吃菜(+5) 非虚构类的作品,尤其是面向开发者这种指导类的文档,所需要的英文词汇量算是很低的了,而且用词简单、基本上不会有长难句。所以直接看原文比翻译成中文或者拿 AI 解析要高效得多。遇到实在没见过的单词,那就查字典吧。

📒社区摘要

🆕作者的新玩意

为了让作者的投稿尽快与广大读者见面,我们调整了《新玩意》栏目中作者投稿部分的呈现方式和周期,作者投稿的「新玩意」后续会迁移至本栏目。投稿渠道与奖励方式仍与以往完全一致,详情参见文末。我们相信新鲜火热出炉的分享更能赢得大家的喜爱,也欢迎广大读者朋友们踊跃投稿。

@Levinson:Xreal 1s 眼镜

如果要问我晚上带娃睡觉有什么不方便之处,那唯一的牺牲可能就是晚上的追剧时间。因为不能使用任何屏幕,最多只能戴上耳机听播客。但你知道,在全黑环境下听播客很容易睡着,哪怕是《福说聊天会》这样精彩的播客,都拉不回我向梦乡狂奔的意识。我经常一觉从十点睡到早上八点,睡是睡饱了,但夸克网盘也慢慢被没来得及看的剧集撑爆了。

所以每次看到主打观影的智能眼镜评测,我总会想象儿子在我旁边呼吸逐渐变长、慢慢睡着,而我戴着眼镜欣赏《七王国的骑士》最新一集的场景。

之所以一直没有下手,主要是考虑到价格高、3DoF 需要外接盒子等原因。所以当我看到 Xreal 1s 发布的消息时,觉得价格还算可以接受,自带 3DoF 且不再需要外接。虽然视场角 FOV 比自家大哥 One Pro 小一点但相差不大(52 度和 57 度的区别),我觉得算是个甜点级产品,于是趁着国补以 ¥2799 的首发价拿下了。

带三档电致变色的外镜
SONY MicroOLED 内镜
刷新率其实没有什么意义,我的 120Hz 手机连上它后,手机屏幕都会锁 60Hz。

700 尼特的峰值亮度还算不错,配合三档的电致变色,即便在阳光强烈的正午候机厅里,我都可以清楚地使用它来办公和观影:

当时,笔记本屏幕是看不太清楚的,反光太厉害,戴上 Xreal 1s 眼镜能大幅改善机场办公体验。

说说第一感受吧,大部分人初次上手 AR/MR 产品,肯定会觉得和之前的想象不一样,主要原因是视场角。而视场角就和电视机屏幕一样,永远不嫌大,买了 1s 就会觉得可能还是选择 One Pro 更好,买了 One Pro 可能又会馋 Vision Pro。但这种比较是无止境的, 1s 52 度的 FOV 我觉得是可以接受的,好在 Xreal 也提供了 7 天的试用,几天下来如果觉得视场角还是不符预期,是可以退货的。这一个多月下来,我摸索出的观影经验是尽量调大屏幕,哪怕一眼看不全画面边缘。如果是中文语音的影视剧,专心看画面主体就好,不用管底部字幕;如果是英文语音的影视内容,画面可以调小一档,方便随时扫一眼字幕;如果是日语等完全听不懂的语言,可以再调小一档画面,保证底部字幕区域始终清晰。

再来说说清晰度。1s 眼镜 1200P 的分辨率,我用 4K 高码率片源看下来,体感是不如我家的老 1080P 电视那么清晰的。所以当我找得到 4K HDR 资源的时候,我还是更愿意在 4K 显示器上观看。分辨率和视场角、清晰度这三者的关系可以用一个简单的逻辑来概括:分辨率是总资源,FOV 是分配范围,而 PPD 则是最终感官上的清晰度。

1s 宣传的 52° 是对角线 FOV(AR 眼镜常见标注方式),其水平 FOV 会更小(约 45° 左右,客服不提供准确数值),实际 PPD 大约在 40~42 左右。在目前的头显设备市场中,37~42 的 PPD 属于「中等偏上」的水平。然而,在标准办公距离下,27 寸 4K 显示器的 PPD 大约为 70~75,远大于最顶级的头显,也超过了人眼区分像素的黄金标准 (60)。

一句话,晚上带娃睡觉看是足够了,平时还是算了。

写这篇新玩意的过程中我才第一次意识到,1s 是整个 Xreal 系列里 PPD 最高的。

另外,对于旅途场景,我也测试了在高铁和飞机上佩戴,飞机上主要两个问题:

  1. 设备电量不够用:iPhone 15 Pro 的小电池自身难保,如果还给 1s 眼镜供电,大概就三十分钟到一小时的续航。然后我开始物色一台大电池的安卓设备,然后惊讶地发现,哪怕是 8E 处理器的游戏性能取向安卓手机,只要不是旗舰级别的,都会选择阉割 DP 输出(甚至我都已经下单了红魔新发的 11 Air,在群里嘚瑟的时候被群友提醒这种中端机大概率不支持 USB 3.0,去问了客服才被告知不支持 DP 输出有线投屏,无奈退货)。所以如果 iPhone 用户想要买台性价比高的安卓手机配合 1s 眼镜使用,最好的选择可能是 N-1 代的旗舰二手机。
  2. 飞机上的另一个问题是这个 3DoF 的稳定性。当飞机侧倾转弯时,画面似乎会发生角度偏转,需要不时刻长按操作键重置画面。这个问题不大,毕竟人的头也不是时刻都保持直立的。

高铁上也差不太多,主要就是电量问题,如果是 Mac 电脑,提前下好影视内容就 OK 了,也不用担心旁边人和你一起看😂。

最后说说近视人群关心的处方镜片问题。我做过近视手术所以不需要,我家那位大概 600 多度近视,趁着半价活动找 Xreal 官方配了一片 1.67 折射率的镜片,可以直接插上用(注意:不是磁吸)。不过有一个小问题是,镜片可能和眼睫毛有轻微接触导致发痒。这只能通过实际体验才知道,因为不同人的感受不一样。

镜片插上后,镜腿是不能完全折叠到位的,出门携带最好先拆下来。

购买 1s 的初心是带娃睡觉,实际体验一个多月下来,我觉得还是达到了预期的:

  1. 不漏光。小孩在旁边是看不到任何光线的,还会问我:「爸爸你在看什么,我怎么什么都看不到?」
  2. 镜腿上的 Bose 扬声器虽然不是骨传导,但是声音还不错。哪怕是在安静的睡眠环境下,旁边的人也听不到什么声音。我一开始是佩戴耳机使用的,后来有一次忘记把音频切换到耳机上,直到娃都睡着了我才发现,这说明外放声音对旁人没啥影响。
  3. 视觉疲劳会有,但足够在累之前把娃熬睡着。
  4. iPhone 可以边输出视频边用 MagSafe 充电,但如果枕头压住手机会导致发热巨大充不进电,更推荐用 iPad 来输出。

总结:2799 的价格我还是推荐各位奶爸奶妈购买一副的,大幅提高带娃幸福度,值得。

@阿扎哲健甫:小鹏Mona M03

・价格:¥129800

其实这辆车是赶在 2025 年 12 月初,新能源车免购置税以及置换补贴政策取消前入手的,至今已驾驶 2700 km 了,刚好总结下我这三个月的驾驶体验。

我是一个十分看重产品颜值的人,非常喜欢 M03 有辨识度的设计,在路上也经常一眼就认出了这款车。掀背式轿跑配一个小小的车型,自带反差萌。类似锤子一样的车灯和像唐老鸭屁股一样微微翘起的小车尾也都是吸引我的点。

车漆选择了较为骚气的紫色,结果提车的时候发现 10 辆车里面 7 辆是紫色的。🙃

内饰简约又好看,不容易看腻。氛围灯见光不见灯,在一定程度上能够提供情绪价值,但我不是 RGB 爱好者,一般都是固定一个颜色,浅浅地增添一点氛围。

之前驾驶的一直是父亲 2014 年购买的日产逍客,由于前几年父亲为了省油,一直开着节能模式,导致车辆经常在踩地板油时也没什么动力。后来发现不开节能模式,油耗也差不多,动力和驾驶体验却好了不少。

今年驾驶了 M03 之后,感觉驾驶体验真的很棒,动力很足,但经常就出现在高速上,一不留神速度就提示到了 140km/h,赶紧减速。新能源车是真的让我体验到了驾驶的乐趣,动力一踩就有,驾驶起来有将两点连成一条线的感觉。后面偶尔再开我父亲的逍客时,就更能感受到十年的时间,汽车的发展有多么迅速,真的是回不去了!

还有很让我满意的点是,方向盘上两个滚轮大大加分,那种带有颗粒触感的操控体验还是胜过了触屏带来的体验。

接触到新能源车的语音助手后,感觉到了它在某些时候语言理解能力的匮乏。虽然大部分指令都能响应,但有时比如需要调节座椅模式,试了好几次都没办法成功切换,最后还得在菜单里点几次才能切换,让人有些懊恼。

看中 M03 的很重要一点是,它的智驾能力和它的大哥们有得一拼,是同价位车中最能打的一款。实际测试下来,在大部分情况下确实很好用。特别是跑高速时,小鹏的驾驶策略堪称严格遵纪守法的代表,能够压着限速保持车道居中行驶。同时,小鹏还有共驾功能,不过这和个人的驾驶习惯偶尔会有冲突。比如在准备超过前方一辆货车时,智驾倾向于保持车道居中行驶,而我更倾向于稍微远离货车一些。这时候如果还未完成超车,就会出现抢方向盘的情况。此外,在高速行驶时,如果有一辆车突然超车并线到车前,智驾会将车速降得很低。在后来的车机更新后,智驾的「智商」好像高了一些,共驾模式下车子和我的配合也更丝滑了。但是在某些场景下,车子的决策和我的想法还是不一致,导致抢方向盘的情况再次发生。经历过多次这些情况后,我都会轻踩刹车退出智能驾驶,自己手动驾驶一段时间后再重新开启 NGP。整体而言,这套智驾系统我能给打 80 分。

说到续航,我买的配置是 502 km 的,后面才了解到这个数据是 CLTC 的,实际续航应该采用 WLTP 的,实际也就 400 km 左右。这一点对于我周末往返福州和莆田只充一次电的需求来说刚刚好够用,但如果要是中途要去其他地方的话,就还是需要补能一下的。早知道就买 620 MAX 版本了……

最后,来点吐槽:

  1. 底盘低:交付中心的人员帮忙把车从小坡上开下来的时候,不得不惊叹这真的是一个技术活。开惯了 SUV,换成这辆轿跑后,就得时刻小心路面的起伏情况。路况一不好,就得时刻担心底盘被蹭到。
  2. 隔音差:可能车身较薄,底盘较低,车辆行驶起来噪声还是较大的,这个时候就只能打开音乐,来掩盖一下噪音。
  3. 后排空间稍差:因为购车时还对比了小鹏 G6,M03 车身较低,头顶离车顶的距离并不充裕。虽然它的后备箱牺牲了后排膝盖离前座的距离,再加上下沉的储物箱换取了空间,但在春节返乡行李较多时,还是显得有些不够用😅

说起来,其实提车不久就拿到了一血。由于刚提车还没办理 ETC,我在出收费站人工窗口通道时,可能压到了前面大车掉落的金属件,导致轮胎底部和侧壁直接被戳破。万幸的是,此时车已驶下高速,出了收费站我就靠边停了。致电小鹏紧急救援中心后,得知可以上门补胎,这才能够顺利回家,第二天就把车子送到小鹏售后中心进行了轮胎更换。因为我第一时间通知交警进行取证并做了责任判定,后续换轮胎时也找门店开具了相关发票和收费明细,收费站全额报销了我换轮胎的费用😃小鹏方面由于深夜不好叫免费拖车,还给我补偿了价值 200 元的积分,让我对他们的好感度大大提升!

我的第一辆车,有了它之后,离家的距离就更近了,以后肯定会带着我和我的家人去探索世界更多的角落🚙


如果你也想分享「新玩意」🔉:

  • 获取 Matrix 社区写作权限并签署 Matrix 共创计划
  • 在少数派独家发布一篇文章,在标题中标注「新玩意」前缀;
  • 用至少 800 字介绍产品,并配上 2-3 张产品的实拍图片;
  • 在网站个人信息中补充支付宝账号。

成功入选本栏目还可以得到 108 元的「剁手红包」🧧。如果你有兴趣参与,就赶紧来稿吧!

> 下载少数派 客户端、关注 少数派公众号,了解更多的新玩意 🆒

> 特惠、好用的硬件产品,尽在 少数派 sspai 官方店铺🛒

    3 月 9 日,Anthropic 推出了一款新的代码审查产品 Code Review,主打在人工介入之前,先用 AI 自动检查 Pull Request 中的问题。 这项服务面向团队和企业用户,瞄准的是软件开发生命周期(SDLC)中一个越来越突出的新环节:代码写得越来越快,但代码审查正逐渐成为瓶颈。

     

    和传统 IDE 内置的审查插件不同,Code Review 主要运行在 GitHub 和 CI 流程中,而不是开发者本地的 IDE 里。也就是说,它更像是被放在代码提交之后、人工审查之前的一道自动检查关卡。乍一看,这确实像是个很有吸引力的新功能——毕竟在 AI 持续抬高代码产能之后,代码审查已经成了越来越多团队不得不面对的新问题。

     

    更贵,也更慢:Claude 开始收“审代码税”

     

    实际上,Anthropic 的 Claude 模型本身已经具备按需进行代码审查的能力——甚至可以通过让 Claude 审查自己写的代码,来评估 AI 生成代码的质量。此外,公司还提供了 Claude Code GitHub Action,可以在 CI/CD 流水线中自动触发代码审查。而新的 Code Review 服务,则把这种能力做得更深入——当然,成本也更高。

    “代码审查按 token 使用量计费,通常平均每次在 15 到 25 美元之间,具体费用取决于 Pull Request 的规模和复杂度。”

    注意,Claude Code 创始人 Boris 强调了这是每个 Pull Request 的价格

     

    从开发者实际测试来看,这个价格并不只是纸面数字。开发者 Sinai Gross 表示,他测试了 Claude Code 的代码审查功能,一次共审查了 3 个 Pull Request:其中两个 PR 各修改了约 750 行代码,另一个修改了约 100 行,系统给出的平均费用是 18.39 美元。

     

    问题在于,这样的价格一旦放到真实的工程规模里,成本会迅速放大。网友 DanT(@uyintans) 就直接指出,如果一家中大型公司每天都会产生大量 Pull Request,而每个 PR 都要花 15 到 25 美元来审查,那么规模化之后,这笔费用很容易滚到每年数百万美元。

     

    换句话说,假设一个团队一天产生 100 个 PR——这在大型工程团队里并不算夸张。按“每位工程师每天提交 1 到 2 个 PR”估算,一个 50 人的工程团队,一天就可能接近这个数量。若按平均 20 美元一次审查计算,一天就是 2000 美元,一年大约就是 70 多万美元。如果是更大的工程组织,PR 数量再翻几倍,整体成本很快就会迈入百万美元级别。

     

    对比之下,做 AI 代码审查的 CodeRabbit,月费也不过 24 美元。也就是说,Claude 这套多跑两次 PR,花的钱可能就已经超过别人一个月。

     

    Q:每次 PR 审查要 15–20 美元,对于一个个人项目来说实在太贵了。有没有更便宜甚至免费的替代方案,同时还能在测试阶段防止新的功能把生产环境搞崩?

    A:CodeRabbit 对开源项目是免费的。

    而且,Code Review 的速度也不算快。Anthropic 表示,具体耗时取决于 Pull Request 的规模,但平均一次审查需要约 20 分钟

     

    原因在于,这些 Agent 并不只分析 PR 的改动部分,而是会把整个代码库作为上下文来分析。

     

    Anthropic Claude Code 产品负责人 Cat Wu 认为,这样可以避免某个文件的改动在其他文件中引入新的 bug——例如不同模块之间存在一些意想不到的交互关系。

     

    她解释说,他们希望这个系统“非常智能、非常彻底,而目前实现这一点的方式,就是让它运行得更久一些。”

     

    “不过换来的结果是更可靠的输出。而且每个 Agent 不只是查看你修改的代码,它们可以灵活地遍历整个代码库。”

     

    目前,这个工具只会在 Pull Request 创建时自动运行。对于简单的 PR,系统只会进行一次“轻量级扫描”;而对于复杂的 PR,则会调用更多 Agent,进行更深入的分析。

     

    并行 Agent,效果还不差

     

    在实际运行中,Code Review 会派出一组并行工作的 Agent,每个 Agent 负责寻找不同类型的错误。任务完成后,它们会在 Pull Request 中留下评论,总结发现的问题,并在必要时给出修复建议。

     

    不过,这些 Agent 不会自动批准 Pull Request——最终是否通过,仍然由人类工程师决定。

     

    这些 Agent 的重点是发现逻辑错误(logic errors),而不是代码风格问题。这是一个刻意的设计选择。 Cat Wu 表示,这样做可以减少误报。

     

    她解释说:“很多时候人类在做代码审查时,不仅会发现逻辑错误,还会提出大量代码风格上的问题。我们发现,在 AI 生成的代码审查中,开发者最关心的其实是逻辑错误,所以这也是系统的核心关注点。”

     

    “大家对误报非常敏感。如果我们只专注于逻辑错误和真正的 bug,那么误报率就会很低。因为一旦发现 bug,几乎肯定就应该修复。”

     

    Anthropic 表示,他们已经在内部使用 Code Review 数月,并取得了相当不错的成果。公司称:

    • 对于超过 1000 行变更的大型 Pull Request,84% 的自动审查会发现值得关注的问题,平均 7.5 个问题。

    • 对于少于 50 行的小型 Pull Request,31% 会收到评论,平均 0.5 个问题。

    而在人类开发者的反馈中,被 Claude 标记的问题里,不到 1% 会被工程师否决。

     

    一些参与测试的客户也获得了实际收益。例如,当 TrueNAS 在其开源中间件中进行 ZFS 加密模块重构时,这个 AI 审查服务在相邻代码中发现了一个 bug:一个类型不匹配的问题,可能在同步操作时导致加密密钥缓存被清空。

    Anthropic 还举了一个内部案例:Code Review 曾发现一处看似无害的一行代码修改,但如果合入生产环境,实际上会破坏服务的认证机制。该公司表示:“这个问题在代码合并之前就被修复了。事后这位工程师也表示,如果没有 AI 审查,他很可能自己发现不了。”

     

    既当运动员,又当裁判

     

    Anthropic 还强调说,过去一年,自家工程师的代码产量增长了 200%,代码审查反而成了新的瓶颈。公司还表示,很多客户也在遇到同样的问题:开发者已经忙不过来,很多 PR 最后只能草草看一眼,很难做深入审查。

     

    这其实也是行业普遍现象:AI 让代码写得越来越快,但审代码的人并没有变多,PR 越来越多,审查自然就跟不上了。

     

    不过网友的质疑也很直接:既然 Claude 能审代码,为什么不一开始就把代码写对?有人吐槽,现在看起来像是 Claude 先写代码,再让 Claude 自己审代码,最后还抓出一堆 Claude 自己写出来的 bug。还有人说得更犀利:这会不会违背了“裁判不能同时当刽子手(既当运动员,又当裁判)”的基本原则?万一 Claude Code 先制造出问题,再靠修复这些问题继续收费呢?

     

    说白了,这看上去更像是在给模型自己的不稳定再加一层补丁——而且这层补丁,还要再收一笔钱。

     

    参考链接:

    https://x.com/bcherny/status/2031089411820228645

    https://claude.com/blog/code-review

    https://www.theregister.com/2026/03/09/anthropic_debuts_code_review/

    最近,GitHub 发布了一份与 Anders Hejlsberg 的深度访谈,你可能不知道这个名字,但你肯定听说过 Turbo Pascal、Delphi、C# 和 TypeScript。

    对,他就是 Turbo Pascal 和 Delphi 的创建者,C# 的首席架构师,以及 TypeScript 的设计者。

    从这次深度访谈中,我总结出了一套构建能够经受规模化考验的系统模式。以下是我学到的 7 个经验:

    1. 快速反馈:最为重要

    Hejlsberg 说,Turbo Pascal 的成功不是因为 Pascal 语言本身有多好,而是因为它能让开发者能“立刻”看到结果。

    同样,TypeScript 的价值不仅在于语言本身,更在于其强大的工具链:增量检查、快速响应,哪怕是在大型代码库。

    image.png

    所以快速反馈能够改变行为

    当错误能够立刻出现,开发者会进行更多的重构和测试,于是问题在出现之初就被解决。

    反之,当反馈延迟,团队则会通过通过约定俗成的规则、变通方案以及额外的流程开销来弥补。 

    所以无论选择编程语言、框架还是内部工具,响应速度都至关重要。能够缩短编写代码与理解其后果之间距离的工具往往更受信任。

    2. 团队协作:放下个人偏好

    当 Hejlsberg 从单独工作转向带领团队,最难的调整不是技术层面,而是学会放弃个人偏好。

    Anders Hejlsberg 说:“你必须接受事情的进展与你的预期有所不同。即便解决了这个问题,也改变不了事情的本质。”

    这种思维方式远不止于适用于语言设计。

    任何需要跨团队扩展的系统都需要从个人品味转向共同目标。

    目标不再是编写符合你个人风格的代码,而是编写多人都能理解、维护和共同演进的代码。

    C# 的诞生并非源于一个全新的理想,而是源于各种相互冲突的需求。Visual Basic 开发者追求易用性,C++ 开发者追求强大功能,而 Windows 则要求务实。

    最终的结果并非理论上的纯粹,而是一种足够多的人能够有效使用的语言。

    语言的成功并非源于其完美无缺的设计,而是源于其能够适应团队实际的工作方式。

    image.png

    3. 顺势而为:为什么 TypeScript 选择扩展 JavaScript

    TypeScript 为什么能成功?

    不是因为它比 JavaScript 更"完美",而是因为它选择了"扩展"而不是"替代"。

    当时很多团队为了用上静态类型,直接用其他语言编译成 JavaScript。这种"推倒重来"的做法,要求开发者放弃现有的工具、库、思维模式——成本太高了!

    TypeScript 的聪明之处就在于:我不要你放弃任何东西,我只是在你现有的基础上加点内容。

    这背后其实也是妥协。

    尊重现有工作流程的改进往往得到传播,需要全面替换的改进则很少能实现。

    有意义的进展往往来自于让你已经依赖的系统变得更强大,而不是试图重新开始。

    image.png

    4. 透明化:公开透明建立信任

    TypeScript 团队在 2014 年做了一个重要决定:完全开放开发过程,所有讨论都在 GitHub 上进行,让全世界都能看到他们是怎么做决策的。

    这样做有什么好处?

    开发者不仅能看到最终成果,还能理解为什么这么做。信任就这样建立起来了。

    对团队来说,这也改变了工作优先级。他们可以直接查看开发者关心的问题,而不是猜测什么最重要。

    所以最有效的开源项目不仅仅是分享代码。它们使决策过程可视化。这样贡献者和用户就能理解如何设定优先级,以及为什么做出权衡。

    image.png

    5. 必要的突破:什么时候该彻底重做

    TypeScript 团队曾经用 JavaScript 来写 TypeScript 编译器,这在小项目时没问题。但随着项目越来越大,JavaScript 的单线程特性成了瓶颈。

    这时他们做了一个艰难决定:把编译器用 Go 语言重写

    这不是为了炫技,而是因为技术限制已经到了不突破就无法继续发展的地步。

    而这次重写的目标是语义保真度。新编译器需要表现得与旧编译器完全一样,包括怪癖和边缘情况。

    结果就是带来了显著的性能收益,而社区也不必重新学习编译器。

    所以有时最负责任的选择不是雄心勃勃,完全重写,而是保持最小化破坏,并移除无法通过增量优化克服的硬限制。

    6. AI 时代:基础比想象力更重要

    Hejlsberg 对 AI 时代的编程有个很深刻的观点:

    在 AI 能生成代码的时代,工具的价值不在于创造,而在于约束。

    想象一下,如果 AI 可以写代码了,那程序员的价值在哪里?就在于他们知道什么时候约束 AI,知道什么是正确的,什么是错误的。

    所以AI 辅助工作流程中最有价值的工具不是生成最多代码的工具,而是正确约束它的工具。

    强大的类型系统、可靠的重构工具和准确的语义模型成为必不可少的护栏。它们提供了允许 AI 输出被审查、验证和有效纠正而不是盲目信任的结构。

    image.png

    7. 开放协作:至关重要

    尽管面临资金和维护的挑战,Hejlsberg 对开放协作依然保持乐观。一个原因是制度记忆。哪怕是多年前的讨论、决策和权衡,仍然可以搜索和可见。

    “我们有 12 年的历史记录在我们的项目中,”他解释道。“如果有人记得发生了讨论,我们通常能找到它。上下文不会消失在电子邮件或私人系统中。”

    这种可见性改变了系统如何演变。设计时的辩论、被拒绝的想法和权衡在个人决策做出后很长时间仍然可访问。

    对于以后加入项目的开发者来说,这种共享上下文常常与代码本身同样重要。

    总结

    你会发现,在 Anders Hejlsberg 40 年语言设计的历程中,同样的主题反复出现:

    • 快速反馈比优雅更重要
    • 系统需要容纳许多人编写不完美的代码
    • 行为兼容性往往比架构纯粹性更重要
    • 透明化的权衡取舍能够建立信任

    这些并非次要因素,而是决定工具能否随着用户群体增长而不断适应的根本性决策

    此外,它们也为创新奠定了基础,确保新想法能够在不破坏现有有效机制的前提下生根发芽。

    对于任何致力于打造经久不衰的工具的人来说,这些基本要素与任何突破性功能都同样重要。而这或许才是最重要的一课。

    我是冴羽,10 年笔耕不辍,专注前端领域,更新了 10+ 系列、300+ 篇原创技术文章,翻译过 Svelte、Solid.js、TypeScript 文档,著有小册《Next.js 开发指南》、《Svelte 开发指南》、《Astro 实战指南》。

    欢迎围观我的“网页版朋友圈”,关注我的公众号:冴羽(或搜索 yayujs),每天分享前端知识、AI 干货。