2026 年投资各位来聊
投资是场修行,个中滋味,只能独自体味。
仓位一重容易拿不住,卖飞或割肉,收益曲线上蹿下跳。
2026 年收益率目前只有 3%,极端情况可能一天的波动就扛不住。
目前持有 现金流 etf 恒跌科技 etf 沪深 300etf 标普 500 纳斯达克,无个股。
xiaohack博客专注前沿科技动态与实用技术干货分享,涵盖 AI 代理、大模型应用、编程工具、文档解析、SEO 实战、自动化部署等内容,提供开源项目教程、科技资讯日报、工具使用指南,助力开发者、AI 爱好者获取前沿技术与实战经验。
投资是场修行,个中滋味,只能独自体味。
仓位一重容易拿不住,卖飞或割肉,收益曲线上蹿下跳。
2026 年收益率目前只有 3%,极端情况可能一天的波动就扛不住。
目前持有 现金流 etf 恒跌科技 etf 沪深 300etf 标普 500 纳斯达克,无个股。
可无限白嫖一个月,仅 1 个邮箱即享用 Gemini 3 Pro
准备工作
活动地址
https://cloud.google.com/gemini-enterprise
注意:如果登录了自己 Google 账号,建议退出登录或者换个浏览器即可
本来正常的,突然发消息给小龙虾就收到不任何回复了 原理是 openclaw 会主动向 钉钉 的服务器建立 websocket 连接,但是如果长时间没有消息,这个 websocket 连接会自动释放。谁自动释放?可能是中间的各种防火墙、网关,也可能还是钉钉自己出于负载均衡等释放了连接 输入下面两个命令,让 openclaw 主动探查 websocket 是否还活着,如果连不通了,就重建一个 websocket 连接 后面的 5 表示每 5 分钟判断一下 websocket 是否还有效;也可以改成 1 或者 10问题描述
问题原因
解决办法
openclaw config set gateway.channelHealthCheckMinutes 5
2026 年,智能体将在企业级应用中取得哪些实质性突破?点击下载《2026 年 AI 与数据发展预测》白皮书,获悉专家一手前瞻,抢先拥抱新的工作方式! Snowflake 是一个完全托管的 Data & AI 平台,以易用性、广泛的连接能力,以及对企业数据资产的无缝集成而备受全球成千上万客户的信赖。该平台与 Amazon Web Services 深度集成,旨在加速企业级数据与人工智能(AI)技术的落地应用。本快速入门指南将重点介绍 Snowflake 与 Amazon Quick 的集成方案,帮助用户构建由 AI 驱动的商业智能(BI)能力,实现对企业全域数据源的统一智能分析,并打通从洞察获取到行动执行的“最后一公里”关键环节。 本次集成的核心亮点在于 Snowflake 引入的全新架构对象——语义视图。语义视图赋予原始企业数据以业务含义与上下文,通过定义“指标”(例如总观看量、用户评分)与“维度”(如电影、类型),在人机交互的自然语言与复杂数据结构之间建立起一座可靠的桥梁。语义视图将组织的业务上下文与数据定义直接嵌入数据层,从而确保 AI 与 BI 系统能够以统一方式解读数据,提供可信的分析结果,并显著降低 AI 模型产生幻觉的风险。 用户可在 Cortex Analyst 中直接使用语义视图,并在 SELECT 查询中对其进行调用。此外,语义视图支持通过私有列表、Snowflake 市场上的公共列表以及组织内部列表进行共享。通过在物理数据之上附加明确的业务语义,语义视图有效提升了数据驱动决策的精准度,并确保不同企业应用之间的业务定义保持一致。 作为 Snowflake 的原生架构对象,语义视图还提供对象级别的访问控制能力:用户可像对待普通表和视图一样,授予或限制对语义视图的使用与查询权限,从而确保在 SQL 查询、BI 分析以及 AI 应用等多个访问端点上,数据的访问均经过严格授权与合规管控。 在本教程中,您将学习如何通过 Snowflake Cortex Analyst 对某传媒公司的客户评论数据进行处理与分析,并利用亚马逊云科技 QuickSuite 套件中的 Amazon Quick Sight 构建可视化仪表板。本案例将以包含电影传媒公司客户评论的电影数据集为操作对象,帮助您将原始数据转化为可执行的业务洞察。 该集成方案充分利用了 Snowflake 的原生能力,能够将从 Amazon S3 获取的结构化影评数据直接导入数据库模式中。通过 SQL 定义包含表关系、维度和指标的 Snowflake 语义视图,可以显著增强人工智能分析的效果。将语义模型从传统的 BI 工具层迁移至核心数据平台,可确保所有分析工具使用统一的语义概念,提升数据的一致性和可复用性。 数据摄入与语义视图创建:使用 Snowflake 原生数据摄入工具,从 Amazon S3 加载数据,并通过 SQL 构建语义视图,为业务用户简化底层数据库结构,提升数据可理解性。 基于 Cortex Analyst 的自助式分析:业务团队和非技术用户可通过 Snowflake Cortex Analyst,利用自然语言进行自助式数据分析,从 Snowflake 中的结构化数据快速获取业务洞察。 Amazon Quick Sight 集成:遵循 Jupyter Notebook 中的 QuickSight 数据集生成器指南,通过 Snowflake DDL 创建 QuickSight 数据集,涵盖从配置凭证到数据集共享的完整流程,并可使用 AWS Cloudshell 以编程方式调用 Amazon Quick Sight API,实现自动化部署与管理。 增强的人工智能商业智能:该集成方案助力商业智能团队通过自然语言交互,便捷地创建交互式图表与仪表板、构建计算字段、开发数据故事、开展假设情景分析,同时有效降低人工智能幻觉的风险。此外,商业智能团队可将基于 Snowflake 的仪表板集成至(Amazon Quick) Movies 空间,将其他文件、仪表板、主题、知识库与应用操作整合为一个统一且可定制的企业知识中心,进一步提升数据驱动决策的效率和准确性。 • 掌握 Snowflake 中仓库、数据库及模式的配置方法; • 学习如何将 Amazon S3 数据导入 Snowflake 平台; • 了解并实践 Snowflake 语义视图的完整构建流程,涵盖表结构、关联关系、维度与指标的定义; • 初步掌握 Snowflake Notebook 的使用方法; • 理解语义视图如何助力 AI 驱动的分析(通过 Cortex Analyst 智能体),并在跨 BI 工具(如 Amazon QuickSight)使用中确保数据一致性。 您将搭建一个基础且实用的 Snowflake Cortex Analyst 智能体环境。通过构建完整的数据视图及语义模型,实现基于 Amazon QuickSight 的统一数据查询能力,为 AI 和 BI 应用提供一致的数据基础。 • 具备 Snowflake 平台使用经验。如无账户,可点击此处注册试用版; • 选择 AWS 云环境中的企业版服务 • 拥有具备 ACCOUNTADMIN 角色权限的账户,以便创建语义视图 • 熟悉 AWS 服务。如无账户,请先注册 AWS 并开通 QuickSight 服务; • 请确保在上述两个平台均选择支持的区域进行注册。当前 QuickSight 服务已在以下四个区域开放:美国东部(弗吉尼亚)、美国西部(俄勒冈)、亚太地区(悉尼)及欧洲(爱尔兰)。更多信息可参阅 Amazon QuickSight 官方文档; • 掌握 SQL 与 Python 基础知识; • 理解数据分析基本概念与方法。 您将使用 Snowflake 的网页界面 Snowsight 导入并运行笔记本,以创建所需环境。 • 下载笔记本文件:从资产文件夹中下载 SF_Quick_Quickstart.ipynb 笔记本文件。 Snowflake 笔记本预装了用于数据科学和机器学习的常见 Python 库,例如 numpy、pandas、matplotlib 等。如果您需要使用其他软件包,可以点击右上角的 "Packages"(软件包)下拉菜单,将额外的软件包添加到您的笔记本中。 • 点击 "+ 创建" 按钮 -> 选择 "Notebook"(笔记本)-> 点击 "Import"(导入)以下载的笔记本文件。 接受默认设置,并确保选择 Run on Warehouse(在虚拟仓库上运行)。 默认情况下,笔记本使用的虚拟仓库设置为 SYSTEM$STREAMLIT_NOTEBOOK_WH。不过,您也可以在创建笔记本时,从下拉列表中选择一个不同的虚拟仓库。 我们将通过此笔记本创建一个名为 WORKSHOPWH 的新虚拟仓库和一个名为 movies 的数据库,用于组织我们的数据。 笔记本创建完成后,您可以通过笔记本设置选择其他虚拟仓库。 我们将运行笔记本中的单元格,将数据加载到数据库 MOVIES 中,然后继续运行 第 1 部分 和 第 2 部分 以及笔记本的其余部分。 重要步骤!! 在运行包含以下 SQL 语句的 Get_SV_DDL 单元格后: 请务必点击 "Download as CSV"(下载为 CSV),并将此文件重命名为 SF_DDL.csv。 至此,Snowflake 端的设置已完成。 此时,您可以在 Snowsight 中查看语义视图 MOVIES_ANALYST_SV,并通过 Cortex Analyst 使用自然语言提问。 如需在 UI 中查看已创建的语义视图: 在 Snowsight 中,选择 AI 与机器学习 -> Cortex Analyst; 确保已选中之前创建的 SEMANTIC_QUICK_START_ROLE 角色和 WORKSHOPSH 仓库; 选择 Movies 数据库和 Public 模式; 查看语义视图 MOVIES_ANALYST_SV 的详细信息。 如需使用 SQL 查看语义视图,请参考此处的示例。 欢迎在操作台中自由探索并解释数据集; 退出前请务必保存。 欢迎添加更多已验证的查询。 已验证查询是带有正确答案的示例黄金问题,它为大语言模型(LLM)提供了准确答案的范例。这有助于提高准确性、降低延迟,并为您的语义视图生成更好的建议。 例如:验证“2023 年所有电影的平均评分是多少?”这个问题,可以确保 Cortex Analyst 能为所有类似表述的问题生成正确的 SQL。 Cortex Analyst 仅会在用户提问与已验证查询相似时使用它们。 请尝试以下示例问题: • 按电影名称展示总的评分值; • 列出有史以来最受欢迎的 10 部电影。 按照笔记本中的指南完成以下流程:基于 Snowflake DDL 创建 QuickSight 数据集、设置凭证以及将数据集共享给用户。请从 assets 文件夹下载 QuickSight 数据集生成器_Solution_Package.zip。 打开 AWS 控制台 --> cloudshell --> 上传 Solution_Package.zip 创建 AWS Secret(存储 Snowflake 凭证) 创建 QuickSight 数据源(使用该 secret) 生成 QuickSight 架构(基于之前保存为 SF_DDL.csv 的 Snowflake DDL) 创建数据集(基于生成的架构) 启动 SPICE:超快速并行内存计算引擎 数据摄取(加载数据) 共享数据集(给其他用户)- 可选步骤 数据集创建完成且数据摄取结束后,您可以进入 Amazon QuickSight 控制台查看数据集、创建 Q 主题、仪表板,甚至为您的团队生成 Movies 空间。 我们可以使用相同的已验证查询来生成仪表板 例如:显示评分最高的电影 • 或者,你也可以在工作表中复制并运行以下 SQL 语句,以创建 Snowflake 对象(仓库、数据库)。 一旦仓库和数据库创建完成,你就可以上传 Notebook 并执行引导式单元格,开始后续操作。 恭喜你完成本实验!你已成功利用 Snowflake 生成洞察,并掌握了其与 Amazon Quick Suite 的集成方法。 如何使用 Snowflake Cortex Analyst 分析数据; 如何通过语义 SQL 定义包含表、关系、维度和指标的 Snowflake 语义视图; Snowflake 与 Amazon Quick Suite 之间的集成方法。 ● GitHub 代码库链接 ● 语义视图入门指南 原文地址:https://www.snowflake.com/en/developers/guides/better-together-snowflake-sv-amazon-quicksight/ 点击链接立即报名注册:Ascent - Snowflake Platform Training - China,更多 Snowflake 精彩活动请关注专区。
使用案例
关键步骤与优势

学习目标
构建内容
准备工作
环境设置
概述




SELECT TO_VARCHAR( GET_DDL( 'SEMANTIC_VIEW', 'MOVIES.PUBLIC.MOVIE_ANALYTICS_SV'));



使用 AWS CloudShell 调用 Quicksight API 的 QuickSight 数据集生成器
完整工作流程

**Expected Output**Parsing Snowflake DDL from: SF_DDL.csvFound 3 tablesFound 2 relationshipsFound 17 dimensionsFound 1 factsFound 7 metricsGenerating complete QuickSight dataset schema...Complete schema saved to: quicksight_schema_complete.jsonThis schema includes: ✓ All 3 physical tables (MOVIES, USERS, RATINGS) ✓ Logical tables with joins ✓ Column renames based on DDL aliases ✓ Type casts (IDs to STRING) ✓ Calculated fields (USER_FULL_NAME, DISTINCT_MOVIES) ✓ Column descriptions from DDL comments**Expected Output**✓ Dataset created: movie-analytics-dataset✓ Status: 201✓ Ingestion started: ingestion-1769081615"IngestionId": "ingestion-1769082493", "IngestionStatus": "COMPLETED", "ErrorInfo": {}, "RowInfo": { "RowsIngested": 378436, "RowsDropped": 0, "TotalRowsInDataset": 378436
附录
附录 1:适用于希望在导入 Notebook 前,使用 SQL 工作表创建仓库和数据库的用户
-- =============================================-- PART 1: Snowflake Setup for semantic view quick start-- =============================================USE ROLE ACCOUNTADMIN;-- Create role for semantic view quick startCREATE ROLE IF NOT EXISTS semantic_quick_start_roleCOMMENT = 'Role for semantic view quick start demo';-- Set variablesSET my_user = CURRENT_USER(); --Grant role to your userGRANT ROLE semantic_quick_start_role TO USER IDENTIFIER($my_user); -- create database, schema and warehouseCREATE WAREHOUSE IF NOT EXISTS WORKSHOPWH WITH WAREHOUSE_SIZE = 'XSMALL' AUTO_SUSPEND = 1800 AUTO_RESUME = TRUE COMMENT = 'Warehouse for semantic view quick start demo';CREATE DATABASE IF NOT EXISTS movies;GRANT OWNERSHIP ON DATABASE movies TO ROLE semantic_quick_start_role COPY CURRENT GRANTS;GRANT OWNERSHIP ON SCHEMA movies.PUBLIC TO ROLE semantic_quick_start_role COPY CURRENT GRANTS;GRANT OWNERSHIP ON WAREHOUSE workshopwh TO ROLE semantic_quick_start_role COPY CURRENT GRANTS;-- Grant privileges to create semantic viewsGRANT CREATE SEMANTIC VIEW ON SCHEMA movies.PUBLIC TO ROLE semantic_quick_start_role;GRANT CREATE STAGE ON SCHEMA movies.PUBLIC TO ROLE semantic_quick_start_role;总结与资源
本课要点
相关资源

开发过程: https://github.com/twwch/vibe-coding
漫剧平台: https://github.com/twwch/AIComicBuilder
效果图:






开发过程: https://github.com/twwch/vibe-coding
漫剧平台: https://github.com/twwch/AIComicBuilder
效果图:






Adobe Acrobat是Adobe推出的一款专业的PDF制作工具,这款工具不仅可以帮助用户轻松制作pdf文件,还具有编辑、导出、注释等功能。 安装包下载:https://pan.quark.cn/s/759ddb4f8efe,先下载好 Adobe Acrobat Pro DC 2018 安装包(压缩包形式,内含 解压安装包: 找到下载的 Adobe Acrobat Pro DC 2018 压缩包,右键点击 → 选择【解压到当前文件夹】。 运行安装程序: 打开解压后的【Acrobat Pro DC2018】文件夹,找到 执行安装: 在安装界面点击【安装】→ 等待进度条走完(期间可稍作等待)。 启动软件: 安装完成后,点击【立即启动】→ 成功打开 Adobe Acrobat Pro DC 2018 主界面,说明安装完成! 一、准备工作
Setup安装程序),保存到电脑本地。二、安装 Adobe Acrobat Pro DC 2018
Setup安装程序,右键 →【以管理员身份运行】(避免权限不足导致安装失败)。
作者 | 作业帮大数据团队(覃争、孙建业、刘泽强) 作业帮 Presto 主要应用在即席查询场景,基本不用于 toB 系统和例行数仓构建场景。天级查询规模大概在 2000 ~ 5000 次,均值查询耗时分钟级别,整体偏慢; Presto、Yarn、HDFS 是混布的,进程间只做内存资源限制,高峰期宿主节点 Cpu 几乎打满,严重影响即席查询体验,业务负反馈明显。针对核心业务采用独立部署方式缓解; 在 toB 系统的 OLAP 场景使用 StarRocks 多年,团队对 StarRocks 的理解比 Presto 更深刻,并且高版本 StarRocks 存算分离已经支持 Trino Dialect; Presto 版本较老,不支持查询已有 Iceberg 表; StarRocks 采用全面向量化引擎和基于 CBO 的智能查询规划,在复杂的多表关联查询场景下性能表现很好,同时原生支持具备 Iceberg 查询能力,社区成熟技术迭代快。同时在存算一体场景采用 StarRocks 已有很多经验,所以采用 StarRocks 替换 Presto。为避免业务扰动且收益正向,核心是平台层面架构适配、解决语法兼容性和性能优化、任务迁移。 即席查询整体架构如下图。用户通过数据平台编辑 SQL 任务,提交给 QueryEngine 即席查询服务(任务管理、语法校验、结果脱敏、日志可读性转换等等),再由 QueryEngine 提交给计算网关 Teralink(权限认证、审计、分发、引擎入口收敛等),Teralink 根据具体执行引擎提交给集群。StarRocks 采用存算分离模式部署,利用 Catalog 查询 Hive、Iceberg 数据。考虑到长期 StarRocks 和 Spark 基于 k8s 弹性,做了容器部署。为避免业务扰动最大化兼容 Presto sql 语法,详细内容见下文。在 StarRocks 内部解析异常时也可以回退到 StarRocks Dialect Parser 起到一定补充作用。 在迁移方案时,为了保障稳定和数据准确,在 QueryEngine 这层做了防御措施。当使用 StarRocks 集群查询失败后回退到 Presto。在准确性方面,根据已有双跑结果建立 StarRcoks SQL 指纹库,指纹库以外的查询 diff 数据结果,数据准确完善指纹库信息,预期之外情况人工介入解决。 资源节省的角度考虑,我们没有将 Presto 和 StarRocks 的资源打平,而是 Presto 利用现有集群,StarRocks 利用测试小集群,资源情况如下: Presto 混布以单节点可用最大内存、cpu 内存比为 1:3.5 计算,其中一个集群大概 2500 多核(白天 cpu 有空闲) StarRocks 资源情况 6 CN * 32 核 = 192 核 在业务低峰期针对近 N 天的查询进行双跑。大概步骤如下 过滤出 Presto 执行成功的 SQL,先 explain,explain 不通过的跳过,并记录; 双跑串行查询(StarRocks 多次),记录数据、耗时等信息; 分析耗时、利用 sum(hash(column)) 对比结果数据; 兼容结果:通过 3 个多月的数据验证 diff,遇到主要问题如下,大多数通过改造解决,少数开发成本高且使用率低的通过报错后给替代方案解决。 性能结果:StarRocks 的整体性能符合预期,缓存以后查询性能也有明显的提升。 历史因 Hive 数据存储和计算 cpu 增长不成线性比例,用 Cos 替换了 HDFS,做了离线场景的存算分离。查询远端 cos 数据与 StarRocks data cache 数据时,性能上还是有很大差距的,Cos 内部并没有数据格式的概念,查询引擎很难利用 parquet 格式特殊性实现 data pruning,加上网络请求的耗时,查询速度会有衰减。为了尽可能提高查询效果,我们会利用 SQL 解析获取最近 N 天查询过的表,监听这些表新增分区,自动触发查询进行数据缓存,命中率情况如下图。 分析 data cache 的原理,缓存文件由 CN 节点个数、Host Ip 和 Port 决定的。在 K8S 上 StarRocks CN 节点采用的是 StatefulSet 方式进行部署,虽然我们目前还没有走弹性扩缩的逻辑,但是 StarRocks CN Pod 的重启 / 重建也会影响 data cache 的分布。因此我们目前的部署采用的是:固定资源池 + Pod 滚动重启 / 重建 + Pod 规格基本用满一个节点 组合的方式,来控制 pod 不会发生漂移。后面待云上能力支持完善后, 我们会采用 Local PVC 的方式来防止 Pod 漂移,同时考虑引入 StarRocks 4.0 新增的缓存共享能力。 问题背景:平台侧是 explain 来实现语法检测的,Presto 基本秒级返回,StarRocks 耗时比较久,有的甚至超过 30s ~ 1min 原因分析:explain 过程包含多个阶段 Parse、Analyze、Logical Plan、SQL Optimize、 生成 Plan Fragment。分析 Profile 发现耗时主要在 SQL Optimize 阶段,RBO/CBO 获取查询源信息阶段。StarRocks 现有的 explain 能力不支持跳过 SQL 优化阶段 解决方案:调整 SQL 为 explain select * from( {user_original_sql} ) where 1!=1 问题背景:除了 StarRocks、Presto 外还有长时运行的 Spark 任务,平台侧提供了运行中任务取消能力; 原因分析:实际上是 2 个问题 在 Teralink(基于 Kyuubi 二开)中,JdbcSQLEngine 通过调用 MySQL Statement.close() 来处理 cancel 请求。但由于 Statement.close() 需要获取一把 Statement 内部操作锁,而该锁只有在 SQL 执行结束后才会释放,导致 cancel 请求被阻塞,直到 SQL 执行完成,从而无法真正中断正在运行的 SQL。 MySQL Statement cancel 会新创建一个 connection,而 StarRocks 对外暴露的是 LB, 默认没有开启会话保持,新建 connection,会路由到不同的后端 FE 上 解决方案: 对 JdbcSQLEngine 进行了调整,在 JdbcDialect 中引入 cancel 方法,并在 cancel 流程中先 cancel Statement 的执行,再进行 close,以确保 SQL 能够被 kill 因 LB 开启会话保持会导致 FE 请求不均、某些查询时间比较长,超过保持时间同样有问题。在 Teralink 这层针对 cancel 设置重试策略,检测到相关错误,继续重试 cancel,并设置重试上限; 问题背景:查询 Iceberg 表时,FE 内存变化较大,偶发 OOM 导致 pod 重启 原因分析:查询 Iceberg 表时大概逻辑为 1. 先检测 metadata.json 文件更新时间判断缓存是否过期。2. 如果过期则拉取对应 snap 文件并获取到 m0 文件列表。3. 解析 m0 文件列表定位数据文件。 当 Iceberg 表比较大或者频繁更新时产生很多 m0 文件,第 2 步内存 fe 内存会缓慢增加,第 3 步 fe 内存会剧烈增加,引起 FE OOM 问题 解决方案:关闭 iceberg 表元数据缓存、利用 starrocks 自身 skip manifest 文件的能力在查询时快速进行分区过滤并定位 m0 文件; 问题背景:starrocks 在使用分布式模式解析 iceberg 表元数据时会把虚拟的 metadataTable 当成 hive 表再去 metastore 获取元数据而报错 原因分析:iceberg 表生成执行计划有两种方式。本地模式,使用 fe 进行 metadata.json + snap.avro + m0.avro 文件解析。分布式模式,预设一个 metadata 表及其表结构并把 iceberg 表的元数据 avro 文件当成 hive 普通表的 avro 文件利用 cn 分布式处理。starrocks 采用的是自动选择模式,根据所需扫描的 m0 文件的总大小及数量进行选择。当选择 distributed 模式时会稳定报错,因为在权限验证阶段会强制从 metastore 获取 metadata 表元数据 解决方案:修改代码,如果检测到表类型是 iceberg 表的虚拟元数据表,即 metadataTable,则不进行元数据获取 问题背景:当 sql 含有多个 count_distinct 表达式,单 CN 节点内存使用极高、cpu 空闲、执行速度慢,无法多并发执行; 原因分析:当查询包含 count_distinct 时,StarRocks 会有些内部判断逻辑 如果数据量很大的情况下,分出多个数据流分别进行 streaming aggregate 最后 nestloop join 成单条 如果数据量小且列基数都低,重写成 multi_disticnt_count 函数单点执行 当统计信息缺失则可能误判,也就是在数据量很大时误用 2,导致问题。 解决方案:由于不是所有表都具有完整统计信息,所以禁止 multi_disticnt_count 优化 set global prefer_cte_rewrite=true,放弃小查询性能收益,保障整体查询速度稳定 问题背景:starrocks 为生成更优的执行计划而在 plan 阶段会做更加详细的统计信息收集,导致 plan 阶段时间长,而且为保证数据准确性我们关闭了 fe 文件元数据缓存 原因分析:抽取具体 SQL 分析 trace times(见下图)。在 hive 表统计信息缺失时,优化器会获取全量文件列表推导统计信息,hive 表文件过多会导致在 rbo 阶段速度很慢。 解决方案:增大 async_refresh_max_thread_num 到 128,以 128 线程并发获取分区的文件列表。默认超时时间在存算分离查询数据湖场景偏低,加大 set global new_planner_optimize_timeout=60000 缓解 问题背景:为限制 sql 返回数据条数,代理层会默认在原始 sql 外层嵌套一层 limit 表达式 原因分析:增加 limit 后分析 explain,因为外层没有排序条件而被判定内层的排序条件误用,所以内层的 order by 被删除导致查询结果不符合预期。 解决方案:设置 global sql_select_limit = n,在原有执行计划树添加一个 TOP-N Node 解决。 问题背景:为缓解查询内存不足问题开启中间结果落盘,但 spill 过程中偶发 core dump 原因分析:中间结果落盘时如果数据过大会触发限制导致 cn 进程 core dump 解决方案:修改代码,当批数据过大则不走 lz4 压缩,直接落盘 线上整体采用 32c * 128G 规格的机器,大概 30 多台,数据量 PB 级,最大并发 30。偶尔会出现 StarRocks CN 节点内存过高,导致 Full GC 和 pod 被 kill 问题。内存问题总体比较复杂,从实际运行情况看并非单一原因。CN 节点整体内存占用情况如图。 详细原因和解决方案如下 项目上线后,整体已运行平稳,主要有三方面的收益。 资源收益:原来 Presto 集群总共占有 4300c 左右的资源,迁移到 StarRocks 上,我们只用了 1000c 的资源。 架构收益:多个 presto 集群统一为一个 StarRocks 集群,容器部署同时为后续与 Spark 弹性扩缩提供基础。 性能收益:P90 耗时查询相对 Presto 缩短 2 ~ 3 倍 自动将即席查询 Spark SQL 转化为 StarRocks SQL,加快查询速度; 白天即席查询 StarRocks 和晚上例行 Spark 任务资源弹性;历史背景
技术方案
整体架构

双跑方案

结果分析

缓存加速

核心问题
平台语法解析慢问题
Cancel 查询无效
Iceberg 表缓存导致 FE OOM
iceberg 表 plan_mode = distributed 报错

multi_distinct_count 执行慢问题


执行计划生成耗时长

limit 方式限制返回条数导致结果乱序

中间结果落盘导致 CN core dump

CN 内存不足

项目收益

未来规划
我试了好像不行
在输入法哪里设置成了使用半角标点
单实际上还是中文标点
有没有方法默认全部使用英文标点
在这个“人人养龙虾(OpenClaw)”的时代,开放与灵活,正成为了 AI 落地的主旋律。但在复杂的工厂车间、烟火气十足的连锁门店里,如何让“通用能力”真正解决“行业深水区”的复杂管理问题? 作为百度旗下的多模态专业视觉管理平台,百度一见正式宣布:将深耕行业多年沉淀的专业视觉AI技能封装为标准化场景技能包Skills,支持OpenClaw接入! 2026年初,OpenClaw以横扫之势成为开发者与企业边缘侧部署的首选。这款被网友戏称的“龙虾”,凭一己之力把AI从“只会聊天”拉到了“动手做事”的新阶段。 从极客工坊到初创工厂,随着应用不断深入,行业开发者们正面临共同的挑战: OpenClaw的“手脚”够灵活,但在面对复杂的企业生产运行场景时,通用的视觉能力往往显得“隔行如隔山”。例如连锁零售、能源制造等对准确率与业务逻辑有着严苛要求的领域,单纯的“看见”远不能满足管理需求,用户真正需要的,是能感知、会推理、可落地业务价值的“视觉管理能力”。当OpenClaw 的灵活性遇见连锁门店、工厂车间里如工序合规、物料管理等复杂场景需求时,如何跨越从“通用”到“专家”的最后一公里? 别人的OpenClaw是“会动手的助手”,接入一见场景技能包Skills后,为你的“龙虾”装上专业级的智慧之眼,直接升级成“懂行业的龙虾”! 海量Skills,即插即用:场景技能包Skills覆盖零售餐饮、能源电力、矿山、港口、化工、钢铁等20+行业。通过Skill极简集成,OpenClaw可直接调用,让你的龙虾像经验丰富的老师傅一样,随业务持续生长。 多模态推理,从“看见”到“看懂”:接入一见的OpenClaw具备强大的多模态视频推理能力。不仅能精准捕捉画面,更能理解复杂的业务时空逻辑,将碎片化的物理空间逻辑转化为结构化的管理指令,让OpenClaw具备视觉管理能力。 云边协同,极致性价比:工业级算法的高性能与OpenClaw的轻量化环境完美适配,基于云边架构和大小模型协同,在确保专业级效果的同时,拥有极致的运行能效——更省Token! 2026年,AI的核心竞争力已从“会聊天”进化为“能落地”。OpenClaw给AI装上了敏捷的“手脚”,而百度一见,为它赋予“懂行”的灵魂。 从工厂车间到连锁门店,在“人人养龙虾”的时代,百度一见始终坚信,技术的价值不在于一时的流量跟风,而在于能否在产业深水区“扎得够深”,这只是“灵魂”与“本能”的一次初次握手。 未来,百度一见将持续进化,推出一见OpenClaw企业版Agent及配套,以极低门槛和极致性价比,让每个厂长/店长都拥有可对话、可指挥、可成长、可闭环的数字店长/数字厂长,加速企业实现基于视觉的管理数字化。 📌 “寻找懂视觉管理的龙虾” 活动现已开放预约。我们将在下一期重磅推出完整接入手册+实操指南。喧嚣之后的追问:通用视觉真的够用吗?
赋能OpenClaw:一见让你的龙虾拥有专业级视觉灵魂
一见×OpenClaw:让你拥有“能看懂、会管理”的数字店长/数字厂长
🔥 现在点击【阅读原文】,抢占先机!
https://cloud.baidu.com/survey/yijianskills.html
Adobe Acrobat是Adobe推出的一款专业的PDF制作工具,这款工具不仅可以帮助用户轻松制作pdf文件,还具有编辑、导出、注释等功能。 安装包下载:https://pan.quark.cn/s/0d68bcc3fc59 ,先下载好 Adobe Acrobat Pro DC 2025 安装包(压缩包形式,内含 解压安装包: 找到下载的 Adobe Acrobat Pro DC 2025 压缩包,右键点击 → 选择【解压到当前文件夹】。 运行安装程序: 打开解压后的文件夹,找到 设置安装路径: 在弹出的安装界面中,选择软件安装位置(可点击【浏览】自定义路径,或默认C盘)→ 点击【Install】。 完成安装: 点击【安装】→ 等待进度条走完 → 点击【完成】。 验证安装: 双击桌面 Adobe Acrobat Pro DC 2025 图标,成功打开软件主界面,说明安装完成! 一、准备工作
autoplay安装程序),保存到电脑本地。二、安装 Adobe Acrobat Pro DC 2025
autoplay安装程序,右键 →【以管理员身份运行】(避免权限不足导致安装失败)。
很多 Chrome 内核的可以抛弃掉了
看到一个群友说要把🦞龙虾卸载了,然后我就想找下龙虾卸载的教程看下,于是用 anygen 收集了下材料做成了网站,不过 anygen 用的是 vite + react client ,于是使用 gemini-cli ,改成了 nextjs ,但由于今天用了 gemini 比较多,被限制了额度,该用 trae 继续干活。。。但是呢,多语言老是出错,最后还是用 Claude 给修复了,ai 牛马也是分等级的,Claude 我都是用来最后收尾使用的。
卸载龙虾教程网站: https://openclawuninstall.org/zh ,都是各个 ai 牛马生成的,各位兄弟有什么建议,可以留言给我。

机会稍纵即逝 

🔔 关注【IvorySQL开源数据库社区】公众号即可获取 PostgreSQL 一手干货与最新动态 Plexigrid是一家电网优化公司,将四个数据库整合为单个PostgreSQL/TimescaleDB系统,用TimescaleDB替换了InfluxDB处理时间序列数据。该公司为配电系统运营商提供近实时电网监控,优化低压网络容量,避免昂贵的基础设施过度建设。他们最初使用InfluxDB、TigerGraph、MySQL和PostgreSQL的架构在运营上变得复杂,并在大规模数据摄取时遇到瓶颈。迁移到TimescaleDB后,Plexigrid实现了44%的摄取速度提升、95%的存储减少和350倍的查询性能改进。统一的PostgreSQL架构简化了云端和本地环境的部署,同时为关键电网运营保持了可靠的性能。 https://www.tigerdata.com/blog/from-4-databases-to-1-how-plex... CYBERTEC参加了2026年伦敦Tech Show,这是他们首次参加PostgreSQL社区外的大型活动。公司设立了展台,通过视觉展示介绍其PostgreSQL服务和客户支持流程。活动的主题演讲由Louis Theroux主讲,讨论了AI对人类行为和决策制定的影响。CYBERTEC的CEO Hans-Jürgen Schönig发表演讲,强调了PostgreSQL在数字独立性和数据所有权方面的重要性。作者反思了在设计工作中创造性地使用AI工具,同时保持人类创造力和专注力。此次活动成功地将CYBERTEC的远程团队聚集在一起,并促进了关于PostgreSQL和AI技术的宝贵行业对话。 https://www.cybertec-postgresql.com/en/looking-back-at-techsh... EDB的工程师Matheus Alcantara和Euler Taveira作为受邀嘉宾参加了在São Paulo举行的ISO/IEC SQL标准委员会会议,并得到了Peter Eisentraut的远程支持。这些工程师将SQL标准化过程与PostgreSQL的Commitfest进行了类比,指出在技术提案的提交、讨论和完善方面存在相似性。这次参与代表了PostgreSQL社区在塑造未来SQL标准方面的involvement,使PostgreSQL开发者能够在国际标准层面对SQL语言的演进做出贡献并施加影响。 https://www.enterprisedb.com/blog/shaping-sql-sao-paulo PostgreSQL的jsonb类型提供了灵活性,但缺乏对数据结构的内置验证。在SQL或PL/pgSQL中编写验证逻辑对于非简单情况会变得复杂。一个名为json_schema_validate的新PostgreSQL扩展通过在数据库内直接针对JSON Schema规范验证JSON和JSONB数据来解决这个问题。该扩展提供了比使用带有自定义验证逻辑的CHECK约束更清洁的解决方案,帮助防止坏数据进入jsonb列,同时保持该类型固有的灵活性。 https://www.enterprisedb.com/blog/validating-shape-your-json-... Nathan Bossart回应了KAZAR Ayoub针对COPY TO文本/CSV解析SIMD优化补丁的性能测试结果。测试显示在处理大量短列时出现显著性能回归:TEXT格式17%回归,CSV格式3%回归,这种情况在100列、500列和1000列配置中都存在。这些回归似乎源于处理需要转义字符的列时重复调用strlen(),正如Andres Freund之前警告的那样。Bossart强烈质疑具有17%回归的补丁是否可以被接受提交,并建议在需要转码时可能跳过SIMD路径作为可能的缓解策略。 https://www.postgresql.org/message-id/abBuKalOno33MQFw@nathan Andres Freund在重新基于新版本后审查了Heikki Linnakangas的中断处理补丁。这些补丁引入了"注意力机制"并重新组织了中断相关代码。Freund提出了几个关注点:interrupts.h和standard_interrupts.h之间的分离不明确、辅助进程中的潜在崩溃(堆栈跟踪显示断言失败)、CHECK_FOR_INTERRUPTS操作周围缺少内存屏障,以及关键路径中额外内存间接引用的性能影响。他质疑中断检查代码中重复内存读取是否会影响性能,并建议将这个大型提交拆分成更小的部分。其他小问题包括匿名结构体类型影响调试器可用性以及平台特定的原子操作处理。尽管没有测试失败,但辅助进程中的崩溃表明存在需要调查的潜在错误。 https://www.postgresql.org/message-id/6dhkabcmuqvitikyxc56avf... 讨论的焦点是修复WAL记录中未初始化的填充,特别是xl_running_xacts。Andres Freund最初建议针对这个特定情况没有意义,认为PostgreSQL历史上一直接受WAL插入中的随机填充。他提议要么全面修复所有WAL记录,要么维持当前使用valgrind抑制的方法。Alexander Kuzmenkov反驳说填充包含服务器内存内容,引发类似Heartbleed的潜在安全担忧。他强调未初始化的WAL记录阻碍了MemorySanitizer的采用,由于架构差异,它无法使用与Valgrind相同的抑制机制。Heikki Linnakangas表示支持初始化所有WAL记录填充,认为这已经是标准做法。辩论突显了全面修复与针对内存安全工具的目标解决方案之间的紧张关系。 https://www.postgresql.org/message-id/b607e42e-34ff-414a-b727... Peter Geoghegan发布了index prefetching补丁的v12版本,解决了Andres Freund的大部分反馈。主要改进包括让表和索引AM直接控制批处理布局同时维护批处理回收,通过集成Andres的补丁消除了read stream yielding,将提交拆分为更易管理的块,以及修复了5%的bitmap索引扫描回归。补丁现在允许表AM控制可见性信息的大小/布局,并为索引AM提供导航的不透明状态。然而,Peter尚未解决关于表AM释放索引缓冲区pin的担忧,Andres认为这是模块化违规。Andres澄清他的担忧不是何时释放pin,而是heapam不应该知道要释放哪些特定缓冲区。他建议使用index_batchscan_release()回调而不是直接的ReleaseBuffer()调用,让索引AM在资源管理方面有灵活性,支持多个缓冲区pin或替代互锁机制。 https://www.postgresql.org/message-id/CAH2-Wz=g=JTSyDB4UtB5su... Lukas Fittl回应了John Naylor对实现基于RDTSC计时的EXPLAIN ANALYZE补丁的代码审查。讨论集中在CPUID检测改进上,Naylor质疑HAVE__CPUID与HAVE__CPUIDEX宏的处理方式并建议更好的代码组织。Fittl同意几个建议,包括为保持一致性使用十六进制值、创建辅助函数以提高可读性,以及可能引入CPUIDResult结构体来替换数组索引的命名寄存器字段。发现一个关键技术问题:移动leaf 7 CPUID调用可能通过覆盖leaf 1结果而破坏OSXSAVE支持,解决方案涉及使用单独的结果数组或布尔变量。Fittl承诺重构补丁系列,添加CPUID改进和代码清理的预备补丁,以提高可读性并减少主补丁的占用空间。 https://www.postgresql.org/message-id/CAP53Pkw7FzFoE9cyGN1eDK... 讨论集中在实现publication EXCEPT tables功能的补丁代码审查上。Amit Kapila建议通过在AlterPublicationStmt中添加for_all_tables布尔变量(类似于CreatePublicationStmt)来简化验证检查,而不是使用间接检查。他还建议将超级用户检查提前。Shveta malik同意第一个建议,但认为当前的检查顺序通过首先验证发布兼容性再检查权限提供了更好的错误消息。Amit反驳说超级用户检查应该优先,并提供更清晰的错误消息。Vignesh C在v61补丁中处理了这些意见。Masahiko Sawada对新语法表示担忧,质疑为什么排除表使用"TABLE (a, b, c)"格式而包含表使用"TABLE a, TABLE b, TABLE c",认为这种不一致可能会让用户困惑,并质疑"EXCEPT"后的"TABLE"是否多余。 https://www.postgresql.org/message-id/CAA4eK1KTW78BMmrHXy2c_U... AI网络初创公司Eridu以2亿美元的大额A轮融资从隐身模式中浮现。该公司的联合创始人Drew Perkins自互联网早期就开始开发网络技术,为这家企业带来了丰富的经验和可信度,这使其脱颖而出。与许多由年轻企业家创立的AI初创公司不同,Eridu受益于Perkins在网络创新方面的丰富背景。这轮大额融资反映了投资者对该公司AI网络解决方案方法的信心。该初创公司以如此巨额资本浮现,表明其旨在解决AI基础设施和大规模网络的重大挑战。 https://techcrunch.com/2026/03/10/ai-network-startup-eridu-em... Meta收购了Moltbook,这是一个因虚假帖子而走红的AI智能体社交网络。据Meta称,Moltbook通过"始终在线目录连接智能体"的方法代表了社交网络领域的新颖创新。此次收购似乎是Meta在其社交媒体生态系统中整合AI智能体的更广泛战略的一部分。虽然交易的具体财务细节未披露,但此举表明Meta继续投资于AI驱动的社交技术和基于智能体的平台,这些平台可以促进用户和AI系统之间的自动化交互。 https://techcrunch.com/2026/03/10/meta-acquired-moltbook-the-... Thinking Machines Lab与Nvidia签署了一项涉及至少一千兆瓦计算能力的大规模多年计算协议。该协议代表了AI行业中最大的计算合作伙伴关系之一,突显了对高性能计算资源日益增长的需求。除了提供计算能力外,该协议还包括Nvidia的战略投资,表明这家芯片制造商对Thinking Machines Lab潜力和商业模式的信心。千兆瓦级别的计算能力展示了先进AI开发和部署所需的巨大基础设施要求。这一合作伙伴关系使两家公司都能够利用不断扩张的AI市场的计算需求。 https://techcrunch.com/2026/03/10/thinking-machines-lab-inks-... Google Gemini 3.1 Flash-Lite 现已在 Databricks 上可用,使其成为除 Vertex AI 之外首批提供此新模型的平台之一。用户可以在企业数据上构建和扩展 GenAI 应用程序,同时利用生产环境所需的治理和运营工具。Databricks 向 Google Gemini 团队表示祝贺,并期待看到用户将如何使用这一新模型进行… https://www.linkedin.com/posts/databricks_access-to-google-ge... 作者认为 5 月 19 日(周二)是 pgconf.dev 2026 大会最佳的一天。与通常以演讲为主的会议日不同,这一天强调社区参与,通过圆桌会议、工作组和讨论进行。主要活动包括新成员欢迎早餐会、关于认可社区贡献的讨论、与资深 PostgreSQL 贡献者一起评估补丁想法的小组讨论,以及回顾 PostgreSQL 三十年社区历史的会议。其他活动还包括扩展… https://www.linkedin.com/posts/pgconf-dev_pgconfdev2026-postg... 在伦敦科技展上,CYBERTEC设计主管Scarlett Riggs探索了Louis Theroux纪录片风格与生成式AI未来的交汇点。在她的博客文章中,她讨论了CYBERTEC如何在坚持PostgreSQL数字独立核心使命的同时,利用AI进行问题解决。这次演讲标志着公司一改以往专注于数据库日志和查询优化的传统,转而探讨AI在开源技术和数字独立方面不断演变… https://www.linkedin.com/posts/cybertec-postgresql_postgres-g...
⚙️ PostgreSQL技术文章
🧩 从 4 个数据库到 1 个:Plexigrid 如何替换 InfluxDB 并通过 Tiger Data 实现 350 倍的查询加速

🧩 回顾 Techshow London 2026

🧩 Shaping SQL in 圣保罗

🧩 验证你的JSON数据的形状

📨 PostgreSQL Hacker 电子邮件讨论精选
🧩 SIMD加速COPY TO文本/CSV解析
🧩 中断与信号
🧩 修复未初始化的 xl_running_xacts 填充
🧩 索引预取
🧩 使用 rdtsc 减少 EXPLAIN ANALYZE 的时间开销?
🧩 在发布中跳过架构更改
🗞️ 行业新闻
🧩 network startup Eridu从隐身模式中出现,获得巨额2亿美元A轮融资

🧩 Meta 收购了因虚假帖子而走红的 AI 代理社交网络 Moltbook

🧩 Thinking Machines Lab 与 Nvidia 签署大规模计算协议

🌐 社交媒体动态
🧩 访问Google Gemini3.1Flash-Lite现已在 Databricks上开放!

🧩 热议:周二是pgconf.dev2026最佳的一天

🧩 通常,我们沉浸在数据库日志和查询优化中。

设想如下数据库场景:两张表通过外键关联,外键字段为 NOT NULL,且约束有效并被严格执行。在执行两表 JOIN 查询时,却返回空结果。该场景看似不可能出现,但实际生产环境中出现了一个未被预期的边界情况。 假设以车辆所有权管理场景为例,包含两张表,分别是车主表与车辆表: 初始化数据: 当前状态: 标准流程如下: 示例: 加锁可避免并发修改,校验完成后执行更新: 当前车辆所有权变更流程如下: 在实际的车管系统中,此类请求通常会被高并发处理。下面基于相同流程,分析两个并发会话同时尝试更新同一车辆所有权时的执行情况: 第一会话加锁并更新车辆车主,第二会话阻塞等待锁释放,锁释放后查询无结果。车辆与车主数据均存在,内关联查询却无返回值。 替换为左外关联查询可观察到异常数据: 查询返回车辆最新数据,但车主表字段为空。车辆表存在非空约束与外键约束,理论上内关联查询不会出现无结果场景。 在 Read Committed 隔离级别下,查询只能基于“语句开始时已提交的数据”,但在遇到行锁时,会等待并在锁释放后基于最新行版本重新评估条件。 本例中,第一个会话将 car.owner 从 1 更新为 3 并提交;第二个会话原本读取到 car=1、owner=1,但因锁等待,锁释放后重新校验时,发现 owner 已变为 3,而原匹配条件(owner=1)失效,因此不会重新关联 owner=3,而是直接丢弃该结果(或返回 NULL)。 关键在于:查询并非整体重跑,而是执行过程中被中断并局部重评估(EvalPlanQual),从而导致 car 表为最新值,而 join 表数据缺失。 结论:在 Read Committed 下,涉及 JOIN 且伴随外键更新的并发场景,可能出现“部分结果”或“不一致结果”。 在明确问题根因后,可以对不同方案进行对比分析: 同时锁定 car 与 owner 无法保证正确性。第二个会话获得锁时,car.owner_id 已变化,JOIN 条件失效,本质是锁定了“旧 owner”。 使用 Repeatable Read / Serializable 可避免不一致,但会引入序列化冲突错误,影响并发能力。 先锁 car,再查 owner,保证读取最新 owner_id;逻辑简单,但需要两次数据库往返。 核心思路:将加锁前移到 JOIN 之前,避免读取过期关联关系,同时避免额外往返。 执行计划显示:原查询在 JOIN 后才通过 LockRows 加锁。 通过 CTE,将锁提前到数据源阶段: 效果:先锁 car,再 JOIN,读取到最新 owner。 无法使用 WITH 时,可用等价子查询实现: 结论:通过子查询/CTE 前移锁获取时机,是兼顾一致性与性能的最优解。 该问题并非理论推演,而是在生产环境中真实发生。触发原因也并非高并发场景,而是用户在 UI 中快速重复点击按钮,短时间内产生了多次相同请求,从而形成并发条件。由于系统中已设置断言机制,未对业务和用户产生实际影响。 在定位问题模式后,开始评估预防手段。此类问题难以通过常规规则检测:不仅依赖具体 SQL 结构,还与执行上下文和并发时序密切相关,对代码理解要求较高。 通过结合大模型辅助分析,对潜在风险点进行了系统性排查与修复。最终统一采用更稳妥的策略:避免在加锁场景中使用 JOIN,改为拆分查询。虽然增加了一次数据库交互,但能够确保结果一致性,属于可接受的权衡。问题场景
db=# CREATE TABLE owner (
id int PRIMARY KEY,
name text NOT NULL
);
CREATE TABLE
db=# CREATE TABLE car (
id int PRIMARY KEY,
owner_id int NOT NULL,
CONSTRAINT car_owner_id_fk FOREIGN KEY (owner_id) REFERENCES owner(id)
);
CREATE TABLEdb=# INSERT INTO owner (id, name) VALUES
(1, 'haki'),
(2, 'jerry'),
(3, 'george')
RETURNS *;
id │ name
────┼───────
1 │ haki
2 │ jerry
3 | george
(3 rows)
INSERT 0 2
db=# INSERT INTO car (id, owner_id) VALUES(1, 1) RETURNS *;
id │ owner_id
────┼──────────
1 │ 1
(1 row)
INSERT 0 1所有权变更流程
db=# BEGIN;
BEGIN
db=*# SELECT *
FROM car JOIN owner ON car.owner_id = owner.id
WHERE car.id = 1
FOR NO KEY UPDATE OF car;
─[ RECORD 1 ]─┬────────
id │ 1
owner_id │ 1
id │ 1
name │ hakidb=*# UPDATE car SET owner_id = 2 WHERE id = 1 RETURNING *;
─[ RECORD 1 ]─┬────────
id │ 1
owner_id │ 2
db=*# COMMIT;
COMMIT并发场景下的权属变更
-- First session
db=# BEGIN;
BEGIN
db=*# SELECT * FROM car
JOIN owner ON car.owner_id = owner.id
WHERE car.id = 1 FOR NO KEY UPDATE OF car;
─[ RECORD 1 ]─┬────────
id │ 1
owner_id │ 2
id │ 2
name │ jerry
db=*# UPDATE car SET owner_id = 3
WHERE id = 1 RETURNING *;
─[ RECORD 1 ]─┬────────
id │ 1
owner_id │ 3
db=*# COMMIT;
COMMIT-- Second session
db=# BEGIN;
BEGIN;
db=*# SELECT * FROM car
JOIN owner ON car.owner_id = owner.id
WHERE car.id = 1 FOR NO KEY UPDATE OF car;
-- Session is blocked
--
--
--
--
--
--
--
--
--
--
--
--
-- Lock is released by first session
(0 rows)db=# BEGIN;
BEGIN
db=*# SELECT * FROM car
LEFT JOIN owner ON car.owner_id = owner.id
WHERE car.id = 1 FOR NO KEY UPDATE OF car;
─[ RECORD 1 ]─┬────────
id │ 1
owner_id │ 2
id │ 2
name │ jerry
db=*# UPDATE car SET owner_id = 3
WHERE id = 1 RETURNS *;
─[ RECORD 1 ]─┬────────
id │ 1
owner_id │ 3
db=*# COMMIT;
COMMITdb=# BEGIN;
BEGIN
db=*# SELECT * FROM car
LEFT JOIN owner ON car.owner_id = owner.id
WHERE car.id = 1 FOR NO KEY UPDATE OF car;
-- Session is blocked
--
--
--
--
--
--
--
--
--
--
--
--
-- Lock is released by first session
─[ RECORD 1 ]─┬────────
id │ 1
owner_id │ 3
id │ ¤
name │ ¤并发问题根源
─[ RECORD 1 ]─┬────────
id │ 1 -- car.id
owner_id │ 3 -- car.owner_id
id │ ¤ -- owner.id
name │ ¤ -- owner.name解决方案
锁定关联行(无效方案)
db=# BEGIN;
BEGIN;
db=*# SELECT * FROM car
JOIN owner ON car.owner_id = owner.id
WHERE car.id = 1 FOR NO KEY UPDATE OF car, owner;
─[ RECORD 1 ]─┬────────
id │ 1
owner_id │ 2
id │ 2
name │ jerry
db=*# UPDATE car SET owner_id = 3
WHERE id = 1 RETURNING *;
─[ RECORD 1 ]─┬────────
id │ 1
owner_id │ 3
db=*# COMMIT;
COMMITdb=# BEGIN;
BEGIN;
db=*# SELECT * FROM car
JOIN owner ON car.owner_id = owner.id
WHERE car.id = 1 FOR NO KEY UPDATE OF car, owner;
-- Session is locked
--
--
--
--
--
--
--
--
--
--
--
--
-- Lock is released by first session
(0 rows)db=# BEGIN;
BEGIN
db=*# SELECT * FROM car
LEFT JOIN owner ON car.owner_id = owner.id
WHERE car.id = 1 FOR NO KEY UPDATE OF car, owner;
ERROR: FOR NO KEY UPDATE cannot be applied to the nullable side of an outer join提高隔离级别(可行但有代价)
db=# BEGIN ISOLATION LEVEL REPEATABLE READ;
BEGIN
db=*# SELECT * FROM car
JOIN owner ON car.owner_id = owner.id
WHERE car.id = 1 FOR NO KEY UPDATE OF car;
─[ RECORD 1 ]─┬────────
id │ 1
owner_id │ 2
id │ 2
name │ jerry
db=*# UPDATE car SET owner_id = 3
WHERE id = 1 RETURNING *;
─[ RECORD 1 ]─┬────────
id │ 1
owner_id │ 3
db=*# COMMIT;
COMMITdb=# BEGIN ISOLATION LEVEL REPEATABLE READ;
BEGIN
db=*# SELECT * FROM car
JOIN owner ON car.owner_id = owner.id
WHERE car.id = 1 FOR NO KEY UPDATE OF car;
-- Session is blocked
--
--
--
--
--
--
--
--
--
--
--
--
-- Lock is released by first session
ERROR: could not serialize access due to concurrent update拆分查询(简单可靠)
db=# BEGIN;
BEGIN
db=*# SELECT * FROM car WHERE car.id = 1
FOR NO KEY UPDATE;
─[ RECORD 1 ]─┬────────
id │ 1
owner_id │ 2
db=*# SELECT * FROM owner WHERE id = 2;
─[ RECORD 1 ]─┬────────
id │ 2
name │ jerry
db=*# UPDATE car SET owner_id = 3 WHERE id = 1
RETURNING *;
─[ RECORD 1 ]─┬────────
id │ 1
owner_id │ 3
db=*# COMMIT;
COMMITdb=# BEGIN;
BEGIN
db=*# SELECT * FROM car WHERE car.id = 1
FOR NO KEY UPDATE;
-- Session is blocked
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
-- Lock is released by first session
─[ RECORD 1 ]─┬────────
id │ 1
owner_id │ 3
db=*# SELECT * FROM owner WHERE id = 3;
─[ RECORD 1 ]─┬────────
id │ 3
name │ george子查询 / CTE(推荐方案)
db=# BEGIN;
BEGIN
db=*# EXPLAIN SELECT * FROM car
JOIN owner ON car.owner_id = owner.id
WHERE car.id = 1 FOR NO KEY UPDATE OF car
QUERY PLAN
────────────────────────────────────────────────────────────────────────────────────
LockRows (cost=0.31..16.37 rows=1 width=56)
-> Nested Loop (cost=0.31..16.36 rows=1 width=56)
-> Index Scan using car_pkey on car (cost=0.15..8.17 rows=1 width=14)
Index Cond: (id = 1)
-> Index Scan using owner_pkey on owner (cost=0.15..8.17 rows=1 width=42)
Index Cond: (id = car.owner_id)db=# BEGIN;
BEGIN;
db=*# EXPLAIN
WITH c AS (
SELECT * FROM car WHERE id = 1
FOR NO KEY UPDATE
)
SELECT * FROM c
JOIN owner ON c.owner_id = owner.id;
QUERY PLAN
───────────────────────────────────────────────────────────────────────────────────
Nested Loop (cost=8.33..16.39 rows=1 width=44)
CTE c
-> LockRows (cost=0.15..8.18 rows=1 width=14)
-> Index Scan using car_pkey on car (cost=0.15..8.17 rows=1 width=14)
Index Cond: (id = 1)
-> CTE Scan on c (cost=0.00..0.02 rows=1 width=8)
-> Index Scan using owner_pkey on owner (cost=0.15..8.17 rows=1 width=36)
Index Cond: (id = c.owner_id)db=# BEGIN;
BEGIN
db=*# WITH c AS (
SELECT * FROM car WHERE id = 1
FOR NO KEY UPDATE
)
SELECT * FROM c
JOIN owner ON c.owner_id = owner.id;
─[ RECORD 1 ]─┬────────
id │ 1
owner_id │ 1
id │ 1
name │ haki
db=*# UPDATE car SET owner_id = 2 WHERE id = 1;
UPDATE 1
db=*# COMMIT;
COMMITdb=# BEGIN;
BEGIN
db=*# WITH c AS (
SELECT * FROM car WHERE id = 1
FOR NO KEY UPDATE
)
SELECT * FROM c
JOIN owner ON c.owner_id = owner.id;
-- Session is blocked
--
--
--
--
--
--
--
--
--
--
-- Lock is released by first session
─[ RECORD 1 ]─┬────────
id │ 1
owner_id │ 2
id │ 2
name │ jerrydb=# BEGIN;
BEGIN;
db=*# EXPLAIN
SELECT * FROM (
SELECT * FROM car
WHERE id = 1 FOR NO KEY UPDATE
) c
JOIN owner ON c.owner_id = owner.id;
QUERY PLAN
───────────────────────────────────────────────────────────────────────────────────────
Nested Loop (cost=0.31..16.38 rows=1 width=44)
-> Subquery Scan on c (cost=0.15..8.19 rows=1 width=8)
-> LockRows (cost=0.15..8.18 rows=1 width=14)
-> Index Scan using car_pkey on car (cost=0.15..8.17 rows=1 width=14)
Index Cond: (id = 1)
-> Index Scan using owner_pkey on owner (cost=0.15..8.17 rows=1 width=36)
Index Cond: (id = c.owner_id)预防措施
安装 OpenClaw 后执行 依次执行以下两条命令,根据输出结果直接跳转对应修复步骤: 如果 macOS Catalina 起默认 shell 为 zsh,配置文件为 若仍找不到命令,执行 bash 的配置文件为 Linux 系统提示:部分 Linux 发行版的 Windows 的 PATH 可通过两种方式修改: WSL2 内的环境是独立的 Linux 系统,与 Windows 本机 PATH 互不影响。在 WSL2 中安装的 OpenClaw 只能在 WSL2 终端使用,处理方式与 Linux 相同: 若在 WSL2 中执行 使用 nvm 管理 Node.js 时,PATH 由 nvm 自动管理,但有两种情况会导致 nvm 关键路径:全局包安装在 若执行的是 检查方法: 解决方案:不要用 sudo 安装,改用当前用户身份重装: 若 Q:每次打开新终端都要重新执行 Q: Q:Windows 上添加了 PATH 但 VS Code 终端还是找不到命令? Q:PATH 里已经有 npm 的路径,但还是找不到 openclaw? OpenClaw 安装后 延伸资源: 本文基于 OpenClaw 2026 年 3 月版本,nvm v0.40.4,npm v10.x。openclaw 报 command not found,原因几乎都是 npm 全局 bin 目录不在系统 PATH 中。本文覆盖 macOS(zsh/bash)、Linux、Windows、WSL2 四个平台,以及 nvm 用户和 sudo 安装两类特殊场景,含完整命令,5 分钟内可定位并修复。
快速诊断:30 秒确认根因
# 第一步:查看 npm 全局包安装路径
npm prefix -g
# 示例输出:/Users/你的用户名/.nvm/versions/node/v22.3.0
# 或 /usr/local
# 或 C:\Users\你的用户名\AppData\Roaming\npm
# 第二步:检查该路径是否在 PATH 中
echo $PATH
# 在输出中搜索第一步的路径,若不存在则需要添加npm prefix -g 本身报错:Node.js 未安装或版本低于 22,先参考 OpenClaw Node.js 版本升级指南解决版本问题,再回来处理 PATH。场景一:macOS(zsh,最常见)
~/.zshrc。# 第一步:获取 npm 全局 bin 路径
npm prefix -g
# 假设输出:/Users/yourname/.nvm/versions/node/v22.3.0
# 第二步:写入 ~/.zshrc
echo 'export PATH="$(npm prefix -g)/bin:$PATH"' >> ~/.zshrc
# 第三步:立即生效(无需重启终端)
source ~/.zshrc
# 第四步:验证
openclaw --versionrehash 刷新 zsh 的命令缓存:rehash
openclaw --version场景二:macOS(bash)/ Linux
~/.bashrc(Linux)或 ~/.bash_profile(macOS 旧版)。# 写入配置文件
echo 'export PATH="$(npm prefix -g)/bin:$PATH"' >> ~/.bashrc
# 立即生效
source ~/.bashrc
# 验证
openclaw --version~/.bashrc 在非交互式登录 shell 中不会自动加载,若修改后仍无效,同步写入 ~/.profile:echo 'export PATH="$(npm prefix -g)/bin:$PATH"' >> ~/.profile
source ~/.profile场景三:Windows(PowerShell)
方法 A:图形界面(持久生效)
Win + S 搜索"环境变量",打开"编辑系统环境变量"Path → 点击"编辑"npm prefix -g 输出的路径(通常为 C:\Users\你的用户名\AppData\Roaming\npm)方法 B:PowerShell 命令(当前会话立即生效 + 持久化)
# 获取 npm 全局路径
$npmBin = npm prefix -g
# 添加到当前会话 PATH
$env:Path += ";$npmBin"
# 永久写入用户级别 PATH
[Environment]::SetEnvironmentVariable(
"Path",
"$([Environment]::GetEnvironmentVariable('Path', 'User'));$npmBin",
"User"
)
# 验证
openclaw --version注意:修改系统 PATH 后必须重新打开终端窗口才能生效,包括 VS Code 内置终端。
场景四:WSL2(Linux 子系统)
echo 'export PATH="$(npm prefix -g)/bin:$PATH"' >> ~/.bashrc
source ~/.bashrc
openclaw --versionnpm prefix -g 输出的是 Windows 路径(如 /mnt/c/...),说明当前用的是 Windows 安装的 Node.js,而非 WSL2 内的 Node.js。需在 WSL2 内单独安装 Node.js 22:curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt-get install -y nodejs
npm install -g openclaw@latest场景五:nvm 用户(特殊情况)
command not found:情况 A:nvm 初始化代码未写入 shell 配置文件
# 检查 ~/.zshrc 或 ~/.bashrc 是否包含以下内容
grep -n "nvm" ~/.zshrc # 或 ~/.bashrc
# 若没有,手动写入
cat >> ~/.zshrc << 'EOF'
export NVM_DIR="$HOME/.nvm"
[ -s "$NVM_DIR/nvm.sh" ] && \. "$NVM_DIR/nvm.sh"
EOF
source ~/.zshrc情况 B:nvm 已加载但没有设置默认版本
# 查看当前默认版本
nvm alias default
# 若输出为 N/A 或旧版本,重新设置
nvm alias default 22
nvm use 22
# 重装 openclaw(当前版本下重装)
npm install -g openclaw@latest
# 验证
openclaw --version情况 C:nvm 下 OpenClaw 装在了旧版本的 Node 下
# 切换到 Node 22
nvm use 22
# 确认当前 node 版本
node -v # 应为 v22.x.x
# 在当前版本下重装
npm install -g openclaw@latest
openclaw --version$NVM_DIR/versions/node/v22.x.x/bin/,每个 Node.js 版本各有独立的全局包目录。在 v18 下安装的 OpenClaw 切换到 v22 后不可见,需重装。场景六:用 sudo 安装导致路径不一致
sudo npm install -g openclaw@latest(Linux/macOS),全局包会安装到 root 用户的 npm prefix 路径,而普通用户的 PATH 中没有这个路径。# 查看 root 的 npm prefix(有 sudo)
sudo npm prefix -g
# 示例:/usr/local
# 查看当前用户的 npm prefix(无 sudo)
npm prefix -g
# 示例:/home/yourname/.nvm/...(两者不同,说明装错了)# 先卸载 root 下的版本
sudo npm uninstall -g openclaw
# 用普通用户重装
npm install -g openclaw@latest验证修复成功
# 验证命令可执行
openclaw --version # 输出版本号即成功
# 运行完整诊断
openclaw doctoropenclaw doctor 正常输出:✔ Node.js version: v22.x.x (ok)
✔ npm global bin in PATH
✔ Gateway daemon: runningnpm global bin in PATH 一行显示 ✘,说明 PATH 修改还未生效,重新打开终端窗口后再试。
快速排查索引
情况 跳转 macOS zsh 终端 场景一 macOS bash / Linux 场景二 Windows PowerShell 场景三 WSL2 子系统 场景四 使用 nvm 管理 Node 场景五 之前用了 sudo 安装 场景六 常见问题
export PATH=... 才能用?
说明修改写入的是临时会话而非配置文件。确认修改已写入 ~/.zshrc(zsh)或 ~/.bashrc(bash),而不是直接在终端执行了 export 命令。执行 grep openclaw ~/.zshrc 确认内容存在,然后重开终端验证。npm prefix -g 输出了路径,但那个目录下根本没有 openclaw 文件?
OpenClaw 安装到了不同 Node.js 版本的目录下。检查是否使用 nvm 且切换过版本(见场景五),在正确的版本下重装:npm install -g openclaw@latest。
VS Code 终端在启动时读取 PATH,修改系统 PATH 后需要完全关闭并重新启动 VS Code,而不只是关闭终端面板。
执行 ls $(npm prefix -g)/bin/ | grep openclaw 确认可执行文件是否存在。若不存在,说明安装失败或安装在了其他路径,重新执行 npm install -g openclaw@latest。总结
command not found 的根本原因是 npm 全局 bin 路径未加入 PATH。修复步骤统一为:npm prefix -g 找路径 → 写入 shell 配置文件 → source 生效 → openclaw --version 验证。nvm 用户额外需确认 shell 初始化代码存在、OpenClaw 安装在当前激活的 Node.js 版本下。
时间推移至2026年,对于绝大多数中国中大型企业而言,客户关系管理(CRM)系统的基础设施建设已经迈过了一个重要分水岭。伴随着信创政策的全面落地与人工智能技术的普惠化,大部分行业头部企业已经基本完成了CRM系统的国产化替换,并在前端部署了丰富的AI辅助功能。 然而,基础设施的完善并没有理所当然地带来业绩的狂飙。麦肯锡(McKinsey)最新发布的企业数字化效能调研报告揭示了一个略显残酷的现实:在过去三年内完成CRM重构或AI升级的中大型企业中,仅有30%的企业通过CRM实现了预期的营收显著增长。剩余70%的企业,陷入了“系统越建越重,业绩却原地踏步”的泥沼。 这一数据揭示了当前大中型企业面临的核心冲突:企业的挑战已不再是缺乏先进的数字化工具,而是滞后的运营体系无法驾驭先进的AI生产力。当销售人员可以用AI一键生成精美的客户跟进邮件时,如果后端的交付团队依然依靠Excel流转订单,这种局部的效率提升对整体营收毫无意义。 本文的主旨在于,指导中大型企业在2026年的新竞争格局下,跳出单纯关注CRM软件功能的技术视角,转向关注营收运营(RevOps)体系的构建。只有真正打通从线索到现金(L2C)的每一个业务堵点,实现数据资产化、应用预测性AI、深化客户全生命周期管理(CLM),并辅以坚决的组织变革,企业才能真正释放数字化的巨大潜能。 进入2026年,企业在数字化转型中遭遇的新危机,已经不再是技术层面的数据隔离,各大系统通过API或中台技术基本已经实现了底层数据的互通。真正致命的,是业务层面的流程割裂。 传统模式局限在于部门墙导致的效能损耗。在过去很长一段时间里,企业对CRM的认知停留在部门级工具。 市场部使用营销自动化模块,只管清洗和分发线索;销售部使用核心的客户与商机模块,只管打单和报销;客服部使用工单模块,只管接听投诉电话。各部门“各司其职”,在CRM中各自运转,缺乏业务流转的连续性。这种模式下,客户体验是割裂的,线索在跨部门交接时存在巨大的损耗。 2026年,大企业要建立以客户为中心的统一营收团队。具体来讲,在新的商业语境下,CRM不仅是销售团队的打单工具,更是连接市场、销售、客户成功(售后服务)的协同中枢。企业需要建立一个统一的营收团队。在这个体系中,市场、销售和服务的边界被打破,所有直接面向客户、影响收入的动作都被纳入一个统一的运营框架中。 随之而来的是考核指标的根本性转变,从关注MQL转向NRR和CLTV。过去,市场部背负的KPI是产生多少条市场确认线索(MQL),这导致市场部为了凑数量而大肆采买低质量线索;销售部为了当期提成,可能向客户过度承诺。 在2026年的RevOps体系下,企业的核心考核指标全面转向净营收留存率(NRR)和客户终身价值(CLTV)。这意味着,把产品卖出去只是开始,让客户持续使用、成功续费并产生增购,才是整个营收团队共同的目标。 尽管系统层面打通了,但由于缺乏统一的运营指挥,业务流程中依然存在大量隐形的流程断点。 后果: 这些断点直接导致企业的获客成本(CAC)飙升,因为企业总是需要花费高昂的代价去获取新客户来填补老客户流失的窟窿;同时,由于服务体验不佳,客户流失率居高不下,企业陷入了“漏水桶”的增长困局。 RevOps(营收运营)并非一种新技术,而是一种重构业务流的管理方法论。它的核心在于通过整合人员、流程和技术,消除业务摩擦,驱动可预测的收入增长。在CRM中落地RevOps,需要把握以下三大战略。 现状: 许多大企业的CRM系统经过多年的运行,内部堆积了海量的“数字垃圾”——离职人员的未跟进线索、信息缺失的无效联系人、停滞数年未关闭的僵尸商机。数据质量的低下,直接导致了数据分析结果的失真,让管理层对CRM系统失去信任。 深化路径: 价值: 这种融合实现了从单纯的“业务记录工具”向“业务洞察引擎”的转变。销售人员在联系客户前,已经拥有了360度的全景视图,沟通不再是盲目的寒暄,而是直击痛点的顾问式营销。 区别点: 当下最火热的AI多为生成性AI(Generative AI),比如帮助销售写一封漂亮的拜访邮件,或自动生成会议纪要。但在管理层面,更具颠覆性的是预测性AI(Predictive AI)。生成性AI侧重于表达与创作,而预测性AI侧重于计算、推演与概率判断。 应用场景: 标杆案例:某头部新能源车企的应用 一家国内领先的新能源车企,通过将车主APP、车载IoT设备数据与后台CRM打通,利用预测性AI分析车主的动态行为。当AI发现某位早期购买紧凑型轿车的车主,近期在APP上频繁浏览SUV车型,且车载系统数据显示其后排儿童安全座椅的接口使用频率急剧上升,系统会自动预测该车主有强烈的“家庭用车升级”意向。这一线索会带着高达90%的置信度评分直接推送给对应销售跟进,使得该类线索的转化和库存周转率提升了20%以上。 变革: 在RevOps体系下,必须推动服务部门从传统的“成本中心”向“价值创造中心”转型。售后服务不再是擦屁股的工作,而是客户全生命周期(CLM)中创造复购和口碑的核心环节。 落地动作: 再先进的系统和理念,最终都要靠人来落地。当CRM系统从单一的销售工具升级为跨部门的RevOps中枢时,传统的树状垂直管理架构将成为最大的阻碍。工具升级后,组织架构必须随之重塑。 在传统的企业架构中,市场总监(CMO)、销售总监(CSO)和客服总监(CCO)各自向CEO汇报,这就导致在CRM系统的建设和规则制定上,各方往往站在本位主义的立场上争夺资源。 破局之道: 领先的大型企业正在增设CRO(首席营收官)这一高管职位,或者成立由一把手牵头的RevOps委员会。其核心职责就是打破行政壁垒,统筹L2C全流程的规则制定权。由CRO来决定线索的流转标准、商机的准入条件、服务移交的规范。只有这样,才能彻底避免“销售部提出的流程优化需求,IT部评估后无法响应,而市场部的数据清洗需求又无法落地”的内部无休止内耗。 从“系统管理员”转变为“业务赋能者”。 过去,企业的IT部门在CRM项目中往往扮演着“外包验收员”或“系统管理员”的角色,每天疲于奔命地处理各个业务部门提来的加字段、改流程等琐碎工单,业务部门则抱怨IT响应太慢,懂技术的不懂业务。 进入2026年,现代主流的CRM系统(如纷享销客等)都已经具备了极其强大的PaaS(平台即服务)底层能力和低代码/无代码引擎。IT部门的角色应当从“写代码的人”转变为“平台规则的维护者”。 鼓励“公民开发”: IT部门只需负责底层数据的安全性、系统接口的稳定性以及主数据架构的规范。而对于前端具体的业务逻辑——例如大区总监想要搭建一个针对区域经销商的特批审批流,或者市场部想要配置一个特定活动的转化漏斗看板——应通过系统赋能,交由懂业务的“业务BP”或销售运营人员自己通过拖拉拽的方式实现。这种模式极大缩短了业务创新的实现周期,让组织变得空前敏捷。 在当前的宏观经济与地缘政治背景下,中大型企业面临着两大不可逆转的趋势:内部的信创国产化替代与外部的全球化出海。这不仅是IT系统的更迭,更是对企业运营体系的一次巨大考验。 核心挑战: 到了今天,将国际化软件(如Salesforce、Oracle等)替换为国产CRM,最大的阻力往往已经不是数据迁移或底层架构的技术难度,而是用户习惯的重塑。在一线业务部门,习惯了外企管理思维和外资软件交互逻辑的团队,极其容易对新上线的国产系统产生抵触心理,导致系统活跃度断崖式下跌。 运营对策: 核心挑战: 随着中大型企业加速出海,往往陷入一种两难境地:总部管理层需要一个能够看清全球业务大盘、统一标准的全球数据视图;而海外分公司则面临着截然不同的本地市场环境、文化习惯甚至时差,他们迫切需要灵活、本地化的作战空间。 运营对策: 在探讨了2026年大中型企业的CRM深化战略后,企业面临的下一个现实问题是如何选择承载这些战略的底座。在国内市场,纷享销客凭借其智能型CRM新定位与强大的底层平台能力,已经成为众多大型企业深化RevOps体系的首选标杆。 通过拆解纷享销客在不同大中型企业的应用实践,我们可以清晰地看到先进工具如何与业务运营深度融合。 经过十余年打磨,到2026年,纷享销客定位于智能型CRM,已构建出深入企业业务肌理的企业级智能体(Agent)矩阵,完美呼应RevOps体系的智能化诉求。 正如神州数码集团副总裁兼CIO沈暘所言:“一切没有连接、一切不在线的系统就是‘死’系统。”神州数码作为年营业额超千亿的IT巨头,曾拥有多达20个彼此隔离的CRM系统,形成了严重的数据孤岛。 纷享销客的核心优势在于其原生具备的连接基因。它不仅打通了企业内部市场、销售、服务的壁垒,更通过与企业微信、钉钉等生态的互联,以及开放的API接口,将企业内部系统与外部的工商数据、供应链伙伴、甚至是最终消费者连接起来。这种全方位的连接能力,正是构建RevOps体系、实现L2C全链条数据无缝流转的先决条件。 大中型企业的业务复杂且多变,标准化的SaaS产品往往难以满足深度定制的需求。而在当今时代,依靠长周期的代码定制又无法跟上市场节奏。 纷享销客提供的企业级aPaaS(应用平台即服务)低代码平台,完美解决了这一矛盾。以“快公司”元气森林为例,在面对气泡水市场的高速爆发与下沉渠道的快速拓展时,元气森林放弃了繁重的自研路线,选择纷享销客。借助PaaS平台灵活的拖拽配置能力,短短100天内即完成了针对快消行业特殊访销场景的系统重构与上线,成功支撑了单日1100万订单的高并发与8000人的落地应用。这种敏捷性,让IT真正成为了业务的赋能者。 不同行业的RevOps痛点截然不同。纷享销客没有停留在做通用型工具,而是深耕制造、快消、高科技等核心行业。 面对大企业的出海浪潮,纷享销客同样具备前瞻性布局。其系统支持多语言、多币种、多时区,能够根据不同国家的组织架构与角色进行精细化的权限适配。这不仅满足了企业出海初期的业务拓展需求,也为大型跨国集团(如某全球商务办公解决方案巨头利用其管理国内上千家伙伴的售后服务网络)提供了兼顾“全球统一管控”与“本地化灵活运营”的坚实底座。 站在2026年的时间节点向未来眺望,我们可以得出一个清晰的结论:CRM不再仅仅是一个用于记录销售数据的IT软件,它已经进化为一种现代企业管理理念的载体。 在基础设施已经相对完善的今天,企业如果继续将精力局限于软件功能的修修补补,注定无法突破增长的瓶颈。真正的跨越,必须依靠营收运营(RevOps)体系的重塑。通过打破部门壁垒实现全业务链条的融合,通过治理数据资产为预测性AI提供优质燃料,通过重塑组织架构让IT真正赋能业务,企业才能在存量博弈的时代中找到新的增量。 未来的领先企业,必定是那些既拥有先进的AI技术底座,又具备高效、敏捷、以客户为中心的营收运营管理体系的企业。借助如纷享销客等优秀的连接型、平台化CRM,将战略意图转化为系统内每一个被严格执行的业务流,这才是中国大中型企业迈向高质量增长、决胜全球市场的必由之路。一、 2026年CRM应用趋势:跨部门业务协同
1. 建立以客户为中心的全流程协同机制
2. 大型企业业务流程中的断点与痛点

二、 核心战略:建立统一的营收运营(RevOps)体系
战略一:全业务链条的数据治理与应用

战略二:应用预测性AI辅助管理决策

战略三:建立主动式客户服务体系

三、 组织与人才:适应智能化管理的架构调整
1. 设立CRO(首席营收官)或RevOps委员会
2. IT部门角色的根本性转变
四、 热门领域:国产化替代与出海业务协同
1. 国产化替代过程中的变革管理
2. 全球化业务的统一管控与区域自治
五、 纷享销客:大中型企业营收运营落地标杆解析
1. 十年沉淀,ShareAI重塑全业务场景智能体矩阵

2. 连接数据孤岛,重塑RevOps生态

3. aPaaS低代码平台:赋能业务敏捷响应与公民开发

4. 行业深度:深耕特定场景,提供开箱即用的价值
5. 出海与全球化支撑

六、 总结
如果可以的话, 请给我以前的帖子和回复点赞, 这样我就可以获得你的金币了
AI 声明:本文仅题图使用 AI 生成。
一月下旬,一张来自中国联通的幻灯片在回顾已上市支持 eSIM 功能国行版本智能手机的同时,也一并透露了接下来具备 eSIM 功能国行手机的推出计划。2 月 27 日,三星发布的 Galaxy S26 系列手机国行确认支持 eSIM;vivo X300 Ultra 也离发布不再遥远。

借此机会,本文希望从 eSIM 出发,聚焦 eSIM 在智能手机上的发展。本文将简单回顾 eSIM 智能手机的起点,介绍当下各品牌智能手机支持 eSIM 的情况,探讨一些关于 eSIM 的技术话题;比较各品牌在多个地区销售的不同型号智能手机技术细节差异,并展开分析和讨论。

尽管 eSIM 的起点在智能穿戴式设备,然而随着智能手机不断发展,无论是厂商对于内部空间堆叠的进一步追求还是用户对于更灵活多元使用场景不断增长的期望,都使得 eSIM 这项技术登陆手机一事变得愈发迫切。这一切源于两位市场「玩家」—— Apple 和 Google。eSIM 首次登上智能手机是在 2017 年。2017 年 10 月 Google 发布 Pixel 2 系列,其中搭载了 eSIM,需要配合 Google Fi 服务使用。

首批迎来全球多国运营商支持、真正意义上的通用 eSIM 手机则是 Apple 于 2018 年 9 月推出的 iPhone XS、iPhone XS Max 和 iPhone XR。这也是首批支持双卡双待的 iPhone。在中国大陆以外销售的所有 iPhone XS、中国大陆香港澳门以外销售的所有 iPhone XS Max 和 iPhone XR 均配备可以容纳 1 张实体 SIM 卡的卡槽与 eSIM 芯片,而因配备单实体 SIM 卡槽且彼时 eSIM 未在中国大陆落地,国行的 iPhone XS 成为唯一不支持双卡双待的版本。国行、港版、澳门版 iPhone XS Max 和 iPhone XR 配备了双实体 SIM 卡槽,也实现了双卡双待的功能。
经过 8 年多的发展,全球市场上的主流品牌都已经推出支持 eSIM 功能的智能手机。2025 年 9 月,eSIM 手机商用试验牌照终于在中国大陆落地,开启了 eSIM 手机在中国大陆发展的历程。
目前中国大陆地区已上市且支持 eSIM 功能的智能手机总计 5 款。首款上市的是 iPhone Air,是 Apple 2025 年秋季推出 4 款新品的国行版本中唯一支持 eSIM 功能的 iPhone。其特点是仅支持 eSIM 功能,没有实体 SIM 卡槽,eSIM 支持双待,型号 A3518。
随后登场按时间顺序登场的是 OPPO Find X9 Pro 卫星通信版、HUAWEI Mate 80 RS 和荣耀 Magic 8 Pro Air,三款产品均配备了双实体 SIM 卡槽,但 eSIM 仅支持单待。iPhone 17e 的国行版本采用单实体 SIM 卡槽加 eSIM 的设计,eSIM 支持双待,型号 A3635。
随着支持 eSIM 的国行手机推出,「双 eSIM」的说法开始流行。从技术的角度而言,中文语境下的此「双 eSIM」非彼「Dual eSIM」,这里值得展开讨论一番。
要讨论 eSIM,我们应该回归硬件本身。提供 eSIM 功能的元器件是 eSIM 芯片,或称为安全微控制器。不论是「双 eSIM」还是「8 个 eSIM」,其实手机主板上都只有一块 eSIM 芯片。现在我们直接来看它的真面目。

图中红色方框(STMicroelectronics ST33J secure element)即为 eSIM 芯片,来自意法半导体。这块代号为 ST33J 的安全芯片自从 iPhone 13 系列被 Apple 采用,直至 iPhone 16 系列(不包括 iPhone 16e),其间所有支持 eSIM 功能的 iPhone 均采用这块芯片。
eSIM 芯片可以视作一块独立的微型「SD 卡」,专门用于存储运营商下发的 eSIM 配置文件。eSIM 芯片的存储容量大小不一,不同运营商下发的 eSIM 配置文件占用的储存空间也各不相同,因此一块 eSIM 芯片能够储存 eSIM 配置文件的实际数量由上述两个因素共同决定。「8 个 eSIM」的描述源自 Apple 官网,在一般情况下,iPhone 的 eSIM 芯片存储容量能够存储 8 个或更多的 eSIM 配置文件。这是因为无论是 eSIM 芯片还是 eSIM 配置文件,其技术参数都应当遵循 GSMA 的相关标准,基本不存在 1 个或 2 个 eSIM 配置文件就将 eSIM 芯片存储容量用尽的可能。
「双 eSIM」说法的流行更多是由于国行手机在符合工信部的技术要求或标准下,不论 eSIM 芯片存储容量大小,最多只能够向其中写入 2 个 eSIM 配置文件。在写入 eSIM 的同时,运营商的系统后台会记录设备与写入 +86 号码的关联信息。用户若不前往营业厅办理补换卡业务将号码迁出(解除关联),只是将手机上的 eSIM 号码删除并不意味着腾出卡位。若将带有关联信息的设备以二手的方式转卖,下一任机主或将无法添加新的 +86 eSIM 号码。
而「Dual eSIM」更准确的技术描述应是「eSIM 双待」。eSIM 双待是指两个活跃(启用并入网)号码都是储存在 eSIM 芯片上的配置。回到 2018 年,彼时的 eSIM 并不支持双待功能,如果用户希望在使用 eSIM 的同时实现双卡双待则必须将 1 张实体 SIM 卡与 1 个 eSIM 配置组合使用。转折始于 iPhone 13 系列。推出于 2021 年 9 月的 iPhone 13 系列上搭载的 ST33J eSIM 芯片支持双待,从此用户可以完全抛开实体 SIM 卡实现双卡双待。这一技术进步也为后续的美版 iPhone 乃至全球多国的 iPhone 17 系列和所有 iPhone Air 彻底抛弃实体 SIM 卡槽打下了坚实的基础。一年后推出的 Google Pixel 7 系列也支持了 eSIM 双待。
大约 10 年以前,国内的智能手机厂商就已针对出国出境的场景在系统内预装了全球上网类的软件,用户可以通过 App 直接购买不同地区的上网流量。而 eSIM 在中国大陆的落地,让人们将 eSIM 同全球上网功能联系起来。从技术角度观察,这两者其实在本质上存在很大的差异。

不同于 eSIM 需要依赖专门的芯片,全球上网功能通过一项称为 SoftSIM 的技术模拟近似于实体 SIM 卡的上网身份,是一种纯粹的软件方案。从推出时间来看,全球上网功能的推出(约 2014、2015 年)也早于 GSMA 发布第一版 eSIM 标准的时间(2016 年),足以证明 eSIM 与全球上网完全是两项独立的技术。
既然 SoftSIM 相比 eSIM 有着更低的实现成本,为什么 SoftSIM 发展到如今却近乎淘汰?这里笔者认为有两个主要原因。首先是安全性问题。SoftSIM 不同于实体 SIM 卡或 eSIM,缺乏硬件上的隔离,也就意味着更容易被攻击或篡改。传统的实体 SIM 卡内部包含一块微处理芯片,包含 CPU、RAM、ROM 和通信模块等部分,运行一套独立的操作系统。eSIM 芯片内部也存在一系列类似的模块。SoftSIM 则完全依赖于手机操作系统实现,尽管手机厂商(下文简称 OEM)可以通过设计「安全环境」在一定程度上提高其安全性,但仍然无法与实体 SIM 卡或 eSIM 相匹敌。可能是出于这一因素,全球上网功能 App 几乎无一例外均由 OEM 官方提供而不存在第三方 SoftSIM 的方案。这引出第二个问题,即入口垄断和对 OEM 提供服务的依赖。
在用户既不想选择既有号码直接漫游(网络权限与在中国大陆相同,无法访问绝大多数海外服务或应用),又不想额外购入 SIM 卡(须等待邮寄或指定地点换取)/租用随身 Wi-Fi(须指定地点租用归还)的情况下,在一台没有 eSIM 功能的手机上,全球上网可能是所剩的唯一选择。然而由于全球上网的功能入口由 OEM 官方提供,这意味着 OEM 对于其中提供的服务有着绝对的定价权和自主权,用户的选择空间受限甚至没有选择权。
另一方面,这类功能提高了用户对 OEM 提供服务的依赖程度。OEM 所提供服务质量取决于同运营商的合作水平。基于 OEM 的核心业务是把产品生产出来并出售给消费者,OEM 在极大概率上无法投入巨大的资源来解决蜂窝网络的问题。OEM 有可能只同一家或几家有限运营商合作,这意味着用户最终到手的上网资源很可能是上限不高、下限不明的。具体来说,优质的一级运营商通常会与漫游目的地的多家运营商签订合作协议,允许该运营商的用户设备在目的地基于不同当地运营商的实际信号覆盖情况自动选择,而通过借用一级运营商资源的二级运营商或虚拟运营商以及全球上网方案概率上并不会拿到高优先级的网络或是所有合作运营商的入网权限。如果设备上的 SoftSIM 卡不支持最有利的网络,用户就可能会遇到信号变差甚至是无服务的情况。
eSIM 既解决了 SoftSIM 的安全问题,又实现 OEM 硬件与部分服务的解耦。用户可以从海量支持 eSIM 的运营商处直接获取服务。
目前中国大陆 eSIM 商用仍处于早期阶段,国行 eSIM 手机选择比较有限。那么国行以外的 eSIM 手机情况如何呢?本文将先探讨海外品牌,再观察国产品牌出海产品的情况。本文并非对各类机型的全面盘点。这里主要关注各品牌部分本年度或最新一代或几代机型(以主力机型或旗舰机为主),观察范围以各品牌型号实际销售地区为准,文中信息不代表对应品牌型号及销售地产品的实际供应情况。所有信息均来自对应品牌对应地区的官方网站或基于官网信息的合理解读,若官网所提供的信息与当地实际销售产品的任何方面存在出入的,应以实际销售的产品为准。统计信息截止日期是 2026 年 2 月 6 日。
需要注意的是,所有国行以外的 eSIM 手机均不支持添加由中国大陆运营商提供服务的 +86 号码,但添加其他号码则基本没有限制。使用 eSIM 服务应当遵守所在地以及提供服务运营商的相关规定。
作为第一批令智能手机吃上 eSIM 螃蟹的厂商,Apple 支持 eSIM 的 iPhone 型号多、销售范围广。从 iPhone XS 系列和 iPhone XR 起,所有 iPhone 型号均支持 eSIM 功能(但在香港和澳门销售的 iPhone XS 系列至 iPhone 16 系列之间仅 iPhone XS、iPhone 12 mini、iPhone 13 mini 和 iPhone SE 第 2 代和第 3 代以及 iPhone 16e 支持)。其中,2021 年 9 月及以后推出的 iPhone(即 iPhone 13 系列和 iPhone SE 第 3 代或更新机型)均支持 eSIM 双待。在美国和波多黎各销售的 iPhone 14 系列及更新机型不再配备实体 SIM 卡槽,而后全球多国的 iPhone 17 系列和所有 iPhone Air 不再配备实体 SIM 卡槽。



从图中可知从 iPhone 16 系列(这里所指的系列不含 iPhone 16e;系列中四款 iPhone 销售版本地区分区策略相同,故仅用 iPhone 16 展示)到 iPhone 17 系列,主要的变化在于加拿大、日本、墨西哥和中东地区部分国家以及美国海外领土销售的 iPhone 也转向纯粹的 eSIM 版本,而香港、澳门销售的 iPhone 也加入到通行的「国际版」,国行 iPhone 成为可容纳 2 张实体 SIM 卡的唯一版本选项。
笔者认为,Apple 在推进 eSIM 取代实体 SIM 卡的道路上采用了相对激进的策略,即便在初代支持 eSIM 的 iPhone XS 系列和 iPhone XR 上,Apple 也没有采用双实体 SIM 卡槽。事实上,Apple 官方从未推出过同时搭载 eSIM 和双实体 SIM 卡槽的 iPhone。这在一定程度上推进了全球运营商采纳新技术的脚步,也为后续的技术迭代留下空间。
3 月 2 日更新:iPhone 17e 系列信息


同为首批将 eSIM 应用到智能手机的厂商,从 Pixel 3 系列至今所有的 Pixel 手机均有支持 eSIM 功能的版本。其中,Pixel 7 系列及更新机型支持了 eSIM 双待。美版的 Pixel 10 系列(不包括 Pixel 10 Pro Fold)不再配备实体 SIM 卡槽。


与 Apple 类似,Google 在推动 eSIM 普及一事上也相对激进,Google 官方也从未推出过同时搭载 eSIM 和双实体 SIM 卡槽的 Pixel。但相较于 iPhone,Pixel 的官方销售地区则少得多。Google 仅在美国 —— 一个由运营商充当智能手机主要销售渠道的地区 —— 推出了有限的仅采用 eSIM 的型号而并未推广到更多地区。
本文统计的型号:Galaxy S25、S25+、S25 Ultra、S25 Edge、Galaxy Z Fold7 和 Galaxy Z Flip7。
本文统计的 Galaxy 手机指所有非运营商定制版本,不包括「有锁版」;地区不含美国。
目前,除港澳台地区在售的 Galaxy 手机外,所有其他地区销售的版本均支持 eSIM 功能。但不同于 iPhone 或 Pixel 相对激进的策略,三星在除 Z Flip7 外的所有型号上配备了双实体 SIM 卡槽,主打一个「全都要」。而 Z Flip7 配备了单实体 SIM 卡槽,所有机型均支持 eSIM 双待。




2 月 26 日更新:最新发布的 Galaxy S26、S26+ 和 S26 Ultra 在中国大陆、港澳台地区销售的版本也支持了 eSIM 功能。其中,港澳台地区的 S26 配备单实体 SIM 卡槽,其他机型版本均配备双实体 SIM 卡槽。

本文统计的 Xperia 手机指所有非运营商定制版本(在日本,无锁版为「SIMフリー」),不包括「有锁版」。

Sony 自 Xperia 1 IV、Xperia 5 IV 以及 Xperia 10 IV 引入 eSIM,仅欧洲地区销售的 Xperia(型号以数字「54」结尾,其他版本是「72」结尾)支持。Sony 的官网并未说明其 eSIM 是否支持双待,所有型号均配备双实体 SIM 卡槽。

作为后来者,Sony 大抵对此类新技术没有太多的话语权,所做的努力也相对有限。与此同时,索尼移动正显示衰弱的迹象,与其他部门或是 One Sony 的大企业形象形成鲜明的对比,令人唏嘘。
此外,由于 Motorola 手机同一型号在不同地区供应情况差异较大且各网页提供信息有限,故本文略过。
本文统计的型号:Pura 80 系列、Mate X7、Mate XT 和 Mate X6(其他 Mate 型号暂未在海外销售)。
本文统计的地区:沙特阿拉伯、卡塔尔、阿联酋(代表中东地区);香港;新加坡、马来西亚、泰国、越南(代表东南亚地区);法国、德国(代表欧洲地区);土耳其。
华为在海外部分版本的 P40 和 P40 Pro 上首次引入 eSIM,但或许出于制裁影响搭载 eSIM 技术的机型迭代遭到中断,海外业务也受到不小的影响。近两年随着业务的逐渐恢复,情况又有了转变。尽管在中国大陆销售的机型全面采用鸿蒙 NEXT 叠加有限的产能令人误以为华为已不再关注海外的消费者业务,但实际上靠着基于 Android 的 EMUI 和第三方的 Google 兼容方案这一业务仍在正常运转。

从图中可以看到基础版 Pura 80 不支持 eSIM,而在 Pura 80 Pro 和 Ultra 中除香港销售的 Pura 80 Pro 外其他版本均支持 eSIM 功能。


而在 Mate 系列仅有最新的折叠屏手机 Mate X7 支持 eSIM 功能。


从官网的描述推断所有在售支持 eSIM 功能的机型仅支持单待、配备双实体 SIM 卡槽。
本文统计的型号:Find X9 Pro、Find X9、Find N5、Reno15 Pro Max、Reno15。
本文统计的地区:沙特阿拉伯、阿联酋;香港、澳大利亚、新西兰、日本;新加坡、马来西亚、泰国、越南;英国、法国、德国。
定位相对较低的 Reno15 不支持 eSIM,而其他定位高于 Reno15 的型号均支持 eSIM 功能。


从官网的描述推断所有在售支持 eSIM 功能的机型仅支持单待、配备双实体 SIM 卡槽。
本文统计的型号:一加 15、一加 13(其他部分型号存在不同地区营销名称不同的问题)。
本文统计的地区:沙特阿拉伯、卡塔尔、阿联酋;香港;新加坡、马来西亚、泰国、越南;英国、法国、德国。
一加 15 和一加 13 均支持 eSIM 功能,配备双实体 SIM 卡槽。


然而官网描述极为有限,eSIM 是否支持双待不明。
本文统计的小米型号:14T、14T Pro、15T、15T Pro、15、15 Ultra
本文统计的 POCO 型号:F8 Pro、F8 Ultra
本文统计的红米型号:Note 15 Pro 5G、Note 15 Pro+ 5G、Note 14 Pro 5G、Note 14 Pro+ 5G
本文统计的地区:沙特阿拉伯、卡塔尔、阿联酋;香港、澳大利亚、日本、韩国;新加坡、马来西亚、泰国、越南;英国、法国、德国。


上述所有型号均支持 eSIM 功能,并且小米在几乎所有页面明确标注了支持 eSIM 双待的情况。对于 14T 和 14T Pro,香港销售的版本仅支持 eSIM 单待;其他小米和 POCO 型号与版本在提供销售的地区均支持 eSIM 双待,而更亲民定位的红米机型仅支持单待。所有机型均配备双实体 SIM 卡槽。


作为长期深耕出海业务并且具有良好业务连续性的国产品牌,小米及旗下子品牌子系列形成了较大的产品规模,相比其他品牌有着更加丰富多元的选择。无论是技术的机型覆盖还是在 eSIM 双待的支持上都表现比较出色。从具体的产品来看,小米 14T 和 15T 系列属于海外市场专享的系列,相较于小米 14 或 15 系列有着独立的设计语言和更具竞争力的价格,同时在相机方面同样具备徕卡认证;POCO F 系列型号则是追求配置与设计平衡的经济之选,这类型号通常基于小米在中国大陆销售的 Redmi K 系列设计改良。
2 月 28 日更新:最新发布的小米 17、17 Ultra 和 Leica Leitzphone powered by Xiaomi 均支持 eSIM 双待、配备双实体 SIM 卡槽。

本文统计的型号:X300、X300 Pro
本文统计的地区:沙特阿拉伯、卡塔尔、阿联酋;香港;新加坡、马来西亚、泰国、越南;意大利、西班牙;土耳其。

上述所有型号均支持 eSIM 功能,并且 vivo 在几乎所有页面明确标注了支持 eSIM 双待的情况。令人意外的是在泰国销售的版本完全不支持 eSIM 功能;在香港销售的版本仅支持 eSIM 单待;其他型号与版本在提供销售的地区均支持 eSIM 双待,且均配备双实体 SIM 卡槽。



本文统计的型号:Magic8 Pro、Magic V5、 400 Pro、400
本文统计的地区:沙特阿拉伯、卡塔尔、阿联酋;香港、澳大利亚、新西兰;新加坡、马来西亚、泰国、越南;英国、法国、德国;土耳其。
荣耀的独立导致其在海外的业务受到了很大的影响。几年过去,目前荣耀的出海产品无论在型号数量还是销售地区的覆盖方面都表现良好。其中 Magic8 Pro 和 Magic V5 在提供销售的地区均支持 eSIM 双待;400 系列的机型在提供销售的地区仅支持 eSIM 单待。所有机型均配备双实体 SIM 卡槽。


在海外品牌中,Apple 和 Google 因起步早、技术路线坚定,在 eSIM 产品的普及方面发挥优势;三星作为全球市场一大强者也是紧随前两者的步伐,在产品布局和功能支持上表现不错;Sony、Moto 以及 Nothing 作为后来者对此类新技术缺乏主动权,表现为在产品策略上的被动跟随,功能性支持上实现一般。
而国产出海品牌总体表现不错,华为、OPPO 和一加在最近一代的机型上都实现了对 eSIM 的支持,而在功能性上有进步的空间;vivo 和荣耀在实现 eSIM 支持的同时在功能性上更进一步支持 eSIM 双待;小米长期深耕出海业务,不同定位的产品全、选择多,在功能性上也表现不错。所有厂商都采用了双实体 SIM 卡槽加 eSIM 的配置,这一设计包容性强、对用户过渡到新技术更友好。
尽管 eSIM 的实际可用性和支持情况由运营商和各地区的监管规定等外部因素决定,但用户可基于自身实际需求发挥主观能动性,灵活地选择硬件技术上满足需求的产品。需要注意的是,在选择手机型号时,应当避免购买运营商定制的版本或「有锁版」;提前咨询品牌相关技术支持,确认手机不含「跨地区网络锁」;部分品牌(主要是国产出海品牌)的手机设定须在销售地激活,否则将无法进入系统正常使用。
你可能会疑惑,为什么要放弃国行版本转而入手价格更高一些的海外版本,仅仅是为了 eSIM 功能吗?
答案是否定的。部分海外版本的智能手机有着更全的频段支持,例如低频的 n71,其优异的穿透力和广覆盖的特性被部分运营商充分利用,在地广人稀的地区或室内也能保证一定的信号;又例如 n28,n28 频段分为 n28A 和 n28B,部分国行手机仅支持 n28A,使其无法在以 n28B 或完整 n28 形式提供服务的场景下正常工作。而不同于通常是公开的频段支持信息,多频段载波聚合的组合支持则是海面下的冰山。现阶段不同国家/地区的 5G 网络部署水平不同,独立组网(SA)和非独立组网(NSA)两种模式并存。部分厂商会出于经济性考虑有针对性地减少在某些地区销售的部分型号手机在载波聚合方面认证或授权的费用,这会导致部分频段组合在一些版本的手机上不可用。现实场景中用户会注意到尽管某地运营商宣称存在 5G 覆盖,但手机只能接入 4G 甚至更弱的网络,影响使用体验。
此外,更全的 Google 服务、Widevine L1 认证也是海外版本 Android 手机的优势。而在 iPhone 方面,如果用户希望挑选一款手机作为辅助用机,iPhone SE 3 则是一个不错的选择。尽管 iPhone SE 3 已在 2025 年 2 月被新推出的 iPhone 16e 所取代,但 iPhone SE 3 仍可在三方渠道购得全新机器。凭借非常经济的价格、支持 5G、LCD 屏幕等特点,叠加 iOS 长维护周期、系统生态(用于 CarPlay、连接 Apple Watch)优势,iPhone SE 3 既是 iPhone 6 形态下最完善的 iPhone,又可能是最具性价比的 eSIM 备用机。
在原生支持 eSIM 功能的智能手机之外,市场上还存在实体 eSIM 卡。实体 eSIM 卡是一种与实体 SIM 卡形态相同且具备 eSIM 芯片类似功能的一种卡片。
早期的实体 eSIM 卡通常需要配合厂家提供的 eSIM 管理软件使用,且由于 iOS 系统方面的限制,此类软件几乎清一色仅兼容 Android 系统。这导致用户只能通过 Android 手机上的软件来管理(添加、开启关闭、删除、其他信息管理等)实体 eSIM 卡,使用上存在诸多不便。现阶段已有一些实体 eSIM 卡支持在 iOS 系统上通过 SIM 卡应用程序进行 eSIM 配置管理,但操作上存在一定的学习门槛,易用性上存在较大的提升空间。
部分实体 eSIM 卡仅支持单方面的下卡,不支持某些运营商的额外验证(例如验证码)。另有反馈表示部分实体 eSIM 卡在处理某些运营商签发的 eSIM 配置时存在问题,用户无法顺利添加或使用。另外由于实体 eSIM 卡仅具备 EID 但不具备 IMEI,可能会被运营商识别为不正常的设备,因此实体 eSIM 卡在兼容性方面相比起原生的 eSIM 芯片也略逊一筹。
总体而言,虽然实体 eSIM 卡在兼具 eSIM 和实体 SIM 卡优点的同时也存在一些问题,但作为不具备 eSIM 功能设备的一种低成本曲线补救方案,或许也有它存在的价值。
随着智能手机的发展,更大的电池、更强的影像能力和更好的防尘防水性能等因素都对手机内部元器件的集成度提出更高要求。在此背景下,采用 eSIM 技术取代传统实体 SIM 卡以实现更紧凑的手机设计,已成为行业发展的大势所趋。为在取消实体卡槽的同时继续满足用户对双卡双待功能的需求,支持 eSIM 双待应是未来 eSIM 智能手机设计的必然方向。
随着 eSIM 芯片技术的持续发展与推广,相关产业布局将迎来更加成熟的阶段,产业链也将更加完善。这将有助于实现规模经济效应,有效降低 eSIM 技术的应用成本,从而使得 eSIM 芯片的集成从成本负担转变为一种提升产品集成度和耐用性的必然选择,惠及更多入门级移动设备。可以说这种技术的下放,本质上是前沿技术普惠化的一种体现,让数字化转型的红利能够覆盖到更广泛的大众用户。
此外,随着商用经验的不断积累、法规和监管的不断完善,eSIM 技术应朝着更方便、更无感、开箱即用的方向发展,使得未来的数字连接更加无缝。
> 下载少数派 客户端、关注 少数派公众号,了解更多的新玩意 🆒
> 特惠、好用的硬件产品,尽在 少数派 sspai 官方店铺🛒