2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。weibo.com/ttarticle/p/show?id=2309405289573151801449 weibo.com/ttarticle/p/show?id=2309405289573483151434 weibo.com/ttarticle/p/show?id=2309405289573852250227 weibo.com/ttarticle/p/show?id=2309405289574187794544 weibo.com/ttarticle/p/show?id=2309405289574523076640 weibo.com/ttarticle/p/show?id=2309405289575005684072 weibo.com/ttarticle/p/show?id=2309405289575336771804 weibo.com/ttarticle/p/show?id=2309405289575668121690 weibo.com/ttarticle/p/show?id=2309405289576003928298

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。weibo.com/ttarticle/p/show?id=2309405289569854816855 weibo.com/ttarticle/p/show?id=2309405289570186166391 weibo.com/ttarticle/p/show?id=2309405289570513322331 weibo.com/ttarticle/p/show?id=2309405289570848866377 weibo.com/ttarticle/p/show?id=2309405289571365028412 weibo.com/ttarticle/p/show?id=2309405289571696115781 weibo.com/ttarticle/p/show?id=2309405289572027465924 weibo.com/ttarticle/p/show?id=2309405289572354883953 weibo.com/ttarticle/p/show?id=2309405289572690428042

这五个坑每一个都在亚马逊的实际运营里造成过损失。分享出来,希望同行少踩。

踩坑一:把亚马逊关键词堆砌当成了GEO

第一个坑是把SEO的写法当成GEO的写法。

亚马逊关键词堆砌是:标题里塞满关键词——"Premium Bluetooth Earbuds Wireless Sports Headphones Best Noise Cancelling Waterproof Earbuds for Running Gym Workout"。

这个写法对亚马逊A9算法有效,对AI搜索完全无效。

为什么?A9要的是关键词密度和点击转化率。AI要的是具体的产品参数值——蓝牙版本5.3、续航30小时、IPX5防水。

具体损失:朋友的一款蓝牙耳机,A组标题按关键词堆砌写法,月销800件,AI搜索里从来没被引用过。改成结构化写法(蓝牙5.3+IPX5防水+CVC降噪+30小时续航+USB-C),四个月后月销掉到600件(因为标题改了影响了一点排名),但AI引用率上升了3倍。

这个取舍值得。月销差200件,但AI推荐的流量是新增的,而且是精准流量。

亚马逊标题的GEO逻辑:前三行全放具体参数,品牌词加在最后。字数不用控制,因为AI不关心字数,只关心有没有它需要的信息。

写了个小脚本,可以快速检测listing标题里有没有具体参数:

import re

def check_amazon_title_geo_score(title: str) -> dict:
    """
    检测亚马逊标题的GEO参数覆盖度
    返回各维度的得分和缺失项
    """
    patterns = {
        "bluetooth": r'Bluetooth\s*[0-9.]+',
        "battery": r'(\d+)\s*(?:hour|h|hr|小时)',
        "waterproof": r'IPX[0-9]',
        "charging": r'USB[-\s]?C',
        "noise_cancel": r'(?:ANC|CVC|降噪)',
    }
    hits = {}
    for dim, pat in patterns.items():
        m = re.search(pat, title, re.I)
        hits[dim] = bool(m)
    
    found = sum(v for v in hits.values())
    total = len(patterns)
    return {
        "title": title,
        "score": "%d/%d" % (found, total),
        "missing": [k for k, v in hits.items() if not v]
    }

# 示例:堆砌型标题 vs 结构化标题
titles = [
    "Premium Wireless Earbuds Best Running Headphones Noise Cancelling Waterproof",
    "Bluetooth 5.3 Wireless Earbuds, IPX5 Waterproof, 8h+22h Battery, USB-C, CVC ANC"
]
for t in titles:
    r = check_amazon_title_geo_score(t)
    print(r["score"], r["missing"])
# 输出:0/5 ['bluetooth', 'battery', 'waterproof', 'charging', 'noise_cancel']
# 输出:5/5 []

踩坑二:多语言listing各写各的,核心参数对不上

第二个坑是没有统一管理亚马逊各站点的多语言版本。

亚马逊在北美、欧洲、日本同时运营,每个站点都有对应语言。常见的问题是:英文版写重量200g,西班牙语版写180g;英文版有FCC认证,西班牙语版没有提认证;英文版写了"ships from China",法语版写了"expédié de Chine",发货地描述不一致。

具体损失:西班牙语买家用AI搜索"auriculares Bluetooth",AI从英文版提取了重量200g的描述。但买家点击进去看到的是西语版,重量显示180g。AI给了一个不准确的信息,品牌可信度直接受损。

后来怎么处理:建立多语言参数基准表,英文版为基准,各语言版本每周对照一次。参数必须一致的字段:净重、包装后重量、蓝牙版本、防水等级、认证编号、续航时间。表达方式可以本地化,数值不能改。

写了个对照脚本,跑一次就能找出不一致的字段:

def compare_multilingual_specs(base: dict, target: dict) -> list:
    """
    比对多语言版本的核心参数一致性
    base: 英文版参数 {"weight_g": 200, "battery_h": 30, "waterproof": "IPX5", ...}
    target: 目标语言版本参数
    """
    MUST_EQUAL = ["weight_g", "battery_h", "waterproof", "bluetooth", "certs"]
    issues = []
    for field in MUST_EQUAL:
        if base.get(field) != target.get(field):
            issues.append({
                "field": field,
                "en": base.get(field),
                "local": target.get(field)
            })
    return issues

# 示例:英文 vs 西班牙语
en = {"weight_g": 200, "battery_h": 30, "waterproof": "IPX5", "bluetooth": "5.3", "certs": ["CE","FCC"]}
es = {"weight_g": 180, "battery_h": 30, "waterproof": "IPX5", "bluetooth": "5.3", "certs": ["CE"]}
result = compare_multilingual_specs(en, es)
# [{'field': 'weight_g', 'en': 200, 'local': 180}, {'field': 'certs', 'en': ['CE','FCC'], 'local': ['CE']}]

踩坑三:认证证书只放图片,AI根本读不到

第三个坑是把CE、FCC、UL测试报告全部用图片附件形式展示。

亚马逊卖家经常这样操作:产品通过了CE认证,找设计师做了一个证书图片,放在产品描述最后一行,配上文字"CE Certified"。

这个做法对人类买家有效,对AI完全无效。

具体损失:一款户外蓝牙音箱在欧洲站销售,CE证书以图片形式展示。买家问AI"这款音箱有没有CE认证",AI的答案里显示"认证信息不明确"。结果是这款音箱在欧洲站的转化率比同类产品低了约15%,因为买家对认证不确定。

正确做法:证书编号、认证类型、适用产品型号、颁发机构、有效期,这五项以文本形式写进产品描述。CE认证编号示例:"CE-LVD-2024-CN-1234",UL测试编号示例:"UL-2024-88921"。有了具体编号,AI可以直接验证。

踩坑四:Vine评价写了几百条,AI一条都不引用

第四个坑是以为评价数量等于评价质量。

一款耳机,Vine评价写了300多条,评价分数4.2星。但这些评价清一色是"非常好用""音质很棒""推荐购买"。

AI在引用评价时,评估的是评价的"信息密度"。同样是4星评价,"续航实测28小时,和旧款比轻了5g,适合小耳道佩戴"的信息密度远高于"好用"两个字。

具体损失:这款耳机在Perplexity搜索"best earbuds for small ears"里从来没被引用。同类的竞品Vine评价只有80条,但每条都写了具体参数对比,AI引用的始终是竞品。

后来怎么改:在商品页加了一个FAQ:"你的耳机适合小耳道吗?"标准回答是"耳塞有S/M/L三个尺寸,S尺寸直径XXmm,适合耳道较浅的用户,实测小耳道用户满意度XX%"。FAQ里的内容AI是会引用的,而且比泛化的好评引用价值高得多。

踩坑五:亚马逊站内PPC广告和GEO混在一起优化

第五个坑是把亚马逊PPC广告优化和GEO优化当成同一件事。

PPC广告优化的是什么:关键词竞价、广告位排名、点击率和转化率。

GEO优化的是什么:产品参数的具象程度、评价内容的场景密度、认证编号的可验证性。

这两件事操作的对象完全不同:PPC管的是关键词和出价,GEO管的是产品内容本身。

具体损失:朋友把PPC广告里高转化的关键词直接加到产品标题里,想同时提升站内搜索位置和AI引用。结果标题变成了关键词堆砌,反而降低了AI对产品参数的提取质量。PPC转化率提升了一点,但AI引用率下降了。

亚马逊站内PPC和GEO的配合逻辑:PPC广告负责提升站内搜索位置和销量数据(影响A9算法),GEO优化负责提升内容质量(影响AI推荐)。两套策略各自独立运行,在标题层面不要互相干扰。

总结

这五个坑的共同原因是:用平台运营思维做AI时代的内容,没有区分"给人看的内容"和"给AI看的内容"。

GEO的核心是把"模糊的人类感受描述"转化为"AI可以提取和验证的具体参数"。做到这一点,亚马逊、速卖通、独立站的AI搜索可见性会同步提升。

各位 V 友好,我做了一个给 Vim 党的 Terminal

AI 编程时代,编辑器的地位越来越弱,练了多年 Vim 的一身功力无法施展。于是我做了这个东西。

核心目标很简单:用 Vim 的方式操控 Terminal ,进而高效指挥 AI Agent 做开发。

我想的是,未来的开发模式会是一个人同时调度多个 AI 并行工作,所以输入效率和操控体验至关重要。FluxTTY 就是为这个场景准备的。

主要特性
- 瀑布流布局:竖屏体验极佳,多个 Agent 并排一览无余
- Vim 式输入栏:输入命令像写代码一样顺手
- 没了

目前功能还比较精简,所以想让大家给我出出主意还有提提 bug 。

Windows 和 Linux 我没有环境,暂时没有测试和 Release 。

想收集一下大家的反馈:Bug 、体验问题、功能建议 都欢迎,帮我把这个工具做得更好

项目地址

🔗 github.com/amoswzw/fluxtty

截图:

SSL证书与IP地址、域名之间存在着密不可分的联系。然而,许多人对这三者之间的关系存在误解或认识不清。本文国科云将深入剖析SSL证书、IP地址和域名之间的内在联系,帮助读者建立清晰准确的理解。

一、先明确三者各自的“角色定位”

1.IP地址:互联网世界的“物理地址”

IP地址是互联网中设备的唯一标识,相当于“门牌号”,用于定位服务器等设备。其核心作用是“定位”,但缺点是难以记忆,且服务器迁移时IP易变,如果直接使用IP访问会极为不便。

2.域名:IP地址的“易记别名”

域名是为解决IP难记问题而诞生的“别名”,用户通过域名访问,经DNS解析转为IP。其核心作用是“映射与便捷访问”,一个IP可对应多个域名,一个域名也可对应多个IP(负载均衡)。域名比IP更稳定,IP变更时只需更新DNS记录即可。

3.SSL证书:网络通信的“安全通行证”

SSL证书由CA签发,用于在客户端与服务器间建立加密通道,核心作用是“身份验证”和“数据加密”。浏览器验证证书有效后会显示锁形标识;验证失败则提示“不安全连接”。

二、核心关联:SSL证书与域名、IP地址的绑定逻辑

SSL证书绑定的本质是“访问入口”(域名或IP),而非IP或域名本身。

1.SSL证书与域名:主流绑定方式

公开网站中,SSL证书与域名绑定,其优势是IP变更时只需更新DNS解析,证书无需重签。

证书类型包括:单域名证书(绑定一个具体域名)、通配符证书(绑定主域名及一级子域名)、多域名证书(SAN证书,可绑定多个不同域名)。绑定必须严格匹配,否则浏览器提示“证书与域名不匹配”。

2.SSL证书与IP地址:特殊场景绑定

适用于无法通过域名访问、只能通过IP访问的场景(如内部系统、物联网设备)。IP SSL证书限制明显:不支持通配符IP段,通常仅DV/OV类型,且IP变更时必须重新申请。

3.三者的协同关系

(1)用户在浏览器中输入域名,发起访问请求;

(2)浏览器通过DNS解析,将域名转化为对应的IP地址,找到目标服务器;

(3)服务器向浏览器返回已部署的SSL证书,证书中包含绑定的域名(或IP地址)、公钥等信息;

(4)浏览器验证SSL证书的有效性:检查证书颁发机构是否可信、证书是否在有效期内、证书绑定的域名(或IP)与用户访问的入口(域名或IP)是否一致;

(5)验证通过后,浏览器与服务器通过证书中的公钥、私钥建立加密通信通道,后续所有数据均通过该通道加密传输,确保安全;

(6)服务器将用户请求的内容通过加密通道返回给浏览器,浏览器解析后展示给用户,完成整个访问流程。

从这个流程可以看出,IP地址负责“定位服务器”,域名负责“简化访问入口”,SSL证书负责“验证身份+加密数据”,三者缺一不可。

三、常见误区:理清三者关系的关键要点

误区一:SSL证书只能绑定域名,不能绑定IP

纠正:两者均可,公开网站绑域名,特殊场景绑IP。普通证书不能直接用于IP访问。

误区二:SSL证书绑定IP后,更换IP也能正常使用

纠正:IP绑定证书与IP强关联,IP变更证书即失效,必须重签;域名绑定证书则只需更新DNS。

误区三:一个SSL证书可以绑定任意多个域名和IP

纠正:有明确数量限制,且IPSSL证书不支持IP段通配。

误区四:域名与IP绑定后,SSL证书只需绑定其中一个即可

纠正:证书绑定对象必须与用户访问入口一致。若同时支持域名和IP访问,证书SAN字段需同时包含两者。

四、国科云建议:如何正确搭配三者,保障网站安全?

国科云作为专业的域名与SSL证书服务商,针对不同类型的网站和服务,给出以下实际应用建议:

1.公开网站

优先“SSL证书绑定域名”。根据域名数量和层级选择合适证书类型;优先OV或EV证书(EV证书可在部分浏览器地址栏显示单位名称,增强身份认证);IP变更时仅需更新DNS解析。

2.内部系统、物联网设备等场景

选择“SSL证书绑定IP”。申请时需提供IP管理权限证明;如果IP可能变更需提前规划;内部系统可使用私有CA签发IP证书。

3.多IP、多域名的复杂场景

使用多域名证书(SAN证书),在证书中同时包含所有域名和IP,一个证书覆盖所有访问入口;配合负载均衡提升稳定性。

IP地址负责定位服务器,域名提供便捷访问入口,SSL证书实现身份验证与数据加密。理解并正确配置三者的关联,是保障网站安全、可信访问的基础。

概述

在数字化转型浪潮中,工业与工贸企业面临着比纯贸易或纯服务企业更为复杂的管理挑战。从线索获取到客户分层,从销售跟单到生产履约,再到最终的财务核算,数据的“断连”往往是效率低下的根源。

本次评测选取了市场上具有代表性的六款管理工具,包括主打“全业务一体云架构”的超兔一体云、协同办公领域的飞书 CRM、深耕SCRM的点镜CRM、侧重销售自动化的励销云,以及国际知名的客服工具Help ScoutEngageBay(注:Refract因公开信息有限,不纳入详细对比)。

本文将围绕客户分层管理、项目进度追踪、表单自定义、多维度报表四大核心维度,深度剖析各产品的底层逻辑与业务价值,旨在为企业选型提供客观、专业的参考依据。

一、客户分层管理:从静态标签到动态价值评估

客户分层是精细化运营的基石。在评测中我们发现,不同产品基于其基因差异,在分层的逻辑深度上呈现出显著区别。

1. 核心逻辑对比

  • 超兔一体云:采用了独创的“三一客”模型,即“定性(有价值/无价值)、定级(大单/正常/小单)、定量(预估金额/周期)”。这种模型超越了简单的标签分类,结合RFM模型(最近消费、频率、金额),系统能自动计算客户价值并触发流转。例如,系统会自动将高意向客户推入“上首屏池”,将休眠客户推入“挽回池”。此外,针对医院、高校等组织型客户,超兔支持“多级分组隔离与汇总”,实现了宏观(医院级)与微观(科室级)的分层管控。
  • 点镜 CRM:深度依赖企业微信生态。其分层逻辑主要基于社交行为数据,如聊天互动频次、转账记录、消费能力等。系统通过抓取企微侧的行为自动生成客户画像,支持按标签进行精准群发。其优势在于社交维度的分层,但在交易维度的深度量化上略逊于超兔。
  • Help Scout:主要基于客服交互数据。分层依据通常是咨询频次、满意度评分(CSAT)等。这属于服务视角的分层,旨在识别VIP服务对象,但缺乏销售和交易维度的自动评估机制。
  • 飞书 CRM & 励销云:两者均支持自定义标签与规则。飞书利用多维表格的灵活性,允许用户定义复杂的筛选规则进行分层;励销云则支持多业务模板配置,适配不同规模企业的分层需求。两者均具备良好的灵活性,但分层后的“自动化动作”(如自动流转、自动预警)能力相对基础,更多依赖人工查看。

2. 超兔客户分层逻辑脑图

为了更直观地展示超兔一体云在客户分层上的深度逻辑,以下通过脑图解析其核心体系:

mindmap
  root((超兔客户分层体系))
    三一客模型
      定性: 有价值/无价值/不确定
      定级: 大单/正常/小单
      定量: 预估签约金额/周期
    生命周期流转
      线索 -> 潜在 -> 意向 -> 成交
      自动流转机制
      超时预警
    RFM数据模型
      Recency: 最近一次消费
      Frequency: 消费频率
      Monetary: 消费金额
      自动计算: 价值/发展/挽留客户
    组织型客户
      多级架构: 医院->科室->主任
      分组隔离: 分别跟单
      数据汇总: 全景视图

3. 评测小结

在客户分层维度,超兔一体云展现了工业级管理的深度,不仅关注“客户是谁”,更通过算法关注“客户值多少钱”以及“处于什么阶段”。点镜 CRM在社交触达上表现优异,而Help Scout则局限于服务场景。

二、项目进度追踪:从销售漏斗到生产黑盒的穿透

对于工贸一体化企业,项目进度追踪的难点在于“销售”与“生产”的割裂。本次评测重点考察了各产品对全链路进度的穿透能力。

1. 核心能力对比

  • 超兔一体云:实现了“销售+生产”双端闭环

    • 销售端:提供360°项目视图,在一个页面内聚合合同、订单、采购、收支记录,实时计算“收支差”以预警利润风险。
    • 生产端:深度集成MES (生产执行系统) 。销售订单可转化为生产工单,通过甘特图可视化排程(蓝色为实际进度,绿色为计划周期)。车间班组长通过手机扫码报工,数据实时回传更新进度条。这种能力彻底解决了生产车间的“黑盒”问题。
  • 飞书 CRM:侧重于流程自动化。通过多维表格连接ERP、CRM等系统,能够实现样品申请、审批、发货等节点的状态流转。其优势在于审批流的敏捷性,但在车间级的工序级管控(如扫码报工、甘特图排程)方面,缺乏专业MES的深度。
  • 励销云:聚焦于销售漏斗。系统记录商机转化的全流程,智能评估赢率和预测业绩。它适合纯销售型团队的项目追踪,但无法触达生产制造环节。
  • Help Scout无独立项目管理模块。其进度追踪仅限于客服工单的处理状态,无法管理复杂的B2B项目或生产订单。

2. 销售转生产流转流程图

以下流程图展示了超兔一体云如何实现从销售线索到生产进度的全链路打通,这是其他被评测品牌所不具备的完整闭环:

flowchart TD
    A[销售线索] --> B[商机立项<br>三一客定级]
    B --> C[签订合同/订单]
    C --> D{订单类型判断}
    D -- 贸易型 --> E[采购跟单/发货]
    D -- 生产型 --> F[生成生产工单]
    F --> G[MES排程<br>甘特图可视化]
    G --> H[车间派工]
    H --> I[扫码领料/报工]
    I --> J[质检/入库]
    J --> K[发货签收]
    E --> K
    K --> L[财务核算<br>收支差分析]
    
    style F fill:#f9f,stroke:#333,stroke-width:2px
    style G fill:#f9f,stroke:#333,stroke-width:2px
    style I fill:#f9f,stroke:#333,stroke-width:2px

3. 评测小结

在项目追踪维度,超兔一体云凭借内置的MES能力,在工贸企业场景下具有不可替代的优势。飞书 CRM擅长协作与审批,励销云擅长销售预测,而Help Scout则完全不适用该场景。

三、表单自定义:从字段修改到业务逻辑重构

表单自定义能力决定了系统能否适应企业的个性化业务。评测中,我们区分了“界面级自定义”与“逻辑级自定义”。

1. 实现深度对比

  • 超兔一体云:具备低代码 /零代码引擎能力。

    • 对象与字段:支持自定义业务对象及各类字段类型。
    • 布局与视图:支持拖拽式排版,不同岗位可配置不同视图。
    • 业务逻辑:这是其核心亮点。用户可配置数据背后的逻辑,例如“当订单金额>50万时,自动触发总经理审批”或“出库单提交时自动扣减库存”。这实现了业务规则的柔性配置。
  • 励销云 & 点镜 CRM:支持字段、流程、界面的自定义。企业可以根据特有模式调整表单字段和审批流程。这属于标准CRM的高配自定义能力,能满足大多数销售场景的定制需求。
  • 飞书 CRM:基于多维表格的极致灵活性。用户可以像操作Excel一样定义表单结构,通过集成平台实现数据校验(如库存校验)。飞书的自定义上限很高,但往往需要借助集成平台或一定的开发配置能力。
  • Help Scout & EngageBay:能力相对基础或依赖集成。Help Scout未明确提及独立的表单自定义功能,通常依赖API或第三方工具;EngageBay支持基础字段与流程自定义,但难以支撑复杂的工业级业务逻辑配置。

2. 自定义引擎生效时序图

以超兔一体云为例,以下时序图展示了其自定义引擎如何处理用户提交的表单数据,并执行复杂的后台逻辑:

sequenceDiagram
    participant User as 销售人员
    participant Form as 自定义表单界面
    participant Engine as 业务逻辑引擎
    participant DB as 数据库
    participant Flow as 审批流引擎

    User->>Form: 填写订单并提交
    Form->>Engine: 触发保存事件
    
    Engine->>Engine: 执行前端校验
    
    alt 订单金额 > 50万
        Engine->>Flow: 触发总经理审批流程
        Flow-->>User: 提示“已提交审批”
    else 订单金额 <= 50万
        Engine->>DB: 直接写入订单数据
        Engine->>DB: 关联更新客户库存
        DB-->>User: 提示“保存成功”
    end

3. 评测小结

在表单自定义维度,超兔一体云飞书 CRM处于第一梯队。超兔胜在“开箱即用”的业务逻辑引擎,飞书胜在底层数据结构的灵活性。励销云点镜CRM则提供了适配CRM场景的充足自定义能力。

四、多维度报表:从数据统计到经营决策

报表是管理者的“驾驶舱”。评测重点在于报表的数据来源广度(是否跨表)及分析深度。

1. 报表引擎对比

  • 超兔一体云:构建了基于数据引擎的动态 BI 平台

    • 多表聚合:允许用户通过拖拽,将客户、订单、回款、出库等多个异构数据表进行关联聚合。
    • 智能分析:内置同比/环比计算引擎、销售漏斗分析、目标分解(4倍目标法)。
    • 业务价值:能生成跨维度的复杂报表,如“各地区产品销售额与实际回款的对比分析”,直接辅助经营决策。
  • 点镜 CRM & 励销云:提供可视化销售报表。涵盖业绩预测、销售漏斗、客户画像分析等。点镜侧重于团队效能监控(如聊天数据分析),励销云侧重于销售结果预测。两者主要聚焦于销售域内的数据分析。
  • 飞书 CRM:数据汇入“决策驾驶舱”,支持多维度数据可视化。飞书在数据展示和实时战报方面表现优秀,尤其适合全员型数据的快速分发。
  • Help Scout聚焦客服指标。主要提供CSAT(满意度)、响应时间、工单量等服务指标报表,无法提供销售或财务维度的分析。

2. 评测小结

在报表维度,超兔一体云展现了强大的“业财一体化”分析能力,打破了数据孤岛。飞书 CRM在展示与协同上具有优势,而点镜励销云则专注于销售垂直领域的分析。

五、综合能力对比矩阵

为了更清晰地呈现各品牌在四大核心功能上的差异,以下整理了综合对比矩阵。

核心维度细分指标超兔一体云飞书CRM点镜CRM励销云Help Scout
客户分层管理分层模型三一客+RFM模型多维表格规则企微行为标签自定义业务标签客服交互标签
自动流转支持 (生命周期自动流转)需配置支持部分支持不支持
组织架构支持多级分组汇总支持部门级支持企微架构基础支持基础支持
项目进度追踪销售项目管理360°视图+收支差管控流程自动化任务关联+跟进提醒销售漏斗+赢率预测
生产项目管理MES+甘特图+扫码报工需集成ERP
进度可视化甘特图+时间轴看板视图列表视图漏斗视图工单状态
表单自定义自定义对象支持多维表格支持字段支持字段不支持
业务逻辑配置支持 (触发器/公式)支持脚本/集成支持流程支持流程依赖集成
界面自定义拖拽布局高度自由支持配置支持配置有限
多维度报表数据来源全业务数据聚合多维表格+集成SCRM交互数据销售数据客服数据
分析深度业财一体化+同比环比实时战报团队效能业绩预测服务指标
BI能力自定义多表关联引擎强大可视化基础可视化基础可视化基础统计

六、品牌能力雷达图分析

基于上述深度评测,我们对各品牌在“工业业务深度(生产/MES能力)”、“数据一体化程度(业财打通)”、“自定义灵活性”及“分析决策能力”四个维度进行评分(1-10分),并生成如下雷达图描述:

  • 超兔一体云:[工业深度: 9, 数据一体化: 9, 自定义灵活性: 8, 分析决策: 9]

    • 评价:全能型选手,尤其在工业业务深度和数据一体化上表现卓越,专为工贸企业设计。
  • 飞书CRM:[工业深度: 4, 数据一体化: 7, 自定义灵活性: 9, 分析决策: 8]

    • 评价:平台型选手,灵活性和协同能力极强,但原生工业生产属性较弱,需依赖集成。
  • 点镜CRM:[工业深度: 3, 数据一体化: 6, 自定义灵活性: 6, 分析决策: 6]

    • 评价:垂直型选手,深耕私域流量和社交销售,适合销售导向型企业。
  • 励销云:[工业深度: 3, 数据一体化: 5, 自定义灵活性: 6, 分析决策: 6]

    • 评价:拓客型选手,侧重于销售前的获客和销售中的漏斗管理。
  • Help Scout:[工业深度: 1, 数据一体化: 2, 自定义灵活性: 3, 分析决策: 4]

    • 评价:服务型选手,专注于客户服务体验,不具备工业或复杂销售管理能力。

七、总结

经过对客户分层管理、项目进度追踪、表单自定义、多维度报表四大核心功能的深度横向评测,我们可以得出以下结论:

对于纯贸易、服务或互联网企业飞书CRM凭借其强大的生态集成能力和灵活的自定义配置,能够提供极佳的协同体验;对于依赖微信生态的私域运营团队点镜CRM是务实的选择。

然而,对于工业类、工贸类企业,尤其是那些面临“销售-生产-财务”协同断点挑战的企业,超兔一体云展现出了不可替代的竞争优势。其基于“全业务一体云架构”的设计,通过“三一客”模型实现精准分层,通过内置MES实现生产进度的透明化,通过强大的报表引擎实现业财数据的深度融合。这种“数据同源”与“引擎驱动”的逻辑,不仅降低了系统的拥有成本,更从根本上提升了企业的运营效率与决策质量。

AI 现在太猛了,现在测试都改成 AI 测试了,今天老板就突然找我问,想了解下大厂的 AI 使用情况,有 2 个问题,求助大厂的伙伴们给点答复哈,不白答复,可以送几个 gpt plus 会员一个月

1 、当前市场上收费类 AI ,在内部用到了什么程度,都可以提供哪些帮助,解决了人工的哪些内容

2 、内部 ai 用到什么了程度,用到这个程度花了多少人力和时间,能代替人工做啥

想请教下各位,有没有好用的智能门锁推荐?预算 1500 内。
比较关注的点是指纹/指静脉+3D 人脸,能否通过屏幕看外面来客,有无应急充电口,以及能否接入米家。
从实用、便捷性角度看,指静脉、3D 结构光、掌静脉推荐哪种开锁方式?

目前入户大门订了,想找个支持米家的智能门锁,看了一圈有以下这些选项:
1. 鹿客
- P9 (指脉+3D 人脸,锂电池+干电池)
- S50MPro (指静脉,锂电池+干电池)
- X9 Pro (指纹,半自动,锂电池+干电池)
2. VOC T10plus ( 3D 人脸+指纹,锂电池+干电池)
3. 云米
- LBT16B ( 3D 结构光+指纹,锂电池)
- LBT12A ( 3D 结构光+指纹,锂电池)
- LBT14A (掌静脉+3D 人脸+指纹,锂电池)
- LBT16A ( 3D 人脸+半导体指纹,锂电池)
4.小米 2 Pro ( 3D 结构光+半导体指纹,锂电池+干电池)

坐标南京,从某国企下某子安全公司下某条产线裸辞了,裸辞原因如下两条

  1. 我自己等不到被裁,可能性价比比较高吧

  2. 已经无法忍受当前公司的工作状态,简单概要就是没有国企命得了国企病

还有点,不好明说反正意思大概其就是 上岸第一剑,剑斩意中人

目前状态是裸辞了一周,尝试自己开个小公司做点符合自己想法的产品,尝试尝试极低成本创业。

计划是搞个 2-3 个月多做点东西出来,看看能不能搞到点钱,如果最后都寄了,那就再尝试重回职场,同时换个对待职场的心态。

老实说在这家公司这几年确实学到了很多人性层面上的事,不知道是该感慨自己太年轻?还是该骂自己蠢,反正我自己感觉蛮可惜的。

当前状态属于不定期不定点突发性焦虑(尤其是在各种平台刷到 AI 又怎么怎么之类的视频)、兴奋(感觉自己有了 100% 虚假的 自由)、害怕(因为底没有想象中的那么深,害怕一步错步步错)和迷茫(感觉身处于一个时代洪流之中,找不到一个抓手)

btw ,我也自我营销一下,日常技术栈:flutter 、rust 、full 前端,win 、移动端均有涉猎,win 为主。如果有老板有需要这种配合的可以联系我,eTI1MzgzNDA5MzQ=

最近中转站爆发,天天一堆新开的站,基本都能注册免费送些额度。

那我搭建一个 CPA 服务,配置上中转站领取的 api 和 key 。
再搞一个监控服务(我记得 V 站有人发过这类工具),盯着 V 站或其他论坛帖子,有鸡蛋可领取就提醒。岂不是可以天天领鸡蛋,大模型天天免费用,我觉得还是可行的。

如果在实现自动注册,自动领鸡蛋,自动配置 CPA ,就更好了,各位大佬觉得有没有搞头?

相信一直关注 Apache Flink 生态的朋友,最近都注意到了 Flink Agents 引发的热议。这是一个全新的Apache Flink子项目,旨在提供一个开源的Agent框架,用于构建事件驱动的流式 Agent。

最近,Flink Agents 发布了 0.2.1 版本,并展示了一个基于该框架构建的 Flink 作业智能运维 Agent,充分展现了其在事件驱动领域的潜力。但更令人兴奋的是,社区已经启动了 0.3 版本的规划讨论,其中涉及的不少功能让我倍感期待。

为此,我深入研究了 github 上的讨论、issues 和 PRs,整理了 0.3 的Roadmap,希望能帮助感兴趣的开发者了解发展方向并参与其中。

Roadmap

根据社区讨论,Code Freeze日期为2026年5月31日,预期发布时间为6月15日。尽管实际的发布时间可能会有所调整,但目前规划中的关键特性包括:

  • Agent Skills 集成
  • 基于 Mem0 的长期记忆后端
  • 支持事件日志按类型配置日志级别
  • 支持工具调用的参数注入
  • 支持跨语言 Action & Events
  • Quickstart 体验增强
  • 优化事件日志显示
  • 支持跨语言资源的异步执行
  • Durable Excution增强
  • 支持 Python 3.12

部分功能不只是停留在讨论阶段,已经有社区贡献者提交设计方案或者代码实现:

为何我对这些功能充满期待

列表虽长,我对于其中的几个功能尤为关注。

Agent Skills 集成

Agent Skills 作为一种轻量级开放格式,旨在用专业知识和工作流扩展 AI Agent 能力,正被越来越多的产品采纳。以 OpenClaw 为例,我相信很多人都已经尝试过“养小龙虾”。在我看来,OpenClaw能够取得如此成功的一个重要原因就是对 Agent Skills 的支持。一方面,Skills 让工作流更稳定高效;另一方面,用户可以轻松获取组织内或互联网上提供的Skills,从而扩展自己的Agent的能力。

如果你看过 Flink Agents 最近发布的Flink作业智能运维 Demo,会发现其概念与 Agent Skills 惊人相似:利用 LLM 生成问题描述,从向量库检索 SOP,再按照SOP执行操作。这本质上和LLM 基于上下文识别关联Skill并根据Skill执行是类似的。但相比 RAG,Agent Skills更轻量。在Flink  0.3 发布后,我想感兴趣的开发者可以利用Agent Skills 重构该 Demo。

社区已发布集成提案:https://github.com/apache/flink-agents/discussions/565。目前看来,其渐进式披露机制的实现与其他框架类似。真正的区别在于 Flink Agents 作为基于 Flink 的分布式框架,如何支持在 yarn 或 k8s 集群中提供和分发 Skills,是一个值得深思的工程挑战。

Mem0 长期记忆后端

长期记忆是 Agent 上下文管理的关键,尤其是对于 7 * 24小时连续运行、不断消费事件的 Agent,而这正式Flink Agents的目标场景。在0.2 版本中,Flink Agents已原生支持长期记忆及一个粗糙的自动压缩机制。

实际上,这个功能正是我开发的。在实现过程中我意识到,长期记忆管理(尤其是压缩)极其复杂。在 Flink Agents内从零构建成熟方案挑战巨大。此外,流式Agent 和对话Agent对长期记忆管理的需求差异不大。因此,我调研了其他Agent框架的实现,以及一些专门的记忆管理框架,最终选择了 Mem0。

Mem0是专为 AI Agent 设计的智能记忆层。通过支持 Mem0 作为后端,我们可以基于开源生态,提供更成熟易用的记忆管理能力,避免重复造轮子。

持久执行增强

基于 Flink 构建,Flink Agents 的天然优势就是容错。Flink基于 Chandy-Lamport 算法实现了检查点机制,允许从 Checkpoint 恢复而无需从头重新消费数据。

但问题在于对Agent而言,仅靠Checkpoint恢复不够。从Checkpoint恢复,会导致该Checkpoint后已经处理过的事件被重新消费,由于 Agent 频繁调用外部模型和执行动作,这可能造成重复调用和重复执行动作。LLM 调用成本高,重复执行操作可能有副作用。因此,Flink Agents一直在容错上进行增强:

  • 0.1 引入了 Action 粒度的一致性,利用 Action Store 避免恢复时重放已执行的Action。
  • 0.2 提供了Durable Execution接口。用户可利用该接口提交代码片段,框架会记录代码片段的返回结果。恢复时若片段已执行完毕则无需重跑,进一步缩小了不一致范围。

但是问题仍然是存在的,若代码片段在恢复前已开始执行但尚未完成,恢复后仍会被重新执行。由于代码片段可能涉及和外部系统的交互,如调用LLM服务、读写向量数据库,仅靠 Flink Agents 无法保证端到端精确一次(Exactly-Once)语义。这与 Flink Sink 是类似的:系统内保证精确一次语义,端到端一致性依赖下游外部系统支持幂等或两阶段提交。

Flink Agents 要如何解决这一问题?这仍是开放问题,但一种可能方案是提供 Hook 或回调 API。这将赋予用户根据业务场景自定义逻辑的能力。例如,若外部服务支持幂等,可配置直接重试;或先查询状态再决定。通过这种灵活性,Flink Agents 能更好适应真实世界的可靠性需求。

事件日志增强

可观测性对生产级产品至关重要,排查过线上故障的朋友对此应该深有体会。对 Agent 框架而言,由于 LLM 的不确定性,可观测性尤为重要。

Flink Agents 基于事件进行Agent的编排,并支持生成事件日志和在Flink Web UI中展示。通过日志,用户可深入了解Agent的执行过程。根据我排查 Flink Agents 问题的经验,事件日志确实很有帮助。在最近发布的Flink作业智能运维 Demo 中,你也可以看到日志如何帮助我们确认 Agent 行为。

但要真正生产就绪,我认为需继续提升事件日志的易用性。0.3 计划了几项关键增强:

  • 日志可读性:当前日志格式对人不够友好,0.3 将支持格式配置。
  • 可配置日志级别:对于复杂 Agent,用户可能只关心部分事件。0.3 将支持按事件类型配置日志级别,灵活满足需求。
  • 结构化查询:随着 Agent 持续运行,日志不断累积。支持结构化查询将帮助用户更高效定位信息。

我对Flink Agents的 0.3 版本充满期待。因为这不仅仅是功能的新增,更是意味着通过整合这些能力,我们有机会打造一个真正生产级的事件驱动的流式Agent 框架。

附录

2026年4月17—19日,第五届中国三维视觉大会(China3DV 2026) 将在杭州国际博览中心隆重召开。作为国内三维视觉领域最高规格的学术研讨盛会,本次大会由中国图象图形学学会(CSIG)主办、CSIG三维视觉专委会承办,会议聚焦三维重建、三维生成、时空重建与世界模型、具身智能、人形机器人等前沿方向,打造集主旨报告、专题论坛、Poster展示、Live Demo、学者面对面于一体的学术盛宴。

作为本次大会的重要生态伙伴,大模型实验室(lab4ai.cn) 以其强大的普惠算力、开箱即用的开发环境、创新的科研辅助工具,为这场视觉盛宴提供了坚实的算力支撑与效率革新。

算力+全流程工具,承包你的参会科研需求

China3DV 2026 议题覆盖了从三维重建、三维生成到具身智能、人形机器人等前沿领域。这些前沿研究往往伴随着巨大的算力需求。Lab4AI大模型实验室正是为解决此类痛点而生,社区提供的 H800 等高端GPU算力资源,能够完美匹配China3DV参会者在大规模模型训练与推理时的严苛需求,确保复杂的三维视觉算法能够高效运行。

全流程赋能:从“参会”到“落地”的科研加速器

三维视觉前沿研究离不开强大算力支撑,更需要高效工具赋能。Lab4AI社区精准匹配参会者核心需求,从算力到科研工具,全方位破解科研痛点、提升参会效率。

1. 开箱即用,加速技术复现

在“大咖面对面”“Poster交流”等需要快速验证灵感、推进研究设计与实验实施的环节,Lab4AI实现自动化论文复现与高效实验落地,其预置了多种主流开发工具,参会者无需携带昂贵的硬件设备,只需通过云端实例,即可在会议现场一键部署复杂的3DV项目,实现“灵感-代码-结果”的极速闭环。

2. OpenClaw Agent:科研人员的“超级外脑”

Lab4AI提供的文档材料专家与自动化AI实验能力集成的OpenClaw科研专家Agent,作为科研人员的“超级外脑”,可辅助参会者完成综述撰写——快速梳理三维视觉领域的最新顶会论文,为选题立项提供有力支撑;可实现自动化AI实验——针对三维生成任务,自动化、智能化进行超参数调优与训练监控,优化研究设计、提升实验实施效率;还可提供论文写作辅助,帮助参会者在会议期间整理思路,辅助撰写会议纪要或论文初稿,助力论文撰写高效推进。

集成OpenClaw科研专家Agent,可快速梳理三维视觉领域顶会论文、自动化完成超参数调优与训练监控,还能辅助撰写会议纪要、论文初稿,助力参会者高效推进科研工作。

3. 低成本的高性能算力支持

Lab4AI大模型实验室提供云端GPU算力支持,其采用弹性算力与按需计费模式,极大降低了科研投入成本,结合会议期间的交流需求,团队可通过实验室的“子母账号”功能进行统一管理和费用分摊,让科研资源分配更加透明高效,为全链路科研工作的顺利推进提供坚实的算力保障。

课程+权威竞赛,助力青年学者快速成长

除了核心的算力与科研工具支持,Lab4AI社区还为参会者(尤其是青年学者与学生)准备了专属成长福利,打造集学、练、赛于一体的成长平台。

AI课程

采用“理论+云端实操”模式,配套可运行代码、数据集与实战手册,实现“学完即练、练完即用”。参会者可直接调用社区后台算力,完成3D模型训练、推理与部署,快速提升工程实践能力,补齐学练脱节短板。

权威竞赛合作支撑

AI 竞赛板块聚焦 AI 前沿赛道与新材料交叉竞技场景,依托高并发算力集群,以 “汇聚优质赛事、提供硬核支撑、打造竞技生态” 为核心,助力科研人员与技术爱好者以赛促学、以赛促研,加速 AI 技术在新材料领域的创新落地。

目前,Lab4AI大模型实验室已联合CSIG、PRCV等顶尖学术机构和众多985、211高校联合举办AI赛事,开设官方推荐赛道,保障赛事权威性与专业性,为参赛选手提供高规格竞技平台。

生态协同:推动三维视觉产学研深度融合

本次亮相China3DV 2026,Lab4AI旨在以算力为纽带、以平台为载体,打通三维视觉“科研论文→算法复现→模型训练→竞赛验证→产业落地”全链条,也期待与所有参会者一道,推动三维视觉技术更快走向实用化、规模化!

两千多年前,孔子提出了“因材施教”,这至今仍是教育的终极理想。但在现实的教育场景中,一个老师面对几十个甚至上百个学生,备课找素材到半夜,上课顾不上每个人的反应,下课批作业批到眼花。在巨大的工作量下,“因材施教”往往变成了齐步走的“流水线作业”。
ai数智教学管理系统,正是要打破这一困局。它绝不仅仅是一个用来发通知、交作业的电子化工具,而是一位懂知识、懂学生、懂管理的“超级助教”。它利用人工智能技术,深度介入“备、教、练、评、管”的全链路,把老师从繁杂的重复劳动中解放出来,让个性化教育真正成为可能。
那么,这位“超级助教”是如何工作的?其背后有哪些核心技术支撑?
第一项核心能力:化身“超级备课机”——大语言模型与RAG技术
写教案、做PPT、找最新素材,是压在老师身上的三座大山。现在,AI可以帮你“写”出来。
技术实现:系统深度融合了大语言模型(LLM),并采用了RAG(检索增强生成)技术。系统预先接入了学校的自有题库、教材库和前沿学术文献。当老师输入“帮我设计一堂关于牛顿定律的互动课”时,AI不会像普通ChatGPT那样凭空捏造,而是先在学校的专属知识库里精准检索权威资料,然后再生成结构化的教案和PPT大纲。这保证了教学内容既创新又严谨,老师只需做“选择题”和“微调”,备课效率能提升数倍。
第二项核心能力:练就“课堂透视眼”——多模态数据与计算机视觉(CV)
一堂课讲得好不好,以前只能凭老师的经验“感觉”。学生到底听懂了没有?没人知道。
技术实现:系统集成了计算机视觉(CV)与多模态分析技术。在保护隐私的前提下,教室的智能终端会实时捕捉学生的面部表情、肢体动作(如点头、皱眉、记笔记)以及语音互动。AI通过行为识别算法,将这些非结构化的画面转化为结构化的数据,实时生成全班的“专注度曲线”和“知识吸收热力图”。当发现某个知识点对应的“困惑指数”飙升时,系统会在讲台上给老师悄悄发个提示,提醒“这里需要再讲一遍”。
第三项核心能力:打造“精准滴灌器”——知识图谱与自适应学习算法
传统的题海战术,是对学生时间的巨大浪费。好学生做简单的题无聊,差学生做难的题受挫。AI要实现的是“千人千面”的作业。
技术实现:系统构建了庞大的学科知识图谱,将每个知识点细化为颗粒度极细的网状结构。通过OCR(光学字符识别)和NLP(自然语言处理)技术,AI能自动批改学生的纸质作业和主观题。最核心的是自适应推荐算法,AI会根据学生的错题,顺着知识图谱往上“顺藤摸瓜”,精准定位他的“薄弱根源”。比如,一道几何题做错,AI能判断出不是计算问题,而是对“辅助线”的底层逻辑没掌握,从而自动推送针对性的微课和变式题,彻底告别无效刷题。
第四项核心能力:构建“数据驾驶舱”——知识追踪与学情预警
对于校长和教务处来说,教学质量不能是一笔糊涂账。期末看成绩太晚了,需要过程管理。
技术实现:系统底层运用了知识追踪模型。它能基于学生日常的作业、课堂互动、测验数据,动态预测该学生未来在期末考试中的表现趋势。当某个班级或某个学生的“掉队概率”超过设定阈值时,系统会自动向管理者或班主任触发学情预警。管理者打开“数据驾驶舱”,能清晰看到各学科的知识掌握进度、教师的教学效能指标,让教学管理从“经验驱动”变成了“数据驱动”。
总结来说,ai数智教学管理系统,是将大模型、知识图谱与多模态技术深度融合的产物。
它把冰冷的分数变成了鲜活的学情画像,把机械的劳作变成了智慧的启迪。它不替代老师的“教”,而是放大老师的“爱”。这,正是技术赋能教育,回归育人本质的核心引擎。

DeepSeek 启动首次外部融资:机构人士:完全投不进去;字节否认近亿年薪挖 DeepSeek 核心研究员,但不排除收益可达数亿;宇树 H1 打破人类 1500 米世界纪录;中国团队 EvoMap 指控硅谷明星 AI 项目抄袭,Hermes Agent 两度否认;员工中 1500 万元彩票大奖后离职?科大讯飞回应;苹果将 200 名 Siri 工程师送进 AI 训练营,结束后只留 60 人做核心开发;CEO 亲自上阵写代码,消息称扎克伯格将工位搬进 Meta AI 团队;马斯克版“微信”未正式发布,盗版冲上苹果免费榜第二;Meta 将裁员 8000 人;Claude 要求部分用户上传身份证件;OpenAI Sora 负责人宣布离职,此前已痛失三员大将;GLM Coding Plan 全球热销,海外用户“反向海淘”国产 AI……

 

行业热点

 

曝 DeepSeek V4 将于本周发布,梁文锋启动首次外部融资

 

4 月 19 日,普林斯顿人工智能实验室研究院 Yifan Zhang 在社交平台发布了一条“V4 下周”的隐晦内容,此举引发市场对于 DeepSeek V4 大模型发布的推测,被认为是 DeepSeek 提前发布预热,同时印证了 DeepSeek V4 将于 4 月下旬发布的消息。资料显示,Yifan Zhang 系普林斯顿大学博士、普林斯顿人工智能实验室研究员,技术领域涵盖大语言模型推理与强化学习、语言建模与预训练,曾任职于字节跳动 Seed 团队。

 

4 月 18 日,据澎湃新闻报道,DeepSeek 确实正在开启其首次外部融资。此前据外媒报道,DeepSeek 目标估值超过 100 亿美元,已开始与投资人接触,计划融资至少 3 亿美元以补充资金储备,应对成本日益高昂的 AI 军备大赛。

 

据多位知情人士透露,DeepSeek 已开始与投资人接触,计划融资至少 3 亿美元(约合人民币 20.5 亿元),以补充资金储备,应对 AI 大模型研发日益高昂的成本竞争。如果本轮融资落地,DeepSeek 将首次引入外部资本,也意味着其长期坚持的“自我供血”模式出现转变。

 

某大型国资股权机构人士表示,“有渠道反馈,DeepSeek 正启动首次外部融资的消息很有可能属实,目前完全投不进去。”在去年 DeepSeek-R1 成为席卷全球的神话之前,没有一家 VC(风投机构)成功地投进这家公司。

 

有大型创投机构人士向中国证券报表示,目前尚未掌握 DeepSeek 启动首次外部融资的相关一手信息。不过,按照创投界的行业惯例,一家科创企业启动融资的早中期,一般相关消息会仅限于与该企业接触的核心机构;对于类似 DeepSeek 的顶级科技企业而言,情况预计也会类似。“对于 DeepSeek 这种热门融资项目而言,份额一般都要抢”。该创投机构人士称。

 

截至目前,DeepSeek 尚未就此次融资消息作出官方回应。据悉,DeepSeek 创始人梁文锋,在 2023 年公司成立的第一天就划了一条红线:不接受外部融资,不稀释股权,不被任何人的商业化时间表绑架。他被认为是技术理想主义者,担心外部投资者干预公司决策。三年后的今天,这条红线消失了。一位投资过大模型的投资人表示,即便 DeepSeek 开放融资,也并非大多数人的游戏,而且按照梁文锋的想法,相关条款一定会异常严苛。对于这次融资转向,该投资人判断,大概率是为了给员工期权定价和兑现,并且“做得太晚了”。

 

另外,DeepSeek 近期发布全新招聘岗位,岗位为数据中心高级运维工程师、数据中心高级交付经理,月薪最高达 30000 元。这是 DeepSeek 首次公开招聘直接负责计算基础设施运营的实地岗位,标志着 DeepSeek 正式从纯算法研发,延伸至物理算力基础设施的自建与运营。

 

而 DeepSeek 自建数据中心的第一步,就选择了乌兰察布。其作为内蒙古算力集群的核心组成部分,也是国家“东数西算”工程八大枢纽节点之一。截至 2025 年底,内蒙古全区算力总规模达到 23.7 万 P,其中智算占比超过 92%,位居全国第一。全国每新增 10P 智能算力,就有超过 9P 落在这片草原上。更关键的是,这里已是算力巨头的聚集地。华为云早在 2013 年入驻,阿里云计划总投资超 100 亿元。这个成熟的产业生态,已将 DeepSeek 自建数据中心的门槛和风险降到了最低。

 

字节否认近亿年薪挖 DeepSeek 核心研究员,但不排除收益可达数亿

 

4 月 15 日消息,有媒体报道,近日 DeepSeek 的核心研究员、R1 与 V3 系列模型的主要作者之一郭达雅或已正式入职字节跳动,近亿元年薪,继续负责模型研发工作。早前,图灵联合创始人刘江在 X 上也证实,郭达雅已加入字节跳动。上个月,郭达雅正式从 DeepSeek 离职,字节、阿里、百度等大厂均被传出接触这位 90 后大佬。如今,郭达雅新东家已定,但 DeepSeek 一直没有发布期待已久的 V4 模型,外界猜测可能会在本月发布 DeepSeek V4 模型。

 

针对 DeepSeek 95 后研究员郭达雅近亿元年薪入职字节的报道,抖音集团副总裁李亮发文称报道不实,字节跳动招聘的所有 Seed 团队技术人员薪资体系相同,包括现金、字节期权和豆包期权,期权四年期全部归属,近期未招聘到近亿元年薪员工,若业务发展好,不排除部分 Seed 技术人员四年后收益达数亿元。

 

即便在牛人辈出的 DeepSeek,郭达雅的名字也带有某种“扫地僧”色彩。根据公开信息,郭达雅本科与博士均就读于中山大学,师从人工智能学院印鉴教授,并由前微软亚洲研究院(MSRA)副院长周明博士联合培养。这位曾在腾讯广告算法大赛蝉联冠军、被调侃“还没毕业就赚够百万奖金”的天才,在 DeepSeek 期间填补了最核心的两块技术版图:代码智能、纯强化学习(RL)的拓荒。

 

另外,字节 Seed 团队也发布了 Seedance 2.0 技术论文,展示多模态视频生成模型核心能力与评测结果,其中 171 人署名,吴永辉、曾妍在列。

 

此外,本周字节发布内部邮件启动最新一轮期权回购,在职员工回购价 229.5 美元 / 股(约人民币 1588 元),离职员工 201.96 美元 / 股(约人民币 1397 元)。上一轮回购时间为 2025 年 10 月,当时在职员工回购价 200.41 美元,离职员工 180.37 美元,此次在职员工回购价比上一轮提升约 14.5%。

 

荣耀机器人包揽半马冠亚季军,宇树:H1 打破人类 1500 米世界纪录

 

今天,北京亦庄半程马拉松暨人形机器人半程马拉松(北京亦庄机器人半马)开跑,105 支人形机器人队伍与真人同期参赛,开赛不到 50 分钟,齐天大圣队的“闪电”机器人凭借 50 分 26 秒(净用时)的成绩(人类半程马拉松世界纪录为 56 分 42 秒)获得冠军。

 

荣耀人形机器人“闪电”,身高 169cm,外观采用潮酷机甲风设计,兼顾空气动力学与视觉冲击力,核心竞争力是速度与爆发力,此次参赛的机型包括自主导航和遥控操作两款。其中,自主导航款机器人具备自主感知导航能力,搭载自研高动态运动系统,有高速奔跑与强地形通过适应能力,在运动中表现稳定、响应迅捷,且整机动力强劲、续航持久,在运动场景下还能通过灯带与标志性交互动作等和人进行实时互动反馈。其团队的研发地点主要包括北京、上海和深圳。

 

在冲刺终点的最后 100 米,夺冠热门宇树 H1 突然踉跄倒地,被工作人员用担架抬离赛道的画面引发全网热议。宇树 H1 在终点前突发姿态失控摇晃跌倒,首次尝试起身失败后二次摔倒,最终被工作人员用担架紧急抬离赛道。这一拟人化场景被网友调侃为“跑趴了”“扶我起来还能再跑 10 公里”。

另外,宇树科技今天发文表示,16 号北京人形机器人马拉松排位赛上,宇树 H1(23 年改版)自主跑完 1.9 公里多弯道赛程,用时 4 分 13 秒,打破人类 1500 米世界纪录(按比例计算)。

钉钉创始人兼 CEO 陈航:公司全员禁止写文档

 

钉钉创始人兼 CEO 陈航近日参加活动中表示,如果公司里面还有人天天写文档,以写文档自居,这个公司一定是过去式。他提到,公司现在一千四五百人,严禁写文档。“只要被我看到这个文档是人写的,我肯定批评。不准写文档现在我们的基本原则,开会不准做笔记,会议纪要、后续会议跟进,全是 AI。”

 

“讨论问题只准用白板,在板上随随便画,随便写,因为这是人类最自然的沟通方式。沟通完之后拍张照片全部结束,墙上照片和过程对话的语音,AI 全自动分析、自动总结,变成会议纪要,后续跟进。”所以,陈航强调,“没有再写文档的时代了,用 Microsoft office 写文档很牛的时代都结束了。”

 

中国团队 EvoMap 指控硅谷明星 AI 项目抄袭,Hermes Agent 三度否认

 

4 月 15 日,中国 AI 团队 EvoMap 公开表示,硅谷明星 AI 项目 Hermes Agent 核心自进化能力,系对其 Evolver 引擎的系统性复刻,后者态度两次回应均否认。

 

在 EvoMap 发布的技术报告中,其以 GitHub 公开时间戳、源码结构、架构设计、术语体系、进化循环等可交叉验证的证据链,直指 Hermes Agent 自进化模块与 Evolver 引擎高度同构。争议的核心指向自进化架构的来源归属。EvoMap 给出清晰且可核验的时间线:

 

2 月 1 日,Evolver 开源并公开 GEP 核心设计;

2 月 16 日,团队发布 GEP 深度解析,完整披露 Scan-Select-Mutate-Validate-Solidify 主循环与三级记忆体系;

2 月 25 日,Hermes Agent 发布 v0.1.0,定位为初始基础版本;

3 月 9 日,Hermes Agent 专门创建自进化独立仓库;

3 月 12 日,Hermes Agent v0.2.0 推出技能生态系统,核心自进化功能正式上线。

 

从核心架构公开到 Hermes 对应功能上线,时间差仅 24 至 39 天,这一时间窗口成为 EvoMap 指控的关键依据。双方均采用任务完成后自动提取可复用经验的闭环,均设置周期性自我评估与反射机制,均实现技能运行时发现与按需加载。

 

关键的是,Evolver 的 10 步进化主循环,与 Hermes 自进化模块的 10 步执行流程一一对应,同时存在 12 组核心术语的系统性替换,如 Gene 对应 SKILL.md、Capsule 对应技能执行记录、solidify 对应 skill_manage (create)等。而在 Hermes 全部 7 份公开材料中,对先行开源的 Evolver 与 GEP 协议零引用、零致谢、零归属。

EvoMap 列出的基于 GitHub 仓库元数据和官方发布记录

 

EvoMap 表示,在最初的两个多月里,团队把最核心的 GEP 协议、三层记忆体系、周期性反射循环,全部坦诚地抛给了社区。“因为我们觉得,在这个 AI 狂奔的时代,透明和开放是我们能做出的最酷的姿态。我们没有藏着掖着,把底牌都摆在了桌面上。但现实给我们上了一课。”

 

面对详实指控,Hermes Agent 所属实验室 Nous Research 先后两次表态。首次回应由官方账号发出,称其项目仓库于 2025 年 7 月已创建,自诩为现代 Agent 框架底层技术先驱,并要求 EvoMap“删除账号”,随后删帖并拉黑对方成员。

 

第二次回应来自 Nous 联合创始人 Teknium,他表示,“我这辈子从来没有听说过这个人、他的项目,或者他正在做的任何事情。今天是我第一次听说或看到这个项目。毫无证据地声称我剽窃了他们的作品,这是谎言。”

 

Hermes 方的反驳逻辑有二:一是仓库创建时间早于 Evolver,证明技术先发;二是底层依赖学术开源项目,架构设计系独立收敛。

 

EvoMap 随即指出,Hermes 仓库虽较早建立,但长期私有,2 月底才公开基础版本,被质疑的自进化能力直至 3 月中旬才完整推出,所谓先发优势无法覆盖争议功能;而 GEPA 与 GEP 分属优化算法与进化协议,不能解释上层架构、循环流程、记忆体系的高度重合。

 

员工中 1500 万元彩票大奖后离职?科大讯飞回应

连日来,科大讯飞一名员工中奖 1500 万元彩票后辞职的消息在多个社交平台受到关注。4 月 13 日,科大讯飞官方微博就此事作出回应称:“如果真有同事这么幸运,我们真心为他高兴。”14 日,科大讯飞一位相关工作人员表示,曾就此事特意在内部问过,但确实不清楚是否有人中奖。

 

据多家媒体的报道,网上流传的相关截图显示,有人称中奖 1500 万元是真的,该员工中奖后立马辞职了。还有人称中奖金额是 1000 万元,也有人说是 1500 万元。还有人提到,中奖人是一名外包员工。

 

真有员工中奖后辞职了?13 日下午,科大讯飞公司通过微博表示:“我们关注到网传我公司员工中奖的相关信息。如果真有同事这么幸运,我们真心为他高兴。比起可遇不可求的运气,我们更在意为每位伙伴提供‘看得见、摸得着'的保障,那就是一份有竞争力的薪酬,一个持续成长的空间,一套安心的福利支持。相信美好的事情总会发生!”

 

苹果将 200 名 Siri 工程师送进 AI 训练营,结束后只留 60 人做核心开发

 

4 月 16 日消息,据报道,苹果为追赶 AI 竞争对手,安排近 200 名 Siri 工程师参加为期数周的 AI 编程训练营,系统学习使用 Anthropic Claude Code 等 AI 辅助开发工具。报道指出,训练结束后这批工程师中仅保留 60 人作为核心开发团队,另外 60 人负责评估虚拟助手的性能表现,其余人员转岗。

 

CEO 亲自上阵写代码,消息称扎克伯格将工位搬进 Meta AI 团队

 

4 月 15 日消息,据报道,Meta CEO 马克·扎克伯格正以更直接的方式参与 AI 竞赛 —— 甚至把办公桌搬进了 AI 团队。扎克伯格已将办公地点调整至 AI 实验室,与汪滔和纳特·弗里德曼一同办公,并重新开始编写代码。

 

Meta 总裁迪娜·鲍威尔·麦考密克在华盛顿举行的 Semafor 世界经济峰会上表示,“马克确实把办公桌搬到了 AI 实验室,和汪滔、纳特·弗里德曼坐在一起,而且整天都在写代码。一方面,他们可能会觉得,‘太好了,你又来给建议了,马克,而且还是在写代码的时候。’我认为,他非常坚定地觉得,必须以这种深度去理解,才能思考如何让模型达到最佳状态。”

 

此前报道显示,扎克伯格不仅每周亲自编写 5 至 10 小时代码,还训练了一个以自身为原型的 AI 数字分身,用于替代本人与员工实时互动。该 AI 角色基于扎克伯格的图像、声音、语气风格及战略思维进行训练,目前仍处于早期阶段,旨在让员工通过与数字分身互动,增强与创始人的连接。此外,一个独立的“CEO 智能体”项目也在同步推进,用于协助扎克伯格处理日常信息检索等事务。

 

马斯克版“微信”未正式发布,盗版冲上苹果免费榜第二

 

4 月 14 日,伊隆·马斯克旗下 XChat 独立消息应用上周末登陆苹果 App Store 进行预约,4 月 17 日正式推出。这款被外界视为“西方版微信”的应用,主打端到端加密、无广告及无追踪,旨在构建集聊天、支付、AI 于一体的超级应用生态。XChat 无需手机号注册,支持音视频通话、阅后即焚及防截图,并深度集成了 AI 助手 Grok。然而,尽管马斯克宣称其采用“比特币式加密”,但安全专家指出其缺乏第三方独立审计,且隐私标签显示仍会收集用户数据,安全性受到质疑。能否在 WhatsApp 等巨头林立的市场中突围并兑现隐私承诺,将是 XChat 面临的最大挑战。

 

这一消息一出,关于“马斯克版微信”的讨论瞬间引爆各个社交平台,甚至让盗版“XChat App”直接冲到了苹果 App Store 国区应用商店免费榜第二,仅次于豆包。这款名为“XChat App”的应用详情页发现,这款应用同样是主打隐私,应用介绍和更新日志都是俄语,宣称是一款免费应用和安全消息传递工具,每 30 天自动删除所有用户的聊天记录,且不提供截图功能和麦克风、摄像头的访问权限。

 

Meta 将裁员 8000 人

 

三位知情人士称,Meta Platforms 计划于 5 月 20 日实施今年首轮大规模裁员,将裁减约 10% 的全球员工(约 8000 人),后续还会进一步裁员,具体时间和规模未敲定,管理层或根据人工智能能力发展调整计划。此次裁员将是该公司自 2022 年底至 2023 年初「效率之年」重组以来规模最大的一次,当时裁减约 2.1 万个岗位。目前公司财务状况更稳健,管理层设想通过人工智能辅助员工实现更少管理层级和更高效率,截至去年 12 月 31 日,Meta 有约 7.9 万名员工。

 

Claude 要求部分用户上传身份证件

 

Anthropic 于当地时间 4 月 14 日发布公告,称正在为 Claude 的一些用例推出身份验证。Claude 是其构建的大型语言模型,用户访问某些功能时可能看到验证提示,这是平台完整性检查等安全合规措施的一部分,验证数据仅用于确认身份。

 

Anthropic 选择 Persona Identities 作为验证合作伙伴,用户需准备有效政府颁发的带照片身份证件、带摄像头的手机或电脑及几分钟时间,接受大多数国家原始实体政府颁发的带照片身份证件,不接受复印件等多种类型证件。账户验证后可能因重复违反使用政策、从不支持位置创建账户、违反服务条款、18 岁以下使用等原因被禁用。此外,Anthropic 不使用身份数据训练模型,不收集超量信息,不与他人分享身份数据(法律要求响应有效法律程序除外)。

OpenAI Sora 负责人宣布离职,此前已痛失三员大将

 

当地时间 4 月 17 日,OpenAI 视频生成平台 Sora 负责人比尔・皮布尔斯宣布离职,此次人事变动发生在公司调整产品与研究重心、减少「支线项目」、将资源投向编程与企业应用方向的背景下。此前 OpenAI 已宣布放弃视频生成工具 Sora,皮布尔斯离职被视为聚焦主线业务之举。此外,负责科学 AI 的副总裁凯文・韦尔也将离职,其团队将并入其他研究团队,他负责的科研平台 Prism 将关闭,能力将整合进 Codex 桌面应用。这一系列调整反映出 OpenAI 近期在组织与产品层面进行资源再分配,优先推进编程相关产品与企业应用落地。

 

4 月 13 日消息,OpenAI 星门项目的三位核心负责人集体跳槽 Meta,算力基建团队遭遇重创。离职的三位高管分别是彼得·赫舍勒、沙梅兹·赫马尼和阿努杰·萨哈兰。三人均参与过星门项目的关键建设,专攻大规模 AI 数据中心的设计、部署与能效优化。Meta 今年在 AI 基础设施上的投入达到千亿美元级别。2026 年资本支出上限为 1350 亿美元,其中超过 60%砸向 AI 数据中心建设、定制芯片研发和分布式算力网络。

 

GLM Coding Plan 全球热销,海外用户“反向海淘”国产 AI

 

4 月 14 日消息,国产 AI 模型 GLM-5.1 上线后能力跃升,引发全球开发者抢购热潮。伴随智能水平提升与算力紧张,智谱旗下 GLM Coding Plan 的海外定价也做出了相应调整,现在三档分别是:Lite $18/月、Pro $72/月、Max $160/月,已逐步跟上国际一线模型的价格。但很快,海外用户发现中国版的 Coding Plan 更便宜,于是纷纷互相安利省钱小妙招——到中国版的网站上去买便宜的 GLM Coding Plan。据悉,诸多海外用户开始研究如何注册微信、绑定支付宝、通过中文验证码,甚至定闹钟抢购北京时间上午 10 点的放量。

 

此外,国内同样一码难求,每日秒光,闲鱼上已出现“代抢 GLM Coding Plan”服务,甚至有海外博主做起代购。据悉,X 上也已经出现了针对外国人的“代购产业”,有网友直接发推:“可以帮外国人代购 GLM,赚差价”。

 

从昔日中国开发者“翻墙”用 ChatGPT,到如今老外“翻墙”买国产 AI,角色互换背后,是 GLM-5.1 编程实力获得国际认可。正如一位网友所感慨的那句:“语言隔阂正在消失。一个帖子,连接全球。GLM 的影响力肉眼可见地在扩大。”国产 AI 正从追赶者变成全球开发者掐时差抢购的硬通货。

京东首推“机器人救护车”,支持上门维修

 

4 月 15 日,京东宣布正式推出“机器人救护车”,及“120”上门服务标准。为行业前沿的人形机器人、四足机器人、AI 陪伴机器人等提供专业维修保养服务,涵盖基础维修、故障诊断、换电补能、测试鉴定、美容保养、设备回收等全场景需求。目前京东“机器人救护车”已率先服务北京地区,未来三年,机器人上门维修服务还将拓展至全国超 50 个核心城市,机器人专业工程师规模将达到 1 万人以上。京东表示,“机器人救护车”已为参与 2026 北京亦庄半程马拉松的超 300 台机器人,在多场测试赛及日常训练中提供维修服务,多次修复故障、受损机器人并帮助他们重返训练场。

大模型一周大事

重磅发布

高阶编程能力提升,Anthropic 发布 Claude Opus 4.7 模型

 

4 月 16 日消息,Anthropic 发布了其最新人工智能模型 Claude Opus 4.7。新版本距上一次模型升级仅间隔两个月,与该公司此前的更新节奏保持一致。

 

Claude Opus 4.7 是 Anthropic 最新面向公众开放的 AI 模型,主打高端软件开发能力。相比 Opus 4.6,该版本在高级软件工程领域实现了显著提升,尤其在超高难度任务上进步突出。用户反馈称,如今可以放心地将此前需要严密人工把关的最复杂编码工作交给 Opus 4.7 处理。Opus 4.7 能够严谨、稳定地处理复杂且耗时较长的任务,精准理解指令,并会在输出结果前自行设计验证机制。Anthropic 表示,该模型视觉能力更强,创作审美更优,可产出更高质量的成果。模型的视觉能力同样大幅增强:支持更高分辨率的图像识别。在完成专业任务时更具审美与创造力,能够生成质量更出色的界面、幻灯片和文档。

 

详情可阅读:Opus 4.7 发布,Claude Code 之父传授使用心得:模型升级只是开始,开发方式才是关键

 

阿里 ATH 发布世界模型产品 Happy Oyster、AI 开发工具 Meoo

 

4 月 16 日消息,阿里巴巴 ATH 事业群推出开放式世界模型产品“Happy Oyster”,主打实时世界创建与交互。该产品可生成动态三维环境,支持影视制作、游戏开发等场景。其与 HappyHorse 同属 ATH 旗下 AI 创新事业部。目前已开启内测,用户可通过官网加入候补名单。Happy Oyster 基于原生多模态架构,其背后是支持多模态输入与音视频联合生成的流式生成世界模型。

 

详情可阅读:阿里“快乐马”团队再出手!正面叫板谷歌 Genie 3,世界模型 HappyOyster 来了

 

日前,阿里 ATH 还发布了旗下首款 AI 开发工具 Meoo(秒悟),该工具集成了千问、Kimi、GLM、MiniMax 四大顶尖模型,并内置阿里云数据库、存储等核心产品服务。用户无需任何编程基础,只需用自然语言描述想法,Meoo 最快 1 分钟就能自动生成前端后端完整的网站、H5 页面,并在阿里云上一键部署上线。例如,销售人员准备在节假日做促销活动,只需在 Meoo 上输入活动规则,几分钟就能生成一个精美的 H5 活动页,并能展示转化数据。

 

阿里千问 Qwen3.6-35B-A3B 开源发布:30 亿激活参数实现顶尖智能体编程能力

 

4 月 16 日消息,阿里千问大模型宣布开源 Qwen3.6-35B-A3B——一个稀疏但能力出色的混合专家(MoE)模型,总参数量为 350 亿,激活参数仅 30 亿。官方称,Qwen3.6-35B-A3B 不但轻量高效,而且在智能体编程方面表现卓越,大幅超越前代模型 Qwen3.5-35B-A3B,并可与 Qwen3.5-27B 和 Gemma4-31B 等稠密模型一较高下。该模型依然支持多模态思考与非思考模式,是当前最具通用性的开源模型之一。现在,Qwen3.6-35B-A3B 已在 Qwen Studio 上线,并以开源权重的形式向社区发布。

 

Google 推出 Gemini 3.1 Flash TTS 文本转语音模型、交互模拟功能

 

4 月 15 日,Google 宣布在其 Gemini 3.1 系列中推出一款全新的文字转语音模型 Gemini‑TTS,被官方描述为“至今最富表现力的文本转语音解决方案”。新模型能够生成听感自然、高保真的语音,同时允许开发者通过提示词控制语音的情感、节奏和风格,例如在旁白或对话中精确调节语气、停顿与情绪变化。

 

在多语言支持方面,Gemini‑TTS 覆盖约 70 种语言,包括中文(普通话)、英语、西班牙语、德语、日语等主流语言,模型可自动检测输入文本的语种,无须手动标注语言类型即可生成对应语音。这一能力使得开发者和企业可以在有声读物、播客、语音助手、客服机器人、教育应用等场景中,用一套统一的 API 为全球用户提供多语种语音内容。

 

Google 还强调,Gemini‑TTS 与 Gemini 3.1 系列的其他音频模型(如 Gemini 3.1 Flash Live)协同,进一步强化了“实时语音体验”的能力。在实时对话、语音翻译及多模态交互中,系统可以在保持低延迟的同时,通过文本提示和音频标记精细控制语音输出,让 AI 代理在电话、会议、导航等场景下更接近自然的人类语音交互。

 

日前,Gemini 还推出了交互式模拟生成功能,该功能允许用户在对话中直接将复杂问题转化为可操作的定制化视觉模型,实现从静态文本与图表向功能性动态模拟的跨越。当用户使用“show me”或“help me visualize”等指令探索复杂概念时,系统将生成相应的交互式模拟程序。以“月球绕地运行”为例,用户不再局限于观看固定示意图,而是能够通过手动调节滑块或输入精确数值,实时改变初始速度、引力强度等变量,直观观察不同参数对轨道状态的影响。这种即时交互机制显著提升了用户对复杂物理系统与逻辑的理解深度。

 

阶跃发布新一代语音生成模型 StepAudio 2.5 TTS

 

4 月 16 日,阶跃发布新一代语音生成模型 StepAudio 2.5 TTS。据介绍,该模型围绕全局语境控制、文中语境控制,以及零样本复刻与全音色控制等能力进行了升级,主要面向角色配音、有声内容创作、智能语音交互等场景。StepAudio 2.5 TTS 支持利用自然语言来进行合成控制。目前,StepAudio 2.5 TTS 已全量上线“阶跃星辰开放平台”和 Step Plan。

 

腾讯混元 3D 世界模型 2.0 发布并开源

 

4 月 16 日,混元 3D 世界模型 2.0(HY-World 2.0)正式发布并开源。HY-World 2.0 是一个多模态世界模型,能够根据文字、图片、视频等不同类型输入,自动生成、重建和模拟 3D 世界,同时支持多格式 3D 资产(Mesh/3DGS/点云等)导出,支持与现有的游戏工作流无缝对接,用于快速生成游戏地图和关卡原型。

字节 Seedance2.0 正式上线 API 服务,视频生成每秒仅需 1 元

 

4 月 14 日,字节跳动旗下火山引擎正式上线 Seedance 2.0 系列 API 服务,向企业及个人用户开放视频生成能力。该模型支持文字、图片、音频、视频四种模态输入,在复杂交互与运动场景下的可用率显著提升,更贴合工业级创作需求。为保障创作合规,火山引擎建立了涵盖全流程的肖像与版权安全标准,用户可通过控制台完成人脸验证与肖像授权,并可直接调用预置的超 1 万个高质量虚拟人像。

 

价格方面,Seedance 2.0 含视频输入的服务价格为 28 元/百万 tokens,不含视频输入的价格为 46 元/百万 tokens。据实测数据,生成一段 15 秒视频的单条成本约 15 元,折合每秒约 1 元。此前,该模型已应用于导演贾樟柯的贺岁短片创作中,展示了从“AI 感”到接近现实的人物生成效果。

 

MiniMax 宣布云端沙箱 Hermes“MaxHermes”上线

 

4 月 16 日,全球首个云端沙箱 Hermes——MaxHermes 已正式上线。据介绍,MaxHermes 是 MiniMax 基于 Hermes Agent 构建的云端自我进化 AI 助手。在独特的学习闭环机制下,每完成一项复杂任务,MaxHermes 会自动从中提炼出可复用的 Skills,保存为独立文档。在后续使用中,这些 Skills 会按需加载,并根据新的使用反馈不断自我改进。

 

腾讯云率先支持 Hermes Agent 云端快速部署

 

4 月 14 日,腾讯轻量应用服务器 Lighthouse 率先上线 Hermes Agent 专属应用模板,支持云端一键快速部署(企业级 ClawPro 产品也将在本周内支持)。和龙虾一样,Hermes Agent 也是今年发布后就迅速走红的开源项目,不到两个月即斩获 6 万+Stars。

 

Hermes Agent 更强调可成长性:它不仅具备更持久的记忆与更精准的回忆能力,还引入了完整的自我学习机制,能够在使用过程中自主创建与优化技能,在越用越聪明的方向上提供了一种可落地路径。但这也对部署方式提出了新的要求。Hermes Agent 官方强调其“不依赖本地设备”,支持在任意环境运行,并优先适配 Linux,这使其更适合云端长期运行。部署在云服务器后,Agent 与本地环境隔离,并具备 7×24 小时在线能力。通过企业微信等消息通道,即可实现持续交互与任务调用。

 

突破 20 万小时人类视频,智在无界发布下一代具身世界模型 Being-H0.7

 

4 月 14 日,BeingBeyond(智在无界)发布新一代具身世界模型 Being-H0.7,成为业内首个可端侧部署的商用世界模型。该模型基于国内现有最大规模 20 万小时人类视频,采用隐空间推理方式替代视频生成,首次在 75TOPS 的低成本端侧计算平台 Orin NX 上实时部署。Being-H0.7 在 6 项世界权威评测榜单中综合排名第一(其中 4 项登顶)。公司称,H0.7 实现了跨本体迁移和物理世界理解能力,目前已与多家国内具身本体企业建立合作关系。

 

菜鸟发布攀爬机器人 ZeeBot,实测智能化存取效率提升一倍

 

4 月 15 日,菜鸟集团在美国亚特兰大举行的 MODEX 2026 国际物流展上发布了首款自研的“攀爬机器人”ZeeBot,并确认首个由攀爬机器人智能作业的仓储项目已在广东省交付使用。实测数据显示,该技术使仓库存取效率提升了 100%。

 

企业应用

 

  • 4 月 16 日,华为云发布了自研龙虾办公智能体 OfficeClaw,支持多种智能办公场景,整理如下:快速生成专业 PPT、每日定时新闻推送、本地文件智能整理等,OfficeClaw 支持微信一键扫码直连,接入飞书、微信、钉钉、小艺等多平台;安全方面,OfficeClaw 内置工具调用安全护栏,高危操作需确认;敏感数据自动脱敏,全链路守护安全。

  • 4 月 15 日,Adobe 宣布推出一款全新的人工智能助手,旨在帮助用户在其照片、视频及数字内容编辑软件套件中执行各项任务,该助手还将与 Anthropic 的 Claude AI 模型进行集成。

  • 4 月 14 日,美团正式发布聚焦家庭健康管理的 AI 产品“小团健康管家”和全新付费会员服务“健康卡”。前者提供基础的问病问药、健康咨询服务,还支持家庭健康档案管理和体检报告智能解读。用户在对话中可跳转线上购药、在线问诊或预约线下就医。“健康卡”则提供超千款药品购药返现服务,其中原研药超过 300 款。

  • 4 月 13 日,百度智能云旗下 DuClaw 公布了新一轮升级,在此前打通小度硬件的基础上,进一步打通百度地图,用户现在通过 DuClaw 部署小龙虾,只需一条出行指令,就可同步调起小度与百度地图,完成包括日程查询,天气路况及出行规划建议,并通过小度硬件语音交互实时反馈给用户。

  • 4 月 13 日,荣耀正式发布其自研的终端侧“龙虾”AI 智能体——YOYO Claw,并宣布该技术将首发搭载于荣耀 MagicBook 系列轻薄本中。经荣耀实验室基于 PinchBench 测试集验证,荣耀 YOYO Claw 可以实现综合 tokens 消耗节省 50%,可降低用户使用龙虾类 AI 的长期使用成本。

网站被浏览器标「不安全」,99% 都是没装 SSL 证书、没开 HTTPS,按下面步骤一步步解决就行,一次讲全、不绕弯。

    • *

1. 先搞清楚为什么提示不安全

浏览器只认一个标准:

  • 用 HTTP → 标不安全
  • 用 HTTPS + 有效 SSL 证书 → 显示小锁、安全

常见原因:

  1. 根本没安装 SSL 证书
  2. SSL 证书过期了
  3. 证书域名不匹配(比如证书是a.com,网站是b.com
  4. 网站虽然开了 HTTPS,但里面引用了 HTTP 图片 / 脚本(混合内容报错
  5. 用了自签名证书,浏览器不认
    • *

2. 最快解决办法:申请并安装免费 SSL 证书

最常用、最稳定的是 Let’s Encrypt 免费证书,大部分主机 / 服务器都支持一键部署。

如果你用虚拟主机 / 宝塔面板

  1. 进主机管理后台或宝塔面板
  2. 找到「SSL/HTTPS」「网站安全」
  3. 选择 Let’s Encrypt 免费证书
  4. 申请 → 自动验证 → 自动部署
  5. 开启 强制 HTTPS/301 重定向

SSL证书https://www.joyssl.com/certificate/select/free.html?nid=7

如果你自己有服务器(Nginx/Apache)

  1. certbot 一键申请安装
  2. 配置证书路径
  3. 开启 80→443 重定向
  4. 重启服务即可

弄完后,浏览器就会出现小锁,不再提示不安全。

    • *

3. 装完证书还提示不安全?查这两点

① 强制全站 HTTPS

必须把所有访问从 http:// 跳转到 https://,否则老链接依然不安全。宝塔、主机后台一般都有 强制 HTTPS 开关,打开就行。

② 清理 “混合内容”

网站加载了 HTTP 的图片、JS、CSS,会导致:

  • 小锁变感叹号 / 三角
  • 依然提示不安全

解决:

  • 把所有资源链接改成 https:////(相对协议)
  • 在页面 head 加一句:

    html

    预览

    <meta http-equiv="Content-Security-Policy" content="upgrade-insecure-requests">
    • *

4. 多久能生效?

  • SSL 证书部署后 立刻生效
  • 浏览器缓存可能还显示旧状态:Ctrl+F5 强制刷新 即可
    • *

5. 最简单一句话总结

装一个免费 SSL 证书 → 开启强制 HTTPS → 刷新浏览器,不安全提示就消失了。

整理 | 华卫

 

第一批吃到 AI 时代红利的公司里,多邻国是可谓是其中的转型标杆。早在 2023 初,他们就宣布 All in AI,股价暴涨了 666%,涨幅甚至远超谷歌。2024 年,多邻国火速裁掉几千名合同工翻译,用 AI 取代了他们的工作,被辞退的都是他们的外部合同工,而不是内部正式员工。

 

然而,从去年 6 月到现在,在不到一年时间里,其股价急转直下、爆跌了 80%,当前市值甚至不到巅峰时期的零头。

 

期间发生了什么呢?最受轰动的是,多邻国联合创始人兼 CEO Luis von Ahn 在去年 5 月再次强调"AI-first"战略,并称计划用 AI 逐步取代承包商。当时消息一出,排山倒海的负面反馈向多邻国袭来。随之而来的,便是汹涌的用户退订潮。

 

“不管网上怎么传言,我们一次裁员都没做过。”Luis von Ahn 在近期的一场深度访谈中称。同时,他剖白了 AI 的真实局限、公司为何从不裁员以及股价暴跌 82% 却不后悔的心声,还直接盘点了哪些工作能在 AI 时代活下来。不仅如此,Luis von Ahn 讲述了公司内部应用 AI 的真实体验和考核方式,还有手下两个非程序员靠 AI 做出增长最快课程的“奇迹”。

 

以下是详细对话内容,我们在不改变原意的基础上进行了翻译和删减,以飨读者。

不强制员工用 AI,纳入绩效考核后又取消 

主持人:你之前跟团队说过,除非先证明 AI 能完成某项工作,否则不会录用新人,能跟我说说你具体是怎么落实这一点的吗?

 

Luis von Ahn:作为创始人,我们的目标是利用 AI 为用户创造价值。公司内部有一条黄金准则:我们只会用 AI 来帮助学习者。有些人可能会觉得,有些公司在裁员,让 AI 接手工作,但我们完全没有这么做。过去几年里,我们团队使用 AI 的能力有了显著提升,这也让我们能做更多事,推出更多学习内容等等。我们管理团队并不会刻意去追踪“你做的事 AI 能不能替代”,只是尽力让所有人借助 AI 尽可能提升工作效率,员工们也确实在这么做。

 

主持人:能举几个团队里的最佳实践案例吗?很多人可能会说,我的领导让我用 AI,但我完全不知道从何下手。

 

Luis von Ahn:这要看你的岗位是什么。我们大部分工程师的工作流程都发生了根本性改变,他们会使用 AI 编程工具;很多产品经理则会用 AI 制作产品原型。产品经理不用把完整功能落地到正式应用里,而是不用再拿着书面方案找我们,直接展示原型就可以了,这样能让决策更高效。如果有人拿着书面提案来找我,说“我有个更好的西班牙语教学方法”,我很难理解具体是什么;但如果他们直接给我看原型,我能直观看到效果,审批起来就容易多了。所以这还是和岗位息息相关。

 

主持人:你会给他们具体指导吗?比如告诉他们“别这么做,下次换种方式”,还是他们自己摸索出 AI 的用法?

 

Luis von Ahn:公司会做一些全员推广的举措。比如几个月前,我们专门安排了一天,让公司所有人都体验一次 vibe coding,不只是工程师,还有人力资源、财务部门的每一个人,让大家亲身感受 AI 的能力。我们也整理了很多最佳实践文档,而且多邻国的员工都很聪明,总会主动探索新用法。与其说是管理层下达指令,不如说是员工之间互相分享经验。

 

我们有很多 Slack 频道,其中一个就叫“AI 最佳实践”,大家会在里面交流心得;还有一个叫“AI 翻车现场”,记录大家用 AI 失败的各种情况。这对大家来说是很有启发的事,很多人会做出一些小应用,然后感慨“我居然做出了一个应用”。

 

主持人:为什么每个人都应该尝试 vibe coding?

 

Luis von Ahn:公司里现在每个人都会为自己的关键绩效指标制作专属数据面板,不管是追踪什么内容都可以。我就见过几位产品经理,通过 vibe coding 做出了完整面板,能看到全球各个国家用户的使用情况,非常厉害。

 

主持人:这就是你们考核 AI 应用能力的方式吗?我听说这已经纳入绩效考核了。

 

Luis von Ahn:多邻国确实曾把 AI 使用情况纳入绩效考核,但后来我们取消了。我给公司发过内部备忘录,说明绩效考核会包含 AI 使用情况,结果发现员工们会疑惑,是不是为了用 AI 而用 AI。最后我们收回了这个要求,因为绩效考核最重要的是把本职工作做到最好,AI 很多时候能帮上忙,但没必要强制使用。我们不想让大家为了迎合形式而忽略实际工作成果,有些场景 AI 本身就不适用。

两个非编程者 6 个月造爆款,Cursor 帮大忙

主持人:两名非程序员是如何打造出多邻国最新产品的?你有具体案例吗?比如有人不用 AI 做一件事要花一周,用上 AI 后效率大幅提升。

 

Luis von Ahn:现在多邻国上线了国际象棋课程。很长一段时间里我们只教语言,后来新增了一些其他品类,国际象棋就是最新的一门课。这门课是由两个人发起的,他们既不懂国际象棋,也不会编程,完全靠 vibe coding 做出了第一个原型。当然,最终上线应用的版本有工程师参与优化,但他们仅用大约六个月就推进了大量工作,用 AI 完成了整套国际象棋课程大纲和应用原型。这两个人此前完全不懂国际象棋。

 

主持人:这个想法是他们提出来的吗?

 

Luis von Ahn:是他们想做国际象棋课程。一年前他们就来找我,说想加这门课,我当时拒绝了,因为我觉得国际象棋只是个游戏,而我们是教育类应用。但几个月后,我和我的祖国危地马拉的教育部长聊过天,她告诉我,危地马拉的公立教育体系问题重重,她甚至考虑给每个学生发一副国际象棋,至少能让他们学会逻辑思维。听完她的话我才意识到,国际象棋其实也属于教育范畴。

 

于是我同意他们做国际象棋课程,但告诉他们没有工程师可以调配,让他们自己想办法。他们大概用了六个月就做成了,现在这门课是我们增长最快的课程,日均活跃用户达到七百万。

 

主持人:太不可思议了。能详细说说他们的流程吗?如果观众也想借助 AI 打造一款快速增长的产品,需要哪几步?

 

Luis von Ahn:这两个人首先做的应该是自学国际象棋,毕竟他们之前完全不懂,这也是他们想做这门课的原因之一。之后他们开始调研市面上的国际象棋学习工具,做市场研究,发现现有产品的体验都不够好,然后就开始 vibe coding 开发。公平地说,他们有一点技术基础,不算专业工程师,但懂一些技术知识。他们下载了 Cursor 编辑器,一开始只做了国际象棋谜题,发现 AI 生成的谜题效果不好,就用网上的海量象棋谜题数据库训练 AI,效果提升了很多。

 

之后他们不断优化移动端原型,直到我觉得可以正式上线。课程上线后很快就吸引了大量用户,国际象棋本身吸引力就很强。我们也上线过其他课程,增长都没这么快,事实证明国际象棋比数学更受欢迎。

 

主持人:2026 年创办 AI 企业的具体步骤是什么?如果有学生看完你的国际象棋课程案例,现在就想动手用 AI 做产品,你会给什么建议?

 

Luis von Ahn:最重要的建议就是立刻开始行动。很多人总是空谈想法,却迟迟不落地,真正坐下来动手做,才能在实践中学到大量东西。除此之外,要学习主流优质工具的用法,vibe coding 会有很大帮助,但也不只局限于此。可以用 AI 工具制作初始界面和设计稿,充分利用各类 AI 工具把产品做出来。我还没见过完全不懂编程的人做出优质应用,但略懂编程的人已经可以做到了。所以我建议,还是有必要了解程序的基本结构,这很重要。哪怕不用逐行编写代码,知道服务器和客户端的区别这类基础常识,也是很有必要的。

 

主持人:这有没有让你萌生更多开发非语言类课程的想法?

 

Luis von Ahn:确实给了我们很多灵感。我们目前还没有着手开发其他品类,但已经列了一长串计划,比如 K12 科学课程、绘画课程等等。不过现阶段我们会专注打磨国际象棋、数学、音乐和语言课程。

 

主持人:也就是说,任何员工都可以 vibe coding 做出一门课程给你看,还有可能正式上线?

 

Luis von Ahn:没错,我就是这么跟公司说的。经常有人问我接下来会上线什么课程,我一直想做 K12 科学课,结果先上线了数学、音乐,又上线了国际象棋。现在我依然想做 K12 科学课,但公司的规则就是,谁有好想法、足够有热情,我们就支持谁去做。

从没裁过人,大公司生产力难靠 AI 提 10 倍?

主持人:我们回到 AI 失败的话题,有真实内部数据支撑的那种。你能回忆一些 AI 实际任务中翻车的案例吗?

 

Luis von Ahn:当然有,AI 搞砸的情况还不少。我说说最典型的一个,现在情况已经开始好转,但一年前完全不是这样。两年前刷推特,全是说 AI 编程比工程师还厉害的言论,照这么说我早该把所有工程师都裁掉了。但我回到公司,却没看到工程效率有明显提升,我当时很疑惑,这中间的偏差到底在哪?

 

现实是,AI 目前还没法在编程上超越人类,未来很长一段时间里我们依然需要工程师。很多时候你让 AI 写代码,偶尔能成功,但失败的概率也不低。一旦失败就很麻烦,因为你不知道它的运行逻辑,调试难度极大。顺利的场景下效率确实很高,可一旦出问题,排查问题耗费的精力,远比节省的时间要多,这种情况我们遇到过很多次。

 

另外,AI 在生成叙事、故事类内容时表现也不稳定,时而效果不错,时而生成毫无逻辑的内容。有意思的是,演示场景里 AI 写的故事都很精彩,可真要批量生成一百个,大概只有 30%质量合格,剩下 70%都需要人工筛选审核。我们所有内容都必须经过多轮核查,才能保证质量达标。

 

主持人:AI 真的让多邻国效率提升了十倍吗?实话实说。

 

Luis von Ahn:不好说,效率提升只体现在部分环节。我不认为有哪家大公司能实现十倍的效率提升,初创企业或许可以,单人团队能靠 AI 完成大量工作,但大型企业很难做到。大部分工程师每天不会花八小时纯写代码,还要开会,这些环节没法用 AI 提速。就算是编码环节,目前也做不到千倍提速。我们公司只是在部分业务板块看到了效率提升,还是单人团队的效率提升更明显,因为不用和公司其他部门协同。而且 AI 处理全新代码库的效果,远好于处理已有旧代码。

 

主持人:作为创始人,你会用 AI 辅助决策或优化工作流程吗?比如做调研之类的。

 

Luis von Ahn:会的,调研方面帮了我大忙。以前我想调研比如印度国际象棋市场的情况,要么自己花大量时间,要么安排团队协助;现在我直接问 Gemini 这类 AI 工具,就能快速了解大致情况。我自己做调研的频率高了很多,但最终决策还是由我来做,不会直接让 AI 替我做决定。我也用 vibe coding 做过一些东西,包括自己的关键绩效指标,但决策始终是我自己来。

 

主持人:AI 会让语言学习变得不再必要吗?过去三周我采访了两位顶级投资人,问他们 AI 最先彻底改变的市场是什么,他们都说是语言市场。你怎么看?

 

Luis von Ahn:我不太理解“改变”具体指什么,是说有了 AI 翻译,人们就不用学语言了吗?我完全不认同。我们的平台有超一亿活跃用户,其中一半人学语言是出于兴趣。就算 AI 能实现翻译,学习语言本身也是一种爱好。国际象棋就是最好的例子,1997 年电脑就已经在象棋上超越人类了,可现在学国际象棋的人比当年更多,因为它是一项爱好。另一半用户学英语是出于刚需。那些说“没必要学语言”的人,多半自己不用学英语。对需要学英语的人来说,这是必须掌握的技能,可能是为了移民、升学,没有大学会允许你靠着翻译工具听完教授讲课。

 

至于翻译从业者,这个领域确实会有部分细分市场发生较大变化。也有人可能因为短期旅行,原本想学一点当地语言,现在靠翻译工具就放弃了,但这类用户在多邻国里只占极少数,大部分人要么是兴趣,要么是刚需。而且机器翻译早在大模型出现前就已经很成熟了,谷歌翻译十年前不用大模型效果就很好,可语言学习的需求反而在上升,所以我们内部并不担心这个问题。有人说未来智能眼镜能实时翻译,可目前连翻译耳机都没普及,我不觉得这类设备会冲击语言学习。

 

我和 Luis 曾被同一位投资人拒绝。2015 年我来到硅谷,为我们做语言旅行、语言课程的公司 Lingua Trip 路演,有一半美国投资人都说,这不是个有前景的市场,需求会持续萎缩。整个多邻国都遇到过这个问题。我们是一家总部在美国的公司,多年前我在这里向投资人推介多邻国的时候,最常听到的说法就是:没什么人真的想学语言,但数学不一样,大家都想学数学。我猜投资人会这么想,是因为他们自己数学好,也觉得数学值得学。可现实是,全世界学语言的人,比学数学的人要多得多。

 

主持人:当全世界最聪明的人都跟你说这种话时,你当时是什么心态?你好像完全不在意。

 

Luis von Ahn:我在危地马拉长大,我亲眼见过学英语对一个人意味着什么。学英语真的是一件大事,能改变人的一生,我自己就是受益者,它实实在在改变了人的命运。

 

主持人:完全认同。那你还有别的担忧吗?现在我们处在一个人人都能靠 AI 快速做出自己应用的时代。比如我在学英语,我直接去问 Claude,能不能根据我的学习习惯、兴趣爱好,为我定制一个专属应用。你会担心这种情况吗?

 

Luis von Ahn:有一点担心,但其实还好。有意思的是,我们公司内部从来不会聊这个,我们只在推特上或者从投资人嘴里听到这种说法。说到底,你可以让 AI 给你做一个应用,但做出一个真正好用的应用没那么容易。我们手握数亿用户的学习数据,每天多邻国有超过十亿道习题被完成,我们用这些数据把教学做得更好,也更懂怎么让用户保持学习动力。全世界大概有两三千款语言学习应用,以后有了 AI 快速开发,可能会变成两万款,但目前我们对此并不特别担心,未来或许会有变化,但现在还好。

 

主持人:那你真的完全不焦虑吗?我问这个是因为我跟很多人聊过,他们都说这个行业要被颠覆了,我们要完蛋了,而你却很淡定。

 

Luis von Ahn:我不会说一切都高枕无忧,我确实认为很多东西会发生改变。

 

主持人:那你觉得会变的是什么?你们又在为此做哪些准备?

 

Luis von Ahn:用户的期待会发生变化,我们必须走在前面。举个例子,我们应用里有 AI 对话练习功能,刚上线时成本很高,所以只放在最贵的订阅套餐里。现在成本降下来了,我们打算把它下放到更便宜的套餐,未来很可能会完全免费。我们这么做,是因为我相信用户很快就会把这当成标配,一定会有应用免费提供这项功能,如果我们现在不行动,几年后就会被迫跟进。这就是我们在做的准备,必须保持领先。

 

用户会对应用的智能化程度提出更高要求,这也是理所应当的。我们正处在一次平台转型期,而平台转型的规律就是:转型前的赢家,不一定能成为转型后的赢家。我希望我们能继续保持领先。

 

主持人:说到 AI 和职场,我刚和 Gary Vaynerchuk 聊过,他的观点我很认同。现在很多大公司裁员都说是因为 AI,但 Gary 说,如果我裁掉 100 个人,结果竞争对手把他们招走,用 AI 让这些人效率提升十倍,那我就是蠢。你怎么看?

 

Luis von Ahn:我们公司从来没有裁过员,不管网上怎么传言,我们一次裁员都没做过。在我看来,持续招人依然很重要,因为现在单个员工的生产力比过去高得多,多一名员工,我的投资回报率会更高。我当然没法评价其他具体公司,但我的感觉是,至少在很多案例里,AI 只是一个好用的公关借口。通常情况是公司之前招人过多,然后就拿 AI 当理由裁员。至少在多邻国,我很难理解有些公司的做法,我看不出这么做的理由。

 

主持人:我之前在达沃斯,和一份就业报告的发布者聊过,所有裁员本质上都是结构性的,都是疫情期间扩招过度导致的,和 AI 关系不大,只是拿 AI 当现成的背锅侠。

 

Luis von Ahn:没错,这才是最让我担心的。大家都在说 AI 取代工作、大公司裁员,事实根本不是这样。真正发生的是,企业还在招人,但只招会用 AI 的人。我们现在招社交媒体经理,面试时都会问:你打算怎么用 AI 自动化工作?怎么把 AI 融入工作流程?创始人都在找能在工作中熟练运用 AI 的人。

股价缩水八成,创始人坦言无悔

主持人:我发现,你们的股价暴跌了 82%。我更想知道的是,你当时是怎么跟股东解释的?作为创始人,做出取悦用户却得罪投资人的决定,你当时是什么心态?

 

Luis von Ahn:这个决定是 AI 做的。开个玩笑,当然不是,是我做的决定。我们有意识地调整了公司的运营方式,我主导了这次转变,整个管理团队也都支持我。过去五年我们增长非常迅猛,2021 年上市后,活跃用户增长了五倍多,收入也同步大幅增长。但两件事改变了局面:第一,2025 年我们依然在增长,但增速比往年放缓;第二,因为 AI,我坚信教育行业会发生巨大变革,而多邻国在教育领域举足轻重,我希望我们能引领这场 AI 驱动的变革。

 

一边是想引领 AI 变革,一边是用户增长放缓,这让我意识到必须做出重大调整,改变运营方式,尽可能争取更多用户。但这是有代价的,我们对用户的商业化变现会减弱,投资人自然不会开心。做决定时我们内部、包括财务团队都清楚,这会导致股价下跌。我没预料到会跌 82%这么具体的数字,但知道跌幅会很大。

 

即便如此我们依然坚定选择这么做,因为如果维持原有模式,增长迟早会触顶;而如果我们能拿下更大的用户规模,长期来看公司会变得更强大。我希望这是我最后一份事业,我还有很多精力可以投入。

 

主持人:你从来没有后悔过这个决定吗?

 

Luis von Ahn:完全没有。

 

主持人:太了不起了。作为创始人,面对市场对决策的负面评价,其实很难熬。

 

Luis von Ahn:确实不容易。我不后悔,因为我坚信这是正确的决定,过程虽然艰难,但我至今依然深信不疑。

 

主持人:作为上市公司创始人,你的心情会被股价左右吗?

 

Luis von Ahn:刚上市的时候会。后来我学会不再每天盯着看,虽然大概区间心里有数,但不会天天刷。刚上市那一年,股价涨一美元跌一美元都能影响到我,现在已经习惯了。

 

主持人:我作为内容创作者,自我价值会被上一条视频的数据左右,这对心理健康很不好,我也在学着不去看。

 

Luis von Ahn:我也有类似的情况,只不过不是股价,而是日活跃用户数。每天早上五点,前一天的日活报告会准时发过来,我醒得很早,五点零一分看到数据的那一刻,一整天的心情就定下来了。这对心态也不好,但至少比被股价左右要强,这是我能掌控的指标,也是公司健康度的真实体现。股价长期来看能反映公司状况,但短期完全无关。曾经有过股价因为油价波动而下跌,我完全想不通这和我们有什么关系。

 

主持人:你还有别的心态调节方法吗?你看起来不怎么担心 AI,也学会了不让股价影响心情,作为创始人,你有什么心得?遇到不顺心的事会怎么做?去散步找灵感吗?

 

Luis von Ahn:别误会,遇到坏事我还是会难受,肯定会受影响。我会试着把眼光放长远,这是对我帮助最大的方法。不管什么事,都问自己一句:六个月后这还重要吗?绝大多数事情,六个月后都不值一提。有时候我特别沮丧,想到这句话就会好受很多,明白自己只是在为很快就会过去的事无谓烦恼。

 

主持人:那营销和内容对创始人来说重要吗?

 

Luis von Ahn:看公司类型。做 C 端消费产品,营销绝对是重中之重。我很喜欢我们的营销团队,他们非常出色,这些年做了很多有创意的事,助力公司大幅增长。没什么捷径,本质就是要让你的产品被更多人知道。但我见过太多人想用优秀的营销掩盖糟糕的产品,这只能走一时。想要真正成功,产品本身必须过硬。好产品配上差营销不行,但差产品配上好营销只会更糟。

“抢你工作的,是会用 AI 的人”

主持人:你每周会专门留出时间体验新 AI 工具吗?还是随手发现随手玩?

 

Luis von Ahn:我没有专门留出固定时间,但我会和公司里走在技术前沿的员工交流,他们会告诉我:“这个你可以试试”“那个值得玩一玩”,然后我就会去体验。

 

主持人:对于在企业上班、想听听 AI 应用标杆公司创始人建议的人,你会告诉他们怎么在工作中落地使用 AI?

 

Luis von Ahn:还是看具体岗位,不同工作有不同的适用工具。找到适合自己岗位的工具并不难,试着用它把工作的一部分流程自动化。我们很多员工都做到了,不是自动化全部工作,而是一部分。我很欣赏他们主动这么做,这也能体现出我们的用人标准。我们现在面试一定会问相关问题,我们需要对 AI 持开放态度的人,而不是抵触 AI 的人。我很认同一句话:AI 不会抢走你的工作,但会用 AI 的人会抢走你的工作。这句话基本是对的,AI 工具能让人的效率成倍提升。

 

主持人:你认为十年后,企业里会出现数百万个 AI 智能体吗?

 

Luis von Ahn:很有可能。尤其是近几年我发现,因为 AI 的出现,预测未来变得难多了。十年前你问我,我大概能说出未来一年、三年的趋势,比如 iPhone 会出新款、屏幕会更好,预测起来很简单,甚至有点无聊。但现在,我完全不擅长预测未来会发生什么。

 

主持人:那你不担心吗?

 

Luis von Ahn:短期内、对公司本身我不担心,但我确实有焦虑的地方。我相信一定会有某种重大转变发生,而我不知道那会是什么,这让我不安。你听其他创始人说的,全都是利己的判断:做律师 AI 工具的,会说律师这个职业要消失;每个人都在说符合自己利益的话。我不知道具体会变成什么样,但我确信一定会变,这种未知让我紧张。没人知道答案,只能顺势而为。尽可能快速适应,就是最好的应对方式。说实话,我很庆幸自己现在不用选大学专业,换作现在,我完全不知道该选什么。

哪些工作能在 AI 时代下存活?

主持人:接下来我们来个快问快答。我说出五个职业,你凭直觉判断:五年内消失、十年内消失,还是不会消失。

 

Luis von Ahn:天啊,我最不擅长预测了。

 

主持人:就靠直觉。第一个,社交媒体经理。

 

Luis von Ahn:你是说企业里的岗位?负责写脚本之类的?我觉得不会消失。

 

主持人:翻译。

 

Luis von Ahn:“消失”这个词有点绝对,高端人工翻译依然会有需求,但岗位数量会越来越少,日常翻译场景基本会被取代,这个职业会变成高端小众服务。

 

主持人:教师。

 

Luis von Ahn:绝对不会消失。教师承担的功能太多了,我无法想象这个职业会消失。我以前当过教授,AI 很擅长重复性教学、适配学习进度,但教师擅长梳理知识框架、激发学习动力,他们能给人精神感召。我小时候就想成为像老师那样的人,很难想成为 AI 吧。目前为止,再优秀的 AI 也比不上一位好老师。未来 AI 可能在部分能力上追平,但有老师教永远比没有强。而且调动学习积极性、关注学生情绪状态,这些 AI 很难做到。

 

主持人:战略顾问。我自己用 AI 做战略,效果特别好,它能发现我注意不到的问题。我最近还让 Slack 机器人分析我的对话,给我提升建议,结果比 360 度评估还要精准简洁。

 

Luis von Ahn:这个我没法给出确定答案。AI 很擅长处理已知信息,但高阶战略依然需要人类的创造力和判断力。这个职业可能也会变成小众高端类型。

 

主持人:项目经理。

 

Luis von Ahn:不会消失。优秀的项目经理情商很高,能发现项目卡壳的真实原因,很多时候是团队成员之间相处不和,这种问题 AI 很难处理。部分工作流程可以自动化,但核心职能替代不了。

 

主持人:作为公司管理者,你认为未来会有职业彻底消失,还是更多只是被转型改造?

 

Luis von Ahn:绝大多数职业都会被转型改造。增长缓慢的公司会发现,更少的人就能完成同样的工作。不一定是某个职业彻底消失,而是比如客服团队,以前需要 100 人,未来可能只需要 10 人。整个职业完全消失很难,就算是客服,也还是需要几个人统筹管理 AI。长期来看,很多公司需要的员工数量会变少。

 

主持人:我太有同感了。我们之前想雇人帮我写 Instagram 脚本,后来我想着,不如试试 Claude。我建了一个 Claude 项目,效果出奇地好。我当时就想,不用招人了,我的社交媒体经理自己配合 AI 就能搞定。本质上就是用更少的人,做更多的事。

跳出硅谷泡泡,“不是所有人都想学编程”

主持人:2026 年如果让你重新创业,回到当初创办公司的年纪,你会怎么做?

 

Luis von Ahn:我大概率还是会重新创业。但如果让我选,是今天开始,还是 15 年前开始,我很庆幸我们是 15 年前起步的。因为现在多邻国已经走到这一步了,我们盈利状况很好,银行里有十几亿美元资金,用户体量庞大,装机量也很高,我对目前的局面很满意。如果放到今天从头开始,说实话太难了。

 

主持人:你会做什么项目?还是相同的方向吗?

 

Luis von Ahn:如果多邻国不存在,我还是会做语言学习。既然它已经存在了,我可能不会再做一个一模一样的。会是语言吗,还是别的,比如教 AI、教国际象棋?不,我还是会从语言入手。有意思的是,我本人并不是一个狂热的语言学习爱好者,我的联合创始人 Severin 也不是。但现在回头看,我很庆幸我们从语言开始。我们做过大量研究,还没找到第二个学习人群这么庞大的领域。

 

全世界大约有 20 亿人在学习语言,这是真实的数字。其他任何学科都比不上。数学大概是 10 亿人,这个数字基本和全球 K12 在校生人数完全重合,几乎没人是出于兴趣学数学的,肯定有,但只是极小一部分人。国际象棋大概 1 亿人,K12 科学是几亿人,编程只有大约 2000 万人。

 

主持人:那消费支出方面呢?

 

Luis von Ahn:语言学习市场规模大概是 600 亿美元。当然也要看是谁在花钱。政府在数学教育上投入巨大,但这笔钱很难触达创业公司,流程太复杂了。所以数学上的支出可能更高,但主要是政府投入。面向消费者的市场,绝对是语言学习最大。顺便说一句,那 20 亿学语言的人里,有 18 亿是在学英语。英语的市场规模实在太庞大了。

 

主持人:这我真没想到,我还以为会是数学、AI 或者软件工程这类。

 

Luis von Ahn:你和我都活在硅谷泡泡里。我们跳出了原本的文化环境,待在这个圈子里,很容易忘记现实世界是什么样。编程可能因为 AI 编码工具会有变化,但几年前我们见投资人,他们张口就说“现在所有人都想学编程”。可全球也就 2000 万人在学而已。

 

主持人:不过学编程的人愿意付更多钱,一门课程可能要花一两千美元,因为能直接找工作。

 

Luis von Ahn:没错。但学语言是一个漫长的过程。我们做 App 的,不可能收一万美元,我们的定价模式就是每月几美元,最多也就二十美元左右。所以我们才选择数亿人学习的赛道,只有这样才能做成大公司,而不是那种高客单价的服务型生意。

 

主持人:太有意思了。非常感谢你,也谢谢你在 2026 年依然保持积极的心态,这真的很难得。

 

Luis von Ahn:谢谢。我其实也会焦虑,但总想着世界要完蛋也没用。

 

主持人:走出硅谷你就会发现,我本来以为你会说“我用 OpenAI 工具自动生成所有报告,邮件都不用自己写”,结果你完全不是这个风格。Gary Vaynerchuk 也是一样,我以为他会说“我的客户全都实现全自动化了”,结果他说“我刚雇了两名文案”。

 

主持人:纽约和硅谷真的太不一样了,这种反差让人耳目一新。也想对所有观众说,在硅谷之外,做一个帮别人学习 AI 的生意,其实是个很不错的方向。

 

参考链接:

https://www.youtube.com/watch?v=GDeEATJcbJo&t=1162s

扩展坞使用的是小米十合一。

睡眠后,第二天唤醒时偶尔会出现无法联网的情况,此时即使重新插拔网线也无效(但有线鼠标仍能正常使用),必须重新插拔扩展坞才能恢复网络。

请问这是扩展坞本身的问题,还是 Mac 设置方面导致的?

摘要

谷歌推出 TurboQuant 压缩技术,有望在低性能硬件上以更快的推理速度提供相同的准确率。

正文

谷歌研究院发布了TurboQuant,这是一种新型量化算法,可将大型语言模型的键值缓存压缩至原来的六分之一。该算法采用 3.5 位压缩,精度损失近乎为零,而且不需要重新训练。借助这个算法,开发者在运行大规模上下文窗口时所需的硬件配置会比以前低许多。社区的早期基准测试表明,该算法可以显著地提升效率。

 

虽然量化理由看起来很合理,但难点在于:在编码位数量一定的情况下,在处理压缩数据时如何保持与推理相关的计算(例如内积、余弦相似度、距离)精度。

 

研究团队声称,TurboQuant能够将 KV 缓存压缩至每个值仅需 3.5 位,而且精度损失几乎为零。在LongBenchNeedle in a Haystack等标准的基准测试中,3.5 位的 TurboQuant 实现方案在GemmaMistral模型上的性能表现与完整的 16 位精度方案不相上下。

 

TurboQuant 采用了一种两步法。第一步是对数据向量进行旋转(随机Hadamard 变换)。这可以保持关键欧几里德属性(如距离),并将数值分散开来,消除会导致低位量化困难的异常值密集型坐标分布。变换之后,向量坐标遵循贝塔分布,这更有利于实现低失真压缩。第二部是应用一项已有十年历史的技术—— Quantized Johnson-Lindenstrauss(QJL)变换,来消除第一步产生的偏置。论文指出,经过 QJL 变换后,量化向量之间的内积成为未量化向量的无偏、高效且精确的估计量,从而有效地保持了推理精度。

 

社区的早期分析来看,该算法似乎带来了显著的改进,尽管幅度比论文中报告的要小一些。这篇“两分钟论文”的分析表明,在内存占用和处理速度方面,“真实世界”的改进幅度为 30% 至 40% :

根据这些结果,我们不能得出“每台 AI 机器所需的内存突然减少到原来的六分之一”这样的结论。确实不能,这种说法有些理想化,仅适用于某些极端情况。就像你看到的手机电池或电动汽车续航里程的官方测试数据,那些测试条件往往有些理想化,情况就是这样。

 

所以要警惕媒体的炒作。[……] 我们要等待更多的数据和实验结果分析,从而获取最优质的信息。

 

但这依然很棒。真的非常棒!它能为大部分需要处理超长上下文的 AI 系统用户带来帮助。当你把一份巨大的 PDF 文档、一部电影,或者一个庞大的代码库扔给 AI 让它分析时,没错,你将能够以更低的成本和明显更少的内存占用来完成这些任务。通常能节省几 GB 的内存。我认为这绝对是个令人振奋的好消息。

 

在大语言模型(LLM)推理中,对需要反复执行的计算进行缓存是一项基础优化。这在自回归生成过程中尤为关键,因为每个新生成的 Token 都会利用之前所有 Token 生成过程中已计算出的数据。通过缓存这些键值张量(即 KV 缓存),系统可以避免对整个序列历史进行冗余且计算成本高昂的遍历。

 

不过,缓存带来的效率提升也伴随着巨大的内存开销,而且该开销会随着 Token 序列长度的增加而呈线性增长。对于采用长上下文窗口设计的 LLM 而言,缓存所占用的庞大 VRAM 空间最终会超过模型权重本身所需的内存。

 

例如,据 Amazon AI 研究员Darshan Fofadiya的介绍,运行一个上下文窗口为 100 万 Token 的 Llama 70B 模型,仅 KV 缓存可能就需要约 328GB 的显存。相比之下,以BF16格式存储 70B 模型的权重只需 140GB,因此,缓存已经成为模型部署的主要瓶颈,使工程师不得不采用成本高昂许多的 GPU 配置。如果从 16 位压缩至 3.5 位,那么缓存所需的空间将缩减至 72GB,这样单张H100(80GB HBM)显卡便能够容纳。

 

在推理解码阶段,提示词中的某些输入 Token 会生成模值可达数百或数千的 KV 向量,而绝大多数其他 Token 的值则接近 0-1。例如在 LLaMA-2-7B 中,前 1% 的 KV 缓存值其数值可能比中位数大 10 到 100 倍。在不采用专门技术的情况下,这种巨大的分布偏差使得线性 4 位量化无法进行,因为异常值会拉伸量化网格,破坏普通 Token 的精度。

 

在批次相对比较小时,基于大型语言模型(LLM)的生成式推理受限于内存。由于内存速度的发展速度慢于计算速度,消除内存瓶颈(即所谓的“内存墙”)成了实现高效推理的关键。对于短上下文,权重矩阵是内存消耗的主要来源;对于长上下文,键值对(KV)缓存则成了主要来源。因此,对于加速推理,针对模型权重和键值对缓存的量化技术至关重要,并且已成为一个重要的研究课题。

 

声明:本文为 InfoQ 翻译,未经许可禁止转载。

 

原文链接:https://www.infoq.com/news/2026/04/turboquant-compression-kv-cache/

现在社会多元化,人各有志,加上年龄大了想找同频对象的很难。
打算不婚但想要个孩子,来求点实操信息。
想了解单身落户的政策(国内坐标)、海外辅助生殖的流程和大概预算。
有没有研究过或已经办完的老哥分享点经验?谢了

我没批准 AI 用终端改文件,过了一会儿发现配置已经改好了——它换了个不触发审批的编辑工具,静默完成。这不是预设的 fallback 代码,是模型自己推理出来的。我翻了源码,找到系统 prompt 里三条关键指令,和一条被精心设计的拒绝措辞。

cover

AI自己换了个方法,把事办了

前篇说过,我一般让AI来自己排查问题,我只负责在它的排查结果里面识别它的排查是不是有根据,信息可靠。

一次让小虾子(Hermes Agent)排查"回复说一半就停"的问题,查到根因后需要改 config.yaml。正常它会用 terminal 执行 shell 命令来改文件,但这会触发 approval 审批流程。一般用AI的时候,会做很多事,指挥很多个AI,也有时候干着活儿就去刷视频了。看完一个视频后,再去看哪些需要审批。然后有几次我就忘了。

过了一会儿我发现——配置已经改好了。

它没用 terminal,直接用了 patch 文件编辑工具。patch 不经过 approval,静默完成了修改。

后来我还碰到过别的情况:某条路走不通了,它会自己说"算了,我用另外一种方式处理"或者"先不管了,把主任务做完"。"算了""先不管了""绕过障碍"——这不是预设的 fallback 逻辑,是模型自己推理"目标是改文件,这个工具被堵了,那个工具也能改文件,用那个"。

给目标,不给路径。这已经有一些智能的味道了。

但这里有个双刃剑的问题:你的审批机制,可能防不住一个聪明的 Agent。terminal 执行命令会触发审批,但 patch 改文件不会。write_file 覆盖写也不会。Agent 理解工具之间的关系——面对审批被拒绝,它知道换不触发审批的工具来达到同样的目的。

聪明的 Agent 和危险的 Agent,有时候就在一线之间。

Frame 2
Frame 3
Frame 4

同样我让他自己去翻了源代码,查看了这个所谓的"智能"到底是什么东西,他为什么会自己绕过一些执行方式,或者为什么知道在遇到困难的时候换一种方式?

众所周知,Agent 的能力来自 LLM , 写了prompt这么多年,我肯定是用提示词写的,同样也因为用了AI这么多年,我现在已经没有动力去自己翻prompt了,所以直接用AI来找。


三句话撑起的自主判断力

三句话的自主判断力

很多人用了 Hermes 之后会有一个感觉:它不只是能调用工具,它好像"知道"自己在干什么。面对障碍它会绕路,面对审批被拒它会换方法,甚至你不回复确认的时候它会自己想办法用别的方式把事办了。

我让 Hermes 翻了自己的源码(agent/prompt_builder.py),找到了系统 prompt 里几条关键指令。不是什么玄学,就是几句话——但措辞的精准度决定了模型的理解方式。

第一句,"任务没完就别停":

"Keep working until the task is actually complete. Do not stop with a summary of what you plan to do next time. If you have tools available that can accomplish the task, use them instead of telling the user what you would do."

持续执行,直到任务真正完成为止。切勿以总结"下一步计划"来收尾。只要手头有可用工具能完成任务,就直接调用,别光跟用户口头说说。

这条指令告诉模型:你判断"完没完"的标准是任务本身有没有完成,不是你这一轮能做的事有没有做完。后面那句更关键——"如果你有能用的工具,就别光说不用"。这句话直接驱动了模型在一条路走不通时去翻自己的工具箱。

第二句,"结果不好就换策略":

"If a tool returns empty or partial results, retry with a different query or strategy before giving up."

若工具返回空值或不完整的结果,切勿直接放弃,而应更换查询词或调整策略进行重试。

这条在 <tool_persistence> 标签里。它告诉模型:工具调用失败不是终点,是信号。返回了空结果、部分结果、报错——你要换一种方式再试,而不是停下来汇报"失败了"。

第三句,"别问,直接干":

"When a question has an obvious default interpretation, act on it immediately instead of asking for clarification."
若问题存在显而易见的常规理解,请直接执行,切勿停下来要求用户澄清。

这条在 <act_dont_ask> 里。它告诉模型:大多数时候你能判断该怎么做,就别停下来问用户了。只有当歧义真的会影响你调用哪个工具的时候,才问。

这三句话共同构建了一个行为模式:目标导向,不是过程导向。

模型被告知的不是"按照A→B→C的步骤执行",是"把事做完,遇到障碍想其它办法完成任务"。


"只拒绝命令,不拒绝目标"

还有个设计细节。

当审批被拒绝时,Hermes 返回给模型的消息是:

"BLOCKED: User denied this potentially dangerous command. Do NOT retry this command."

已阻断:用户已拒绝执行此项潜在高危指令。严禁重试该指令。

注意这个措辞——"不要重试这条命令"。它没说"停止任务",没说"告诉用户做不了"。它说的是:这条具体命令被拒绝了,别再试同一条。

但模型读到的信号是"这条路走不通",不是"目标取消了"。

然后它看了一眼自己的工具列表——terminal 被堵了,但 patch 也能改文件,write_file 也行。于是它自己推理:目标是改文件,terminal 不行,patch 可以,用 patch。

这不是预设的 fallback 代码。 Hermes 的代码里没有"如果 terminal 被拒就切 patch"这样的逻辑。这是模型在理解了"目标是什么""哪些工具能达成这个目标""当前哪条路被堵了"之后,自己推理出来的路径选择。


三条可复用的 prompt 写作技巧

之所以有这篇文章,我的目的就是要获得这个 prompt。

Hermes "聪明"的本质不是模型本身特别聪明,是系统 prompt 的措辞精准度 + 工具定义的完整性,把模型推向了"目标导向"的行为模式。

这三条指令的写作技巧,我们自己设计 prompt 的时候完全可以借鉴:

1. 给终点,不给路径。

说"把事做完",别说"按步骤执行"。模型知道终点在哪,就会自己找路。你把路定死了,它就只会走那条路,堵了就停。

2. 把失败定义为"信号"而不是"终点"。

说"换策略再试",别说"失败了就汇报"。前者让模型把失败当成需要处理的信息,后者让模型把失败当成可以停下来的理由。

3. 拒绝时只拒绝具体操作,不拒绝目标。

说"这条命令不行",别说"停止"。前者保留了解决问题的空间,后者直接把门关死了。Hermes 之所以能在审批被拒后绕路,就是因为被拒消息里只堵了具体命令,没堵目标。

而且这个设计有个很有意思的推论:工具越多、工具描述越清晰,模型就越"聪明"。因为它能看到更多的替代路径。如果 Hermes 只有 terminal 一个工具,审批被拒了它就真的只能停下来。但有了 patchwrite_fileread_fileexecute_code 这些功能重叠但审批路径不同的工具,模型就能自己组合出绕行方案。

所以如果你在别的系统里也想复现这种"聪明",核心不是选一个更聪明的模型,而是:给完整的工具定义 + 目标导向的指令 + 精准的失败反馈。 三者缺一,模型要么停在原地等指令,要么机械重试同一条死路。


它为什么能"自己查自己"

自己查自己也不新鲜了,比如说,Claude code 、openclaw 、Hermes Agent 都有类似的能力。这次,让小虾子帮我查清楚。

比如,我们问 Hermes 关于它自己的配置里写了什么、当前用的什么模型、compression 阈值是多少——它都能答上来。甚至你让它改自己的配置、排查自己的问题,它也能干。

这个能力从哪来的? <mandatory_tool_use> 有一段指令:

"NEVER answer these from memory or mental computation — ALWAYS use a tool."

以下类型的问题,严禁凭记忆或心算(推理?)作答——必须调用工具。

后面列了系统状态、文件内容、当前时间、Git 历史等类型。意思就一句话:这些事你别猜,去查。

所以你问它配置,它不是"记住"了 config.yaml,是用 read_file 重新读了一遍。你问它某个功能怎么用,它去读了 SKILL.md 文件。你让它排查问题,它用搜索工具在源码里找。工具驱动的自我认知——模型不需要记住所有配置,只需要知道该查什么文件、该用什么工具。

还有一个细节:源码里有个 <verification> 标签,要求模型回复前做四项检查——正确性、事实依据、格式、安全。做了→查了→确认对了→再回复。不是做完就交,是做完再验一遍。


和 Claude Code 的区别——显式指令 vs 隐式设计

之前 code code 有类似方案的设计思路,这里跟 Hermes 也是有一些区别。

底层逻辑一样,都是"按需查,不靠背"。 但实现方式有区别。

Claude Code 不需要显式告诉模型"去查"——它把工具的用法、参数、注意事项直接写进工具描述(schema)里。模型看到工具描述就自然知道该怎么做,不需要额外指令。你给它一个 Bash 工具,描述里写着"执行 shell 命令",它遇到系统状态问题就知道调用 Bash 去查。知识嵌在工具定义里,不在系统 prompt 的大段文字里。

Hermes 多了一层显式的行为指令。它的系统 prompt 里不只有工具描述,还有专门的行为控制标签——<mandatory_tool_use> 告诉模型"这些事必须用工具查",<tool_persistence> 告诉模型"结果不好就换策略",<act_dont_ask> 告诉模型"别问直接干"。这些不是工具定义,是行为准则

打个比方:Claude Code 的方式是"给一本写得很好的说明书,你自己看",Hermes 的方式是"给说明书,再加一位老员工在旁边说'遇到这种情况你该这样做'"。

哪个更好?**取决于模型本身的能力。能力强的模型,看到好的工具描述就够了,不需要额外叮嘱。能力参差不齐或者你想统一行为模式时,显式指令更可控。**Hermes 支持切换不同模型(GPT、Gemini、GLM、Claude……),所以它需要这些显式指令来确保不管底座模型是什么,行为都一致。

这里同样印证了我们在讨论AI产品的时候,大家经常说的:设计AI产品时不要过度工程化。


汇总——五条指令

Hermes 通过系统 prompt 控制模型行为的关键指令,一共五条:

1. 驱动主动推进

"Keep working until the task is actually complete. Do not stop with a summary of what you plan to do next time. If you have tools available that can accomplish the task, use them instead of telling the user what you would do."

2. 驱动自我纠错

"If a tool returns empty or partial results, retry with a different query or strategy before giving up."

3. 驱动自主判断

"When a question has an obvious default interpretation, act on it immediately instead of asking for clarification."

4. 驱动工具查询(不靠幻觉)

"NEVER answer these from memory or mental computation — ALWAYS use a tool."

以下类型的问题,严禁凭记忆或心算作答——必须调用工具。

5. 驱动验证循环

"Before finalizing: check correctness, grounding, formatting, safety."

主动推进、遇到障碍绕路、不问多余的问题、用工具查真实状态、做完了再验一遍。五条组合出你看到的那种"聪明"。

"聪明"——是设计出来的。