拼多多/多多买菜的开发兄弟们:

实在不好意思,通过这种方式来找人,也是被逼得没办法了。

我是得力 PDA 项目组的。目前我们收到大量商家反馈,“多多买菜门店端”APP 在得力全系列 PDA 硬件上存在严重的兼容性问题:APP 无法正常调用 PDA 的扫描头。

商家反馈,在多多买菜 APP 里扫码入库、分拣时,激光头完全没反应,只能靠手机摄像头。但这在仓库高强度作业下根本没法用,导致现在大量买了得力 PDA 的多多买菜商家在后台疯狂差评、申请退货。

我们也尝试了官方渠道:
客服热线打过 N 遍了,每次都是回复“已登记、请等待”,然后就没有然后了。作为技术同行,我们理解流程繁琐,但商家那边是真的等不起了。

我们的诉求很简单:
希望能联系上“多多买菜门店端”的开发或技术对接同学,咱们就能一起把商家的体验做上去,减少退货率。

如果你不是该项目组的,但也正在拼多多工作,希望能帮忙在内网或是企业微信里带个话,引荐一下相关同学,万分感谢!

影响 APP: 多多买菜门店端

核心问题: 无法调用 PDA 硬件激光扫描

联系邮箱:shws#nbdeli.com (请将#换成 @)

拜托了各位,希望能有回音!

在保险行业加速数字化转型的今天,数据已成为驱动精准定价、优化客户体验与强化风险管理的核心引擎。其中,IP地址作为连接数字行为与物理世界的关键标识,其蕴含的地理位置、网络属性及行为轨迹等多维度信息,正被深度应用于保险业务的各个环节。它超越了基础的网络通信功能,在安全防护、欺诈识别、业务流程优化与市场洞察等方面展现出巨大价值。通过系统性地利用IP地址数据,保险公司能够构建更智能的风控体系,提升核保与理赔效率,并最终为客户提供更安全、便捷、个性化的服务,从而在激烈的市场竞争中构建核心优势。

一、强化核保与理赔风控:精准识别与防范欺诈

保险欺诈是行业长期面临的严峻挑战,每年造成巨额经济损失。IP地址数据为构建主动、精准的反欺诈防线提供了关键的技术维度。

在投保核验阶段,系统可通过比对投保人提交的常住地址与其申请时使用的IP地址地理位置,进行一致性验证。若发现显著不符(例如,声称常住上海却频繁从境外高风险地区IP发起投保申请),该异常信号将触发更严格的审核流程,如要求补充证明材料或进行人工回访,从而有效防范虚假投保与身份盗用。在理赔处理环节,IP地址的作用更为关键。一方面,通过定位提交理赔请求的IP地址,保险公司可以快速核实事故声称发生地是否在保单承保范围内,并对明显不符的请求进行重点调查。

另一方面,通过分析IP地址的历史访问记录与行为模式,系统能够有效识别欺诈特征。例如,同一IP地址在短时间内关联多起不同人员的理赔申请,或来自数据中心、代理服务器等高风险匿名IP的频繁索赔,这些都可能是团伙欺诈或专业骗保的迹象。通过建立IP风险画像并将其纳入综合风控模型,保险公司能够实现从“事后调查”到“事中拦截”乃至“事前预警”的转变,大幅降低欺诈风险。

二、优化风险评估与定价策略:实现动态精细化建模

传统的保险定价模型往往依赖于相对静态的人口统计和区域风险数据。IP地址提供的实时、动态的地理位置信息,为更精细化的风险评估与定价提供了新的可能。

保险公司可以借助IP地址数据,持续分析不同地区的风险水平,例如自然灾害发生频率、区域性犯罪率或特定疾病的发病率等。这些洞察有助于公司制定更具针对性的产品与差异化的定价策略,使保费更能准确反映实际风险。更进一步,通过分析用户IP地址所对应的网络行为习惯(如浏览的险种、停留的页面),保险公司可以更深入地理解个体客户的潜在风险偏好与保障需求。这种基于“地理位置+行为数据”的融合分析,推动了风险评估从粗放的区域划分向精细的个体画像演进,为开发个性化、动态调整的保险产品奠定了基础。

三、驱动精准营销与客户体验升级

在客户获取与留存成本高企的背景下,实现精准营销与提供卓越体验至关重要。IP地址数据是达成这一目标的重要助力。

通过分析官网、APP等渠道的访问流量IP,保险公司可以清晰掌握各区域客户的访问热度、险种浏览偏好及潜在需求,从而绘制出精准的市场需求地图。这使市场团队能够“有的放矢”,在需求旺盛的地区加大投放,并针对地方特色(如沿海地区的台风险、特定城市的健康管理服务)设计本地化的营销活动与产品组合,显著提升营销转化率与客户满意度。同时,对于跨国或全国性经营的保险公司,识别用户IP地址所属的国家或地区后,系统可自动提供相应的本地语言服务、符合当地法规的产品介绍及货币单位显示,极大提升了客户的在线服务体验与归属感。

四、筑牢网络安全与隐私保护底线

保险机构存储着海量敏感的客户个人信息与财务数据,是网络攻击的重点目标。IP地址监控是网络安全防护体系中的基础且有效的一环。

通过实时监控访问流量的源IP地址及其网络类型,安全系统能够及时发现异常模式,例如来自已知黑客活跃地区或暗网出口节点的扫描攻击、利用代理IP池发起的批量撞库尝试等。一旦检测到此类高风险IP行为,系统可自动触发警报并采取限制访问、增强验证等防御措施,主动防范数据泄露与网络入侵。在发生安全事件后,对攻击链中IP地址的溯源分析,不仅能帮助公司快速封堵攻击源,减少损失,还能为后续的法律追责提供关键证据。在整个过程中,保险公司也需遵循严格的隐私保护法规,在利用IP数据时采用匿名化、加密等技术,确保客户数据安全,维护企业声誉与客户信任。

结语:

IP地址数据服务已深度渗透至保险业务的价值链核心,成为连接风险识别、流程优化与客户洞察的战略性资产。它使保险公司能够以更低的成本、更高的效率应对欺诈,以更精细的模型评估风险,并以更贴心的服务赢得客户。随着大数据、人工智能技术与IP数据的深度融合,未来保险行业的风险管控将更加智能化、自动化,个性化服务也将达到新的高度。

用途是用于本地的轻度需求,比如语音输入做后处理,或者翻译等等

我本来 gemini-3.1-flash-lite-preview 用得特别好,速度贼快而且 pro 套餐每个月送 10 刀 api 额度压根用不完

但是现在 G 家明显算力奇缺,这种模型经常 429 ,速度也不快了,语音输入动不动报错真是服了

现在还有推荐的吗?不考虑本地模型,我的 mac 跑 e4b 虽然也能满足需求,但是处理一个请求 3 ,4 秒钟,还是太慢了

haiku 5.4-mini 这类太贵的也不想用,毕竟原本是相当于免费的

还有选择吗?

公司配的电脑是 19 款 2.3 GHz 八核 Intel Core i9
内存:16G
家里自己的是 21 款 M1Pro
内存:16G
同样的使用方式,公司的电脑风扇转的嗷嗷的,还烫死人,又卡
家里的电脑,我从来都没有遇到过这种情况
简直用“吊打”来形容都不过分
不比不知道,一比吓一跳

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。个weibo.com/ttarticle/p/show?id=2309405288272720166937 weibo.com/ttarticle/p/show?id=2309405288273089527872 weibo.com/ttarticle/p/show?id=2309405288273462821005 weibo.com/ttarticle/p/show?id=2309405288273840046166 weibo.com/ttarticle/p/show?id=2309405288274314264686 weibo.com/ttarticle/p/show?id=2309405288274679169094 weibo.com/ttarticle/p/show?id=2309405288275060588633 weibo.com/ttarticle/p/show?id=2309405288275429687346 weibo.com/ttarticle/p/show?id=2309405288275799048196

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。个weibo.com/ttarticle/p/show?id=2309405288262242795791 weibo.com/ttarticle/p/show?id=2309405288262716752201 weibo.com/ttarticle/p/show?id=2309405288263077462038 weibo.com/ttarticle/p/show?id=2309405288263433977858 weibo.com/ttarticle/p/show?id=2309405288263794950229 weibo.com/ttarticle/p/show?id=2309405288264159854815 weibo.com/ttarticle/p/show?id=2309405288264617033890 weibo.com/ttarticle/p/show?id=2309405288264990327000 weibo.com/ttarticle/p/show?id=2309405288265354969216

Docker 扩展将 Docker Desktop 的功能拓展到了本地开发环境之外。只需要简单的配置,开发人员就可以安装相关工具,然后直接在工作流中查看日志、指标和追踪信息。这种即时可视化不仅缩短了调试周期,还能帮助开发人员在开发过程中更好地理解容器的行为。

 

然而,一键式可观测性的便捷性背后可能隐藏着更大的挑战。在开发人员的笔记本电脑上运行良好的方案,并不一定能直接转化为企业级可观测性。随着企业容器化工作负载的规模不断增加,必须解决安全、合规、成本管理以及与现有监控平台集成等多个方面的问题。

可见性差距

Docker 扩展旨在提升开发人员的工作效率。它们能够快速访问遥测数据,并提供直观的界面来检查容器行为。

 

然而,企业可观测性需要集中式可视化、历史日志和保留机制,以及跨分布式系统的连接能力。

 

开发环境中生成的遥测数据往往处于孤立状态。在生产环境发生故障时,运维团队可能会发现,保存在本地的详细日志或跟踪信息从未导出到集中式监控平台。

 

仪表板可能仅存在于单台机器上,而跟踪数据可能缺乏事件调查所需的保留策略。

 

虽然遥测数据确实存在,但由于未集成到企业可观测性管道中,所以在规模化场景下无法使用或不被信赖。

为什么可观测性对企业很重要

企业级可观测性不局限于查看日志和指标。企业必须确保遥测数据符合公司需求。可观测性数据通常包含敏感信息,例如身份信息、API 令牌以及请求有效负载的部分内容。在许多企业环境中,由于加密不彻底或访问控制不足,曾经有过遥测管道无意中泄露这类数据的情况,这表明可观测性工具会扩大攻击面。告警、事件响应和根因分析依赖于跨服务的历史数据和关联数据,仅凭本地仪表板无法提供这些功能。

 

组织需要遵守《支付卡行业数据安全标准》(PCI-DSS)、《萨班斯-奥克斯利法案》(SOX)和《通用数据保护条例》(GDPR)等法规所制定的指导方针。这些法规要求对敏感数据进行屏蔽处理、确保遥测管道可审计,并制定受控的保留政策。如果团队能够主动解决这些问题,而不是等到审计时被发现,便可以帮助组织节省宝贵的时间和资金。

架构上的转变

不应该只把 Docker 扩展视为可视化工具,而应该把它看成是进入企业遥测管道的入口。

 

扩展可作为遥测桥接器,从容器中收集信号并将其转发至标准的可观测性工作流。在这个架构中,OpenTelemetry Collector发挥着核心作用,负责接收遥测数据、丰富元数据、执行策略,并将数据导出至多个后端。

 

此外,通过将“策略即代码”直接嵌入到遥测管道中,就可以在不同的环境中实现一致的屏蔽、采样和路由处理,而不需要各团队再手动处理。结合传输层安全(TLS)或证书验证等传输安全措施,即使遥测数据离开本地系统,也能确保其安全。

 

这样做的好处是,开发人员不需要大幅改变工作方式。治理和企业集成层是以现有管道为基础构建的,而不是取代现有的工作流。

企业级可观测性扩展的设计原则

以下是实施该架构模型时应遵循的一些最佳实践或设计原则:

  • 通过 OpenTelemetry 标准化遥测数据,实现可观测性平台之间的互操作性,并降低供应商锁定的风险。

  • 在管道早期阶段引入策略执行机制,通过屏蔽敏感属性,避免下游的合规性和成本挑战。

  • 在早期阶段引入加密、证书验证和访问控制等安全机制,帮助人们建立对遥测数据的信任,使其成为运营资产而非单纯的调试工具。

  • 与现有的可观测性平台集成,通过扩展功能来补充当前使用的工作流,并加速跨团队的采用。

 

为了了解这种方法在端到端流程中的实际运作方式,让我们看看遥测数据是如何在系统中流动的。这一过程始于扩展组件,它们会收集容器日志和指标,并将这些数据传递给一条管道,由它负责数据增强、策略执行以及将数据安全地传输至企业后端。

 

下图展示了该插件在开发人员笔记本电脑上的常规工作方式与遥测桥接模型的对比。在这个模型中,开发人员的工作流可以接入各种可观测性平台。

图 1:本地开发插件可在 Docker Desktop 中提供即时可见性,但遥测数据仍然局限于开发人员的笔记本电脑——既未导出至企业平台,也无数据保留策略,更缺乏相应的治理控制措施。

 

图 2:企业遥测网关通过 OpenTelemetry Collector 转发容器信号,在将数据导出至 Splunk、Datadog 和 Loki 等多个后端可观测性平台之前,实施“策略即代码”、身份控制和传输安全措施。

 

设计企业级 Docker 扩展

让我们以 OBSBridge 为例来说明下这些概念。OBSBridge 是我们假设的一个扩展,旨在将本地 Docker 环境与企业级可观测性后端连接起来。

OpenTelemetry 收集器配置

收集器充当容器与可观测性后端之间的中介,在遥测管道中提供一个策略执行点。以下是一个配置示例:

# otel-collector/config.yamlreceivers:  otlp:    protocols:      grpc:      http:processors:  batch:  attributes:    actions:      - key: user_id        action: delete      - key: credit_card        action: delete  memory_limiter:    check_interval: 1s    limit_mib: 512exporters:  loki:    endpoint: http://grafana-loki.default:3100  prometheus:    endpoint: "0.0.0.0:9090"  otlp:    endpoint: "splunk.example.com:4317"    tls:      ca_file: /certs/ca.pemservice:  pipelines:    logs:      receivers: [otlp]      processors: [attributes, batch]      exporters: [loki, otlp]    metrics:      receivers: [otlp]      processors: [batch]      exporters: [prometheus]
复制代码

该配置允许该扩展程序接收遥测数据、移除敏感属性,并将经过标准化处理的信号转发至多个后端。

利用“策略即代码”实现合规

可观测性策略可以作为受版本控制的工件进行存储,其中定义了屏蔽和采样规则。

 

以下是一个包含采样规则的配置:

# policy.yamlmasking:  - field: user.email    pattern: '(.+)@(.+)'    replace: '***@\\2'  - field: card_number    pattern: '\\d{16}'    replace: '**** **** **** ****'sampling:  traces: 25   # sample 25% of traces  logs: 50     # sample 50% of logs
复制代码

把这类策略存储在 Git 中,既能确保可审计,又能实现跨环境的一致性保证。

 

当遥测数据经过标准化处理并通过扩展程序导出后,团队便能将应用程序信号(如请求量)与基础设施指标(如 CPU 使用率)关联起来。通常,这种可见性的共享能缩短事件发生时的根本原因调查时间,因为团队不再依赖分散的本地仪表板。

连接到现有的平台,如 Splunk 或 Datadog

使用 SaaS 可观测性平台的组织可以通过OTLP或 HTTP 导出器集成这些扩展程序。团队可以使用 Docker Secrets 进行凭据管理,并通过环境变量将其外部化。

最佳运营实践

构建可观测性扩展只是第一步。真正的挑战在于如何运行它,使其在长期使用的时候仍然可靠并且实用。

 

团队通常会发现,遥测管道需要被看成是真正的系统,而非后台工具。日志和指标在仪表板上看似简单,但在到达目的地之前,它们需要经过多个组件的处理。如果其中一个组件发生故障,可能就会有重要的信号悄无声息地消失。因此,许多团队将屏蔽和采样规则保存在受版本控制的文件中,以便能像常规代码一样对变更进行审查和追踪。

 

另一个挑战在于可观测性系统生成的海量数据。容器能够以极快的速度产生大量的日志和追踪信息。永久存储所有数据不仅成本高,还会导致仪表板难以解读。为了解决这一问题,团队通常会对数据进行采样或分组,保留有用的信号,同时避免系统过载。

 

随着环境的扩展,可靠性也变得至关重要。在小型部署中,单个收集器可能就足以胜任这项工作,但在大型系统中,通常需要运行多个收集器,这样即使个别组件发生故障,遥测数据也能持续传输。

 

最后,对可观测性系统进行监控非常有帮助。简单的健康信号可以显示遥测管道的运行是否符合预期,从而及早发现问题,并保持对监控工具的信心。

 

随着时间的推移,可观测性逐渐成为开发、安全和运维团队共同的责任。当所有人都依赖相同的遥测信号时,问题诊断会更加迅速,协作也会更加顺畅。

小结

Docker 扩展功能让开发人员在日常工作流程中可以更轻松地获得可观测性。然而,企业环境需要的不仅仅是本地仪表板和可以快速获取的调试洞察。一旦遥测数据需要从笔记本电脑传输到企业后端,就必须确保其安全性、受到有效管理,并与组织现有的监控平台进行集成。

 

经过精心设计的扩展程序,能够兼顾开发人员的便利性与企业的运维可见性。OpenTelemetry 等标准有助于在不同工具、团队和环境之间可靠地传输遥测数据。而屏蔽、采样和加密等策略控制措施,则有助于确保遥测数据的安全性和合规性。可观测性或许始于一台笔记本电脑,但其可靠性取决于遥测数据如何在更广泛的范围内进行传输。

 

声明:本文为 InfoQ 翻译,未经许可禁止转载。

 

原文链接:https://www.infoq.com/articles/enterprise-grade-observability-extension-docker/

一、按验证等级分(最核心分类)

1. DV SSL(Domain Validation 域名验证)

  • 只验证:你拥有这个域名
  • 验证方式:邮箱、DNS、文件上传
  • 颁发速度:几分钟
  • 显示:浏览器小锁头,不显示企业名称
  • 特点:便宜、快、仅加密
  • 适用:个人站、博客、测试环境、内部系统

2. OV SSL(Organization Validation 企业验证)

  • 验证:域名 + 企业真实身份(营业执照)
  • 颁发速度:1~3 个工作日
  • 显示:锁头 + 点击可查企业名称
  • 特点:企业标配、合规、信任度高
  • 适用:企业官网、商城、公众号 / 小程序、等保合规

3. EV SSL(Extended Validation 增强验证)

  • 验证:最严格,工商、法人、电话、地址全查
  • 颁发速度:3~5 工作日
  • 特点:信任等级最高,价格贵
  • 适用:金融、银行、政府、大型平台
  • 现在主流已很少主推,OV 足够
    • *

二、按保护域名数量

1. 单域名证书

  • 只保护 1 个域名例:www.domain.com

2. 通配符证书(Wildcard)

  • 保护 同一个域名下所有二级域名*.domain.com
  • 如:a.domain.comapi.domain.commp.domain.com 都支持
  • 子域名超多的客户首选

3. 多域名证书(SAN / UCC)

  • 同时保护 多个不同域名例:a.comb.cnc.net 可在一张证书
  • 适合集团、多个网站、小程序多域名
    • *

三、按品牌分类(客户常问)

  • DigiCert(全球第一,最贵、最稳、金融 / 政府首选)
  • Sectigo(原 Comodo,性价比高、市场占有率最高)
  • GeoTrust(DigiCert 旗下,中端常用)
  • GlobalSign(外企、外贸常用)
  • 国产证书:CFCA、中创、天威诚信(等保、国企、政务常用)
    • *

四、一句话极简总结(你电话直接说)

SSL 证书分三类:

  1. DV:便宜快,只加密,个人用
  2. OV:企业正规、可验身份、最常用
  3. EV:最高级,金融政府用

按域名分:单域名、通配符(所有子域名)、多域名(多个不同域名)

我今年35岁,在程序员这个行当干了12年。

去年年底的时候,我差点转行去开滴滴。

不是开玩笑。

那时候整个行业都在喊"寒冬",大厂HC砍了又砍,AI天天说要取代程序员。我每天早上醒来第一件事,就是看有没有被裁员的新闻。

巧了,每次都能看到。

我开始失眠,掉头发,跟老婆吵架。吵得最凶的那次,她问我:"你到底在怕什么?"

我张了张嘴,说不出来。

我怕什么?

我怕35岁找不到工作。我怕被年轻人取代。我怕每个月还不上房贷。我怕我努力了这么多年,最后发现一切都是泡沫。

那天晚上,我一个人下楼走了很远,走到24小时便利店门口,买了包烟。

我没抽,就是捏着它站在路边,盯着来来往往的车发呆。

后来是谁救了我?

说出来你们可能不信——是我妈。

她发微信问我最近怎么样,我说还行,工作挺顺利的。她回了一句:
"你从小遇到事就爱自己扛,扛不住就说,妈帮你想办法。"

那一瞬间,我眼泪差点掉下来。

我突然意识到,我已经很久没有跟任何人说过我的焦虑了。

憋着,扛着,好像说出来就会死一样。

第二天我做了一个决定——把简历放出去,试试看外面到底还有没有机会。

我挑了几个还靠谱的,一一去问。几个技术岗还有招人的渠道,前端、后端、测试都有,一线双一线城市都有坑, 感兴趣可以看看 ,待遇和稳定性都还不错~

结果怎么样?

我面了4家,拿了2个offer。

最后选了一家给薪资最高的,比原来还多了20%。

现在我回头看那段时间,觉得自己特别可笑。

明明没那么绝望,却自己把自己吓死了。

行业确实冷了,但不代表没有活路。

关键是你愿不愿意放下姿态去找,愿不愿意承认自己需要帮助。

如果你也正处于类似的焦虑期,别自己扛着。说出来,没那么丢人。

原文链接: https://tecdat.cn/?p=45539

原文出处: 拓端抖音号@拓端tecdat
封面

关于分析师

在此对 Dawei Zhou 对本文所作的贡献表示诚挚感谢,他在麦吉尔大学完成了 计算机科学 与统计专业的学习。Dawei Zhou 曾在多家咨询机构担任数据分析顾问,参与过多项市场趋势预测与用户行为建模 项目 ,致力于将复杂数据转化为可执行的商业洞察。

    • *

你的旅行还在“罚站式”打卡?权威 报告 揭开真相

你是不是也有这种感觉:精心规划的旅行,最后只剩下手机里一堆在标志物前“罚站”的照片,以及一双走到残废的腿?千篇一律的攻略,让本该放松的旅行变成了一场疲惫的“任务打卡”。

《2026中国文旅新玩法报告》 (由马蜂窝于2026年权威发布)用一句话点醒我们:旅行的底层逻辑已经彻底变了。本次解读,我将带你跳出“上车睡觉,下车拍照”的老套路,看清未来三年真正值得你出发的“新玩法”,让你的下一趟旅程从“看风景”变成“玩生活”。

本文完整研究报告数据图表和文末68份文旅行业最新参考报告合集已分享在交流群,阅读原文查看、进群咨询,定制数据、报告和900+行业人士共同交流和成长。

图1:文旅行业玩法时代开场信息图表1

数据冲击:90%的钱都花在了门票外,你却还在纠结去哪?

很多人焦虑的是:“假期就那么几天,热门景点全是人,不去遗憾,去了后悔,到底该怎么选?” 其实,这个问题的出发点本身就错了。

马蜂窝报告里的两组数据,绝对会颠覆你的认知:

  1. 非门票消费占比预估高达90% :也就是说,你在旅行中花的100块钱里,有90块都花在了吃饭、体验、看演出和住宿上,真正买门票的钱连零头都不到。这就像你去一家高级餐厅,结果只盯着菜单的封皮看。
  2. 人文类新玩法占比40% :近半数的创新旅行方式,都不再是看山看水。比起爬山,年轻人更愿意去河南万岁山找“王婆说媒”入戏,或者去安徽科学岛围观“人造太阳”。

这些数据赤裸裸地告诉我们一个事实:别再纠结“去哪看”,该想的是“去玩啥”!

图2:文旅行业焦虑破局信息图表2


图3:文旅行业新玩法类型结构占比横向条形图表1
 

别再当“观 光 **客”!旅行的本质已变成“体验组合消费”

打破你的固有认知:旅行绝不是一个地理位置的转移动作,而是一场精心策划的“体验组合套餐”。

报告的核心论点非常明确——玩法驱动决策。以前是“我想去成都”,到了再搜“成都玩什么”;现在是“我想体验一次地心探险”,然后才决定去贵州石龙洞。旅游消费已经从单纯的“门票购买”转向了包含情绪价值、社交货币和沉浸体验在内的“复合型消费”。

用户不再是被动观看的客体,而是主动进入场景的主角。旅行的价值,从你踏进那个场景开始计算。

拆解“新玩法”:避开“观光打卡”的坑,拥抱“沉浸体验”的红利

报告里反复提到的“新玩法”,听起来很玄乎,其实特别简单。它指的就是能让你真正参与进去,并产生情绪共鸣的深度体验

基于这个逻辑,我们可以把旅行方式清晰地分为两层:

  • 低价值/高危区(避坑指南) :如果你还在追求“一天刷完八个景点”、“在网红机位排队半小时拍照一分钟”,那你正深陷同质化、被动游览的泥潭。这种“观光打卡”不仅累,回来后脑子还一片空白。
  • 高价值/红利区(聪明玩法) :真正聪明的旅行者,都在主动追求沉浸参与(如钻进溶洞玩桨板)、情绪共鸣(如躺在稻城民宿看银河)和主动共创(如在万岁山被NPC拉进剧情)。他们买的不是一张门票,而是一段独属于自己的故事。

最大的误区纠正:别以为“体验”就等于“烧钱”。比如去安徽广德吃个“三件套”,花不了多少钱,却能在松弛的小城完成一次“低成本逃离”,这就是高性价比的情绪价值。

图4:文旅行业概念拆解信息图表3
 

认知升维:从“资源依赖”到“体验设计”,文旅产业的底层密码

从个人延伸到文旅行业,很多景区老板还在困惑:为什么我投了几千万修个气派的大门,游客还是不来?

行业内最大的落地误区就是:还在靠山吃山、靠水吃水,搞重资产的“资源依赖” 。马蜂窝报告揭示了底层逻辑的本质:文旅产业正在从“资源分发”走向“体验设计” 。未来的核心竞争力,不是你拥有多美的山,而是你能围绕这座山设计出多少个让人“哇塞”的玩法。

谁能持续创造新玩法,谁就能持续创造新消费。这才是文旅行业在“玩法时代”的生存密码。

真实案例:贵州山洞里的“地心探险”,如何让村民变身“高薪教练”?

理论听起来有点空?我们看个真实案例——贵州清镇的石龙洞探险

  • 传统思维:这就是个黑黢黢的普通水溶洞,顶多装几个彩灯卖门票。
  • 新玩法思维:把它设计成一场需要体力与勇气的“地心探险”。
  • 落地流程:在专业向导带领下 →  乘桨板穿越幽深蓝洞 →  挑战岩壁攀爬 →  体验洞穴浮潜与冥想。

结果如何?原本静态的自然景观瞬间活了过来,不仅带动了装备租赁、向导服务等消费,最牛的是,当地村民被培养成了持证户外教练,收入大幅提升,真正实现了乡村的自我“造血”。一个洞盘活了一个村,这就是玩法设计的魔力。

图5:文旅行业案例验证信息图表4
图6:文旅行业非门票消费占比变化趋势折线图表2


 

行动指南:给你的3条“玩法时代”旅行升级建议

与其羡慕别人玩得高级,不如直接从这三条行动建议开始改变你的下一趟旅行:

  1. 扭转搜索习惯:从搜“地名”改为搜“玩法”

    • 错误做法:打开APP直接输入“XX旅游攻略”。
    •  正确方向:搜索“XX 沉浸式体验”、“XX 小众玩法”。
    • 核心价值重塑决策起点,让你的行程规划直接从“体验”切入,过滤掉无效的打卡景点。
  2. 重构行程组合:采用“1个核心玩法 + N个松弛周边”公式

    •  错误做法:把行程排成“特种兵”拉练,一天转场无数次。
    • 正确方向:锁定一个能深度参与的核心玩法(如一场手作非遗、一次户外徒步),围绕它安排吃饭、发呆、闲逛的时间。
    • 核心价值提升旅行质感,用80%的时间获得100%的情绪价值,避免旅途疲惫。
  3. 转变消费心态:为“情绪价值”和“独家记忆”买单

    • 错误做法:旅途中只舍得花门票钱,对体验项目斤斤计较。
    • 正确方向:主动寻找能让你动手、动脑、动情的在地活动,大方地为那一瞬间的共鸣付费。
    • 核心价值升级旅行资产,门票会忘,但沉浸式的体验会成为你长久回味的“人生电影”。

图7:文旅行业行动指南信息图表5

旅行的意义从来不在于走了多远,而在于你体验到了什么。如果你想抢先一步掌握2026年的100种全新打开方式,这里有一份专属福利给渴望深度探索世界的你。

    • *

获取文末所有参考行业报告及数据,进交流群,加小助手微信号:tecdat_cn

本文引用数据图表列表:

  • 图1:文旅行业玩法时代开场信息图表1
  • 图2:文旅行业焦虑破局信息图表2
  • 图3:文旅行业新玩法类型结构占比横向条形图表1
  • 图4:文旅行业概念拆解信息图表3
  • 图5:文旅行业案例验证信息图表4
  • 图6:文旅行业非门票消费占比变化趋势折线图表2
  • 图7:文旅行业行动指南信息图表5

本专题内的参考报告(PDF)目录:

  1. 2026中国文旅新玩法报告 报告2026-04-14
  2. 2026中国旅游AI营销白皮书 报告2026-04-12
  3. 中国商旅市场研究报告2026 报告2026-04-10
  4. 2025旅居养老时空大数据分析报告 报告2026-04-09
  5. 2025年文旅产业技能人才需求预测报告 报告2026-03-29
  6. 银发旅游提升老年人幸福感的调查研究:基于河北省60岁及以上老年人的调研... 报告2026-03-16
  7. 中国健康旅游产业发展报告(2025) 报告2026-03-15
  8. 2025年度中国移动出行&在线旅游投诉数据与典型案例报告 报告2026-03-15
  9. 2026人工智能+旅游趋势报告 报告2026-03-13
  10. 中国旅游行业信用观察(2026) 报告2026-03-09
  11. 2026年旅行洞察之足球界的盛世 报告2026-03-09
  12. 2025绿色引擎与消费升级的双向奔赴:体育旅游高质量发展与体验重构 报告2026-03-09
  13. 2025年中国温泉旅游行业发展报告 报告2026-03-08
  14. 旅游业多元化:沙特阿拉伯和卡塔尔 报告2026-03-06
  15. AI与B2B旅程中的数字趋势报告 报告2026-03-05
  16. 2025旅行社的AI变革与创新趋势报告 报告2026-03-05
  17. 酒旅行业ESG白皮书 报告2026-03-04
  18. 2026中国企业差旅交通出行数据研究报告 报告2026-03-04
  19. 2025年度乡村旅游业发展情况报告 报告2026-03-01
  20. 文化旅游基础设施与运营行业2025年信用回顾与2026年展望 报告2026-02-26
  21. 2026年中国旅客出境游人群调研及洞察报告 报告2026-02-13
  22. 2026年旅游促进发展报告-从十年世界银行经验中汲取的教训 报告2026-02-11
  23. 旅游促进发展-从十年世界银行经验中汲取的教训 报告2026-02-06
  24. 2025年AI与数字化趋势:B2B客户旅程洞察 报告2026-02-06
  25. 小红书新春市行业玩法-集酒旅行业专场 报告2026-02-04
  26. 低空文旅产业发展研究报告 报告2026-02-03
  27. 2025年11月世界旅游晴雨表 报告2026-01-30
  28. 2026元旦春节文旅消费者洞察报告 报告2026-01-28
  29. 2026年智旅新纪元:AI与旅游产业融合全景报告 报告2026-01-22
  30. 去运动,去旅行! 报告2026-01-19
  31. 人工智能是旅游和酒店业的核心-赋能个性化、效率和增长 报告2026-01-18
  32. 2025年人工智能是旅游和酒店业的核心报告-赋能个性化、效率和增长 报告2026-01-14
  33. 云南省2025旅居产业十五五发展展望蓝皮书 报告2026-01-07
  34. 人工智能是旅游和酒店业的核心——赋能个性化、效率和增长 报告2026-01-05
  35. 2025年人工智能:旅游与酒店业的核心驱动力-赋能个性化、效率与增长报... 报告2026-01-02
  36. 人工智能是旅游和酒店业的核心-驱动个性化、效率和发展 报告2025-12-31
  37. 抖音2025年文旅数据报告 报告2025-12-31
  38. 2025年AI旅游行程助手类产品能力评测报告 报告2025-12-30
  39. 2025年全球及中国旅游列车行业白皮书 报告2025-12-29
  40. 冰雪旅游行业研究报告 报告2025-12-24
  41. 2025年中国文旅景区运营发展报告 报告2025-12-23
  42. 旅游零售升级:封关背景下的海南旅游零售产业新格局 报告2025-12-22
  43. Z世代冰雪旅游行为洞察报告2025-从“种草”到“出发” 报告2025-12-22
  44. 2025年假日旅行调查报告 报告2025-12-21
  45. Z世代冰雪旅游行为洞察报告2025 报告2025-12-19
  46. AI+智能洞察报告:人工智能如何重塑消费者旅程与商业决策 报告2025-12-19
  47. 2026年全球旅游趋势报告 报告2025-12-18
  48. 2025年前三季度旅游行业运行分析 报告2025-12-18
  49. 2026年全球六大旅游趋势报告 报告2025-12-11
  50. 2025年全国县域文旅融合发展报告 报告2025-12-08
  51. 2025年轻人旅游趋势报告 报告2025-12-01
  52. 2024-2025年跨境旅游消费趋势研究报告 报告2025-11-28
  53. 2025年文旅行业新媒体营销趋势报告 报告2025-11-08
  54. 2025年Q3中国商旅管理市场差旅管理趋势研究报告 报告2025-11-08
  55. 县区全域文旅智慧化解决方案 报告2025-11-06
  56. 在线旅游消费满意度调查报告(2025) 报告2025-11-05
  57. 当下与未来:2025-2026年旅游行业报告 报告2025-11-02
  58. 2025全球高校旅游产业学科内容调查 报告2025-11-01
  59. 2025年旅游休闲度假消费热点特征与案例研究报告 报告2025-11-01
  60. 2025新经济时代精智人群长寿新旅程报告 报告2025-10-28
  61. 近期营销旅行中的六大讨论主题 报告2025-10-15
  62. YouTube旅游分类策略 报告2025-10-11
  63. 2025企业出海商旅管理报告 报告2025-10-09
  64. 旅游业未来四种情景 报告2025-10-05
  65. 2025年旅游与航空业人工智能(AI)状况报告 报告2025-10-05
  66. 机会在下沉:2025中国企业差旅趋势洞察之住宿篇 报告2025-09-29
  67. 2025年新型需供关系驱动下的中国AI文旅发展趋势报告 报告2025-09-25
  68. 2024-2025年旅游趋势报告 报告2025-09-24
    • *

图文 对照 表(环节与图表ID映射)

正文环节对应小标题引用图表ID
环节1-2你的旅行还在“罚站式”打卡?/ 数据冲击图1:开场信息图表1
环节3-4别再当“观光客”!/ 拆解“新玩法”图2:焦虑破局信息图表2 图3:类型占比图表1
环节5认知升维:从“资源依赖”到“体验设计”图4:概念拆解信息图表3
环节6真实案例:贵州山洞里的“地心探险”图5:案例验证信息图表4 图6:趋势折线图表2
环节7行动指南:给你的3条“玩法时代”旅行升级建议图7:行动指南信息图表5

2025年,上海文琦汇点美高的八名高中生,在 1024 基金会 OPC 团队指导下,采用拓数派提出的 “零代码智能体” 方法论,依托旗下大模型数据计算系统πDataCS,打造了一款面向西藏中小学生的西藏英语教学平台。

为精准匹配藏区学生的学习需求,文绮汇点多次组织项目成员前往西藏自治区拉萨市林周县林周中学开展实地调研,深入挖掘当地英语教学中的痛点难点,并将调研成果充分融入产品设计全过程。2026年4月7日,1024 OPC讲师、拓数派AI产品经理吴疆在上海文琦汇点的邀请下,共同前往林周中学,为在校师生展示和部署多次迭代完成的 "西藏英语教学平台" 产品最新版本。
微信图片_2026-04-16_135328_061.jpg
西藏林周中学

在林周中学信息教室开展的体验课中,同学们怀着好奇与期待,有序登录平台,开启了全新的英语学习体验。平台的易用性与趣味性在学生体验环节获得热烈反响,同学们积极参与平台互动,主动分享自己的操作心得和学习收获,学习热情被充分激发,原本略显枯燥的英语学习变得生动鲜活。现场老师也对平台给予高度评价,认为平台精准贴合藏区英语教学痛点,操作便捷易上手,既能辅助教师开展教学,也能帮助学生自主学习,为当地英语教学注入了新活力。
老师讲解.jpg
课堂氛围浓厚

课后,文绮汇点与吴疆专门为林周中学英语教研组欧老师、杜老师等核心教师进行了系统的平台功能讲解与实操演示,并与在场老师和学生们进行深入交流,收集教学场景下的功能需求与优化建议。这些反馈将为文琦汇点学生团队后续的平台迭代提供重要支撑,而迭代工作也将在1024基金会的协助、与πDataCS平台的支撑下有序推进。
微信图片_2026-04-16_135328_061.jpg
平台页面展示

西藏英语教学平台项目,不仅是1024基金会OPC教育项目实践的一次成功落地,更是基金会以“零代码智能体”赋能各行各业OPC创业者的生动体现。未来,1024基金会将依托其姊妹公司拓数派的技术支持,指导文琦汇点学生团队不断迭代优化,持续完善产品功能、贴合藏区学情,让科技成果更好地服务于教育,助力更多群体成长受益。

最近很多公益站之类的都不稳定,分享一个我自己在用的方式。

优势:腾讯出品、稳定无风控、免代理、送 1250 积分免费使用、操作简单、支持 jetbrains 、vscode 插件

第一步: 网站: https://www.codebuddy.ai/home 国际版,进行 github 注册登录,然后领取免费积分
第二步:ide 装上对应插件,登录国际版即可进行使用。

具体贴图步骤: https://mp.weixin.qq.com/s/M2dEjB8jzgnSMupWHyVTkA

注 1:1000 积分在 4 月 19 日前进行领取
注 2: 对我而言这个积分可以用半个月,因人而异

目前仅支持四家银行,农行,中行,浦发信用卡,中信信用卡和借记卡。

返现活动应该马上就有了。美中不足的是仅支持国外交易。

3GcjvUU

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。个weibo.com/ttarticle/p/show?id=2309405288127752699973 weibo.com/ttarticle/p/show?id=2309405288128092176507 weibo.com/ttarticle/p/show?id=2309405288128436109406 weibo.com/ttarticle/p/show?id=2309405288128872317003 weibo.com/ttarticle/p/show?id=2309405288129224900743 weibo.com/ttarticle/p/show?id=2309405288129568571509 weibo.com/ttarticle/p/show?id=2309405288129916698669 weibo.com/ttarticle/p/show?id=2309405288130256699474 weibo.com/ttarticle/p/show?id=2309405288130692644884

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。weibo.com/ttarticle/p/show?id=2309405288118126773048 weibo.com/ttarticle/p/show?id=2309405288118466510926 weibo.com/ttarticle/p/show?id=2309405288118806249516 weibo.com/ttarticle/p/show?id=2309405288119145988231 weibo.com/ttarticle/p/show?id=2309405288119485464658 weibo.com/ttarticle/p/show?id=2309405288119917477982 weibo.com/ttarticle/p/show?id=2309405288120248828101 weibo.com/ttarticle/p/show?id=2309405288120584634842 weibo.com/ttarticle/p/show?id=2309405288120919916902

公司介绍:

科库医疗 我们是一家位于上海交科医疗产业园,集生命医疗、人工智能、智能制造于一体的创业公司。

项目范围

开发公司自主使用的 数字化 AI 系统

招聘摘要

  • 没有 学历 要求
  • 没有 年龄 要求和限制
  • 没有 工作年限 要求
  • 签甲方合同,非外包合同

基本要求:

  • 熟练掌握 GIT 版本控制系统,能够进行代码的版本管理与协同工作。
  • 熟悉 TypeScript 编程语言,能够编写类型安全、可维护的代码。
  • 熟悉 NestJS 框架,能够构建高效、可维护的后端服务。
  • 熟悉 Prisma 、MikroORM 等 ORM 框架。
  • 熟悉 Jest 测试框架,能够编写高效的单元测试。
  • 熟悉 Ubuntu 、Docker 的开发使用。
  • 熟悉 AI 规范驱动开发 模式
  • 具有中后台、ERP 、或其它企业数字化 类项目开发经验。

加分项:

  • 了解 React Ant Design 前端开发
  • 有低代码相关项目经验
  • 熟悉 PlayWright 自动化测试工具,能够进行端到端的测试
  • 熟悉 网络安全 相关经验

职位要求:

  • 良好的编程习惯,包括代码重构和设计模式的应用。
  • 前端代码的持续测试和优化。
  • 与团队成员合作,确保项目按时交付。
  • 持续学习新技术,以保持技术领先地位。

我们提供:

  • 竞争力的薪酬和福利。
  • 丰富的职业发展机会和学习资源。
  • 全球化的技术工程视野。

其他

  • 薪资范围:30-40W 年包
  • 投递邮箱: [email protected]
  • 工作地点:上海松江 9 号线泗泾地铁站附近

一、什么是OV证书?

SSL证书主要分为DV(域名型)、OV(企业型)和EV(增强型)三大类,三者的核心差异在于“身份验证的深度”。

  • DV证书:仅验证域名所有权,审核简单、签发快,几分钟即可下发,但无法体现网站背后的企业主体身份,容易被仿冒站点利用。
  • OV证书:不仅验证域名控制权,还对企业真实身份进行多维度核验,包括营业执照、法人信息等,审核周期通常为1—3个工作日。用户点击浏览器“锁标”后,可查看企业的完整信息,成为品牌信任的直观凭证。
  • EV证书:验证最为严苛,审核周期最长、成本最高,适用于银行、支付平台等对安全要求极高的场景。

对于绝大多数企业而言,OV证书凭借“企业实名验证、安全等级适中、成本可控”的优势,完美匹配了从企业官网、电商平台到业务系统的多样化需求,成为行业内公认的企业级证书首选。

二、JoySSL国产OV证书的优势

JoySSL是国内为数不多的自主品牌SSL证书CA机构之一,具备国家密码管理局商用密码认证,其证书兼容性、安全性和本地化服务均有充分保障。

选择JoySSL的OV证书,企业可以获得以下显著价值:

  • 数据不出境,合规无忧:验证全程在国内操作,消除数据外泄风险,满足《网络安全法》《密码法》及等保2.0等合规要求。
  • 本土化高性能:OCSP在线证书状态协议服务器部署在中国境内,证书校验速度更快,用户访问体验更流畅。
  • 高性价比:以JoySSL OV单域名证书为例,年费约1300元起;OV通配符证书(可保护主域名及所有子域名)年费约4280元,显著低于国际品牌同类产品。
  • 服务保障完善:提供30天无条件退款政策、7×24小时中文技术支持,部分产品支持90天免费体验,大幅降低企业的试错成本。

三、JoySSL OV证书申请全流程

OV证书申请入口

以下是OV证书的标准化申请步骤:

第一步:准备材料

申请前需提前备好以下核心材料:

  • 企业营业执照副本扫描件(需在有效期内,加盖公章)
  • 法人身份证正反面扫描件
  • 域名所有权证明(如域名注册商后台截图或ICP备案截图,备案主体须与申请企业一致)
  • 企业授权委托书(CA机构标准模板,需法定代表人签字并加盖公章)

第二步:选择证书类型并提交申请

访问JoySSL官网,注册账号并选择所需的OV证书类型(单域名、通配符或多域名证书)。提交时需填写企业基本信息(名称、统一社会信用代码、联系人及电话等),并上传准备好的材料文件。

第三步:完成验证

CA机构将启动“资质核验 + 域名验证”双重审核:通过国家企业信用信息公示系统核实营业执照真实性,同时完成域名所有权验证(通常为DNS记录验证或文件验证)。审核通过后,OV证书通常在1—3个工作日内签发。

第四步:下载部署与维护

验证通过后下载证书文件包,在服务器端完成配置部署。建议定期检查HTTPS连接状态,设置续期提醒,确保网站始终处于安全受保护状态。

这次转一篇团队小伙伴关于禅道AI知识库的介绍。

公司明明有很多经验丰富的员工、有积累了数年的项目文档,但每当新项目启动或新人入职时,为什么大家还是在重复造轮子

这背后的关键是:企业并不缺知识,也不缺文档,缺的是一套将碎片化信息转化为能便利取用的知识库。

在AI时代,真正的竞争力不再是拥有多少文档,而是提取复用迭代知识的速度。今天来安利一个目前我觉得最好用的AI知识库。

一、为什么企业知识库难积累?

我们总习惯把技术方案丢进微信、会议纪要塞到群聊、经验总结写进周报,可这些内容最后都去哪了?

找文件要翻遍微信聊天记录,找经验要扒拉几个月前的周报,找会议纪要得在群聊里搜索关键词。明明记得有相关内容,却怎么也匹配不到精准关键词;员工一走,对应的文档也跟着不知所踪。

开发的技术方案、产品的需求初稿、测试的Bug分析报告,全都散落在各地,彼此之间毫无关联。

对我们来说,传统的知识库只是一个仓库,它只负责装东西,却不会说话。当你需要答案时,它要求你自己去翻阅、阅读、总结

这种收藏式的知识管理,其实在损耗企业效率。我们花费了大量的人力成本记录,却无法在关键决策时刻提供精准的价值。

二、禅道AI,如何重塑企业的知识库?

禅道的AI知识库,能让知识从碎片化的散落形态,变成结构化沉淀。无论是需求拆解、测试用例编写,还是项目复盘,利用AI+知识库提取,能够辅助生成标准化的结构内容,让每一份经验都精准纳入企业知识资产库,从根源上解决知识零散衰减快的问题。

1.告别精准搜索,灵活唤醒内容

在知识库中,我们不用死记文档标题或者关键词,哪怕只记得一个模糊概念或场景,也可以通过AI对知识库进行理解、调用,从海量文档、需求中直接找答案。

2.串联全角色,让知识能管理、能共享

知识管理的核心是,清晰的所有权与协同机制,才是知识库持续运转的关键。禅道的AI知识库不止是存储工具,更能对项目管理的全角色起到针对性的帮助:

  • 产品经理:辅助完成用户故事梳理,识别与化解需求冲突,沉淀需求分析思路,确保需求定义清晰准确;
  • 开发团队:生成技术方案、基于历史数据做代码分析,固化技术经验与踩坑总结,避免重复犯错;
  • 管理层:通过对话交互快速汇总项目信息、潜在风险,让决策脱离直觉,清晰掌握企业知识资产现状,推动知识治理落地……

3.对话式复用,让知识能被问出来

遇到技术难题时,我们可以直接问AI:“之前项目怎么解决的高并发数据一致性问题?”AI会调用挂载的历史知识库,给出可行的经验方案。这种方式大幅缩短信息路径,让知识真正可复用。

在禅道的智能会话、禅道智能体、通用智能体中,我们都可以直接调用AI知识库,让AI的输出更贴合业务的结果。

三、简单搭建企业AI知识库,落地即用

第一步:分场景建库,适配个人与团队需求

在创建知识库中,用户可以直接创建一个知识库,也可以从现有文档库或资产库中导入。创建时,可以创建个人知识库和组织知识库,两者相互补充:

  • 个人知识库:仅创建者可见,适合沉淀私人工作经验、零散心得;
  • 组织知识库:创建好公开的组织知识库后,为团队配置好知识库的权限,可实现全员共享,主要用于存储公司统一的项目规范、通用方法论、行业标准等。

禅道项目管理软件AI知识库

禅道项目管理软件AI知识库

禅道项目管理软件AI知识库

这样我们可以根据实际的使用场景可以精准划分知识库,避免知识混乱。

知识库创建后,我们可以进行编辑、发布或下架操作。未发布的知识库将显示“草稿”标签,一旦知识库发布,便可以正常使用。

禅道项目管理软件AI知识库

第二步:一键导入数据,让AI读懂项目

在AI知识库中,通过导入禅道的核心项目数据,可以提升AI知识库与禅道中的具体项目业务贴合率

我们可以从禅道中勾选需求、用例、Bug、任务、工单等项目数据一键导入,也可以将行业报告、培训资料等本地文件直接导入知识库,还能直接手动编辑添加这些零散的经验总结、方法论笔记。

禅道项目管理软件AI知识库

第三步:发布调用,持续创造价值

知识库创建后,编辑完善即可选择发布。

我们可以在AI会话界面@知识库精准定位,比如问“如何设计本项目测试用例” 并@测试用例设计知识库,AI会结合库中的内容给出精准方案。

禅道项目管理软件AI知识库

在禅道中创建创建产品经理、客服等专属智能体时,挂载对应的知识库,也能够让智能体具备贴合业务的分析、解答能力。

禅道项目管理软件AI知识库

禅道AI赋能下的知识库,可以帮助我们企业实现:

  • 从个人经验到组织智慧:让专家的经验不再随人员流动而流失,而是永久固化在工具中。
  • 从低效搜索到瞬间响应:缩短信息获取路径,就是提升企业的反应速度。

在现在信息泛滥的时代,有效的信息早已稀缺。只收藏不消化、只积累不运用,最终只会造成知识浪费。从今天开始,转变思路、系统沉淀,从零搭建属于企业自己的AI知识库,让知识真正产生高效的价值。

RAID6可以看作是RAID5的增强版本,在RAID5单校验的基础上增加了第二重校验机制。从存储空间利用率来看,RAID5为N-1模式,RAID6则为N-2模式。今天北亚数据恢复中心为大家分享一则高难度的RAID6磁盘阵列恢复案例。

服务器数据恢复环境&故障:
某企业一台Web服务器采用6盘位RAID6磁盘阵列,运行过程中出现3块硬盘先后离线,导致阵列直接崩溃,服务器无法正常上线,内部MySQL数据库全部丢失,业务被迫中断。负责人联系北亚数据恢复中心恢复数据。

服务器数据恢复过程:
虽然日常工作中恢复RAID5阵列数据的案例更多,但RAID6与RAID5的基础恢复流程基本一致。
1、北亚数据恢复工程师抵达现场后,首先按盘序将所有硬盘取出,逐一完整镜像至数据恢复专用安全存储环境,完成后将原盘原样归还给客户,后续仅使用镜像文件进行底层分析与恢复操作,避免对原始数据造成二次损坏。
2、RAID6阵列采用双重校验机制:第一重校验与RAID5相同,采用常规异或(XOR)运算;第二重则基于Reed-Solomon算法,校验结构更为复杂。北亚数据恢复工程师检测后发现,3块离线硬盘中有2块离线时间较早,盘内数据已无恢复价值,只能依靠第二重校验算法对最后一块离线硬盘进行数据重组与提取。
3、北亚数据恢复工程师根据该服务器阵列实际结构,定制专属恢复方案。
4、北亚数据恢复工程师先精准分析阵列条带大小、盘序、校验方向等底层参数,再对现有恢复工具进行适配改造,重新编译程序以匹配该RAID6结构,成功重组阵列并生成完整镜像文件。
5、重组完成的镜像文件即可用于数据验证。数据恢复工程师先行自检无误后,由客户现场进行数据核验。经确认,所有MySQL数据库及业务文件均完整恢复,数据无丢失、无损坏。客户对恢复结果高度认可,本次高难度RAID6磁盘阵列数据恢复圆满成功。

原文链接:https://tecdat.cn/?p=45541
原文出处:拓端抖音号@拓端tecdat
封面

关于分析师
在此对Kaizong Ye对本文所作的贡献表示诚挚感谢,他在上海财经大学完成了 统计学 **硕士学位,并在佛罗里达州立大学获得博士学位,专注人工智能与医疗数据分析领域。

分析师头像

    • *

医院买了一堆 AI 系统,医生却还在手写病历?

如果你在医疗圈工作,一定会对这个场景感同身受:影像科上了AI辅助诊断,行政部装了智能语音录入,院长大会上PPT里全是“智慧医院”蓝图——可一线医生照样加班写病历,患者也感觉不到任何变化。AI明明已经火了好几年,为什么一到医疗这个万亿级赛道,就始终“雷声大雨点小”?

文完整研究报告数据图表和文末68份医疗AI行业最新参考报告合集已分享在交流群,阅读原文查看、进群咨询,定制数据、报告和900+行业人士共同交流和成长。

今天我们要拆解的这份OECD(经济合作与发展组织)于2026年4月发布的《扩大健康领域的人工智能应用》报告,用覆盖38个成员国的真实数据和政策清单,彻底撕开了这层窗户纸。读完这篇解读,你不仅能看清医疗AI卡在哪,还能拿到一套可以直接对标自身机构现状的“负责任规模化”体检表。

引用图表:健康AI_OECD国家政策行动覆盖率横向比例条形图表1
    • *

只看到“AI替代医生”?你被最表层的数据骗了

一提到医疗AI,多数人的第一反应是“会不会取代影像科医生?”或者“诊断准确率到底够不够高?”——这些焦虑本身没错,但报告告诉我们,真正拖慢AI落地的根本不是 技术 成熟度。

报告给出了两个极具冲击力的对比数字:
第一,在所有OECD国家,AI已100%渗透进卫生系统的行政管理环节——挂号、排班、对账这些“后台活”,AI早就干得飞起;
第二,在临床核心场景,比如医学影像辅助诊断,真正实现全国范围内推广应用的,只有10%。

如果把医疗AI比作一辆车,现在的情况是:轮胎(行政流程)已经滚得飞快,但发动机(临床诊疗)始终点不着火。不是轮胎不够多,是发动机舱里缺了最关键的点火装置——而这个装置,叫“政策治理”。

    • *

别再迷信“AI自己会找到出路”,负责任规模化才是破局点

很多人潜意识里认为,只要AI工具足够好用,市场自然会推着它落地。报告用一组扎心数据直接打破了这个幻想:在38个OECD成员国中,仅有18%的国家制定了AI与健康交叉领域的专项国家战略或行动计划。没有顶层设计的医疗AI,就像没有航标的河流,任凭技术之船怎么先进,也只能在试点里打转。

报告给出的核心观点一针见血:医疗AI必须走“负责任规模化”之路——在数据基础、监管护栏、能力建设三个支柱上同步发力,才能从10%的试点覆盖率,真正迈向全民受益的规模化阶段。

引用图表:健康AI_开场主题锚定信息图表1
    • *

别把“负责任规模化”当空话,它划出了两条截然不同的路

“负责任规模化”听起来很学术, 翻译 成人话就是:不是不让AI跑,而是给AI铺一条有护栏、有路标、有加油站的高速公路。**
报告进一步把这个概念拆成了两个区,对照一下,你就知道自己的机构现在踩在哪条道上:

⚠️ 高风险/低价值区(避坑指南)

  • 监管缺失:没有明确的AI临床审批路径,买来的系统成了“黑箱”,出事没人担责。
  • 数据孤岛:影像科数据、电子病历、检验报告彼此不互通,AI训练靠“盲人摸象”。
  • 采购滞后:医院招标流程还停留在“买设备”逻辑,对AI这种软性服务的价值评估一片空白。

✨ 高价值/红利区(发力方向)

  • 数据治理:像丹麦、芬兰一样建立国家级健康数据目录,让AI训练有高质量“口粮”。
  • 立法先行:参照欧盟AI法案,明确医疗AI的风险等级和准入标准,给行业吃下定心丸。
  • 人才培育:把AI素养纳入医学院必修课,让未来医生像用听诊器一样用AI。

报告数据显示,已有72%的OECD国家制定了AI相关立法(含健康条款),但在采购更新(11%)和人才方案(29%)上严重滞后。谁先填平这三道沟,谁就能抢到下一轮医疗AI的入场券。

引用图表:健康AI_焦虑破局认知反转信息图表2
引用图表:健康AI_概念拆解价值分层信息图表3
    • *

从个体焦虑到行业觉醒:医疗AI的本质不是技术竞赛,而是治理工程

到这里,我们得把视角从“某个医院该不该买AI”拔高到整个行业层面。报告反复强调一个被多数人忽视的底层逻辑:医疗AI的规模困境,根源不在算法,而在制度供给的碎片化。

很多医院管理者抱怨“AI厂商太多、标准太乱”,其实这恰恰是政策缺位的直接后果。没有统一的互操作性标准,没有清晰的责任界定,没有激励相容的报销机制——结果就是每家医院都在重复造轮子,真正能跨院、跨区域流动的AI解决方案寥寥无几。

报告提炼的底层规律很残酷也很清醒:AI在医疗领域的竞争,本质上是一场国家层面的治理能力竞争。 谁能用政策和标准把“数据—算法—临床”的链条焊死,谁就能让AI从昂贵的玩具变成普惠的生产力。

    • *

英国NHS的AI实验室,给全世界打了一个样

报告里有一个反复被提及的正面案例:英国国家医疗服务体系(NHS)的人工智能实验室。他们没有一上来就喊着“用AI替代医生”,而是老老实实走了四步流程:

  1. 监管沙盒测试:在真实但受控的环境里跑通AI产品,边测边改。
  2. 临床验证:用严格的临床试验设计,证明AI对患者结局的真实改善。
  3. 采购整合:把通过验证的AI工具纳入NHS统一的采购框架,避免各医院“单打独斗”。
  4. 规模化部署:基于统一的接口标准,将AI工具推广到全英各级医疗机构。

这套流程带来的量化成果让人无法反驳:美国医学协会(AMA)的研究显示,仅环境语音技术一项,就让医生的文档处理时间缩短了85.8% ——每例病例平均节省5.27分钟,医生终于能把时间还给患者。

85.8%这个数字背后,不是某个算法的炫技,而是“治理先于技术”这套方法论的成功。

引用图表:健康AI_案例验证流程拆解信息图表4
    • *

三件事,马上就能在你的机构里开始做

看完这么多数据和案例,如果你只能带走三样东西,我建议是下面这三条零门槛行动清单:

第一条:别再“等法规完善”,主动申请进入监管沙盒

错误做法:观望,等国家出台细则再动手。
正确方向:联络当地卫健委/药监部门,询问是否有AI医疗器械的优先审评或沙盒试点通道,主动提交你的应用场景。
核心价值:抢占合规先机,用早期参与换取政策红利,避免未来产品上市时因合规返工。

第二条:停止“只买工具不建地基”,优先投资数据互操作性

错误做法:采购AI影像系统时不检查它能否接入医院现有HIS/EMR。
正确方向:在新采购标书中强制要求厂商提供符合FHIR等国际标准的 数据接口 **,同时启动院内历史数据的清洗与标准化。
核心价值:让每一份AI投入都能沉淀为机构级数据资产,而不是又一个孤立的信息烟囱。

第三条:把“AI素养”写进临床人员的年度考核

错误做法:买来系统后发一份PDF操作手册就完事。
正确方向:联合医学院/行业协会,设计2-4学时的AI基础认知课程,内容包括AI决策的局限性、偏倚识别、人机协作规范。
核心价值:减少临床抵触,提升AI采纳率,更重要的是建立起对AI输出结果的合理质疑与验证文化。

引用图表:健康AI_行动指南建议清单信息图表5
    • *

这份OECD报告全文长达60页,内含九大政策领域42个关键问题的详细对标表,是制定机构AI战略的绝佳参照。

获取文末所有参考行业报告及数据,进交流群,加小助手微信号:tecdat_cn

    • *

本文引用图表清单

图表序号图表名称
图表1健康AI_OECD国家政策行动覆盖率横向比例条形图表1
图表2健康AI_开场主题锚定信息图表1
图表3健康AI_焦虑破局认知反转信息图表2
图表4健康AI_概念拆解价值分层信息图表3
图表5健康AI_案例验证流程拆解信息图表4
图表6健康AI_行动指南建议清单信息图表5
    • *

本专题内的参考报告(PDF)目录

  1. AI对话与消费决策研究报告-医疗健康篇 报告2026-04-12
  2. 2026年2月全球医疗健康领域投融资月报 报告2026-04-12
  3. 中国医疗健康行业资本市场趋势 报告2026-04-10
  4. AI对话与消费决策研究报告—医疗健康篇 报告2026-04-09
  5. 2025年中国互联网医疗行业消费行为调查数据 报告2026-04-08
  6. 2026医疗生产力重构:AI、机器人与量子技术的应用前景量化分析报告 报告2026-04-04
  7. 智能驱动的医疗健康生态系统-从数据到决策的全面优化 报告2026-03-27
  8. 中国银发经济:医疗与保险 报告2026-03-24
  9. 医疗质量管理与控制指标汇编(8.0) 报告2026-03-19
  10. 医疗马赛克:人工智能日益增长的重要性 收入周期管理 市场 报告2026-03-13
  11. 人工智能与医疗行业计费的未来:供应商和投资者的突破 报告2026-03-06
  12. 2026年全球并购趋势展望:医疗健康 报告2026-03-05
  13. 科技缔造光明视界:高视医疗战略升级,攀登眼科医疗器械新高峰 报告2026-03-04
  14. 2026年全球医疗趋势报告 报告2026-03-03
  15. 2025年AI医疗器械品牌推荐:重构医疗生态的 AI驱动型领跑者 报告2026-03-03
  16. 国家基本医疗保险、生育保险和工伤保险药品目录(2025年) 报告2026-02-27
  17. 2025年医疗人工智能年度报告 报告2026-02-24
  18. 医疗保障、气象服务领域“数据要素×”典型场景指引 报告2026-02-24
  19. 2026生成式AI在医疗领域的变革性力量研究报告 报告2026-02-14
  20. 2026年医疗健康与生命科学行业职场展望 报告2026-02-12
  21. 远程医疗:2025年回顾与2026展望 报告2026-02-11
  22. 医疗健康大数据洞察报告:2025年医疗健康领域非全日制博士申请者画像 报告2026-02-10
  23. AI医疗治理白皮书(2026版) 报告2026-02-01
  24. 2025年智能体时代:重塑企业未来报告-医疗保健和生命科学行业 报告2026-02-01
  25. 未来健康7:未来的医疗体系 报告2026-01-29
  26. 2025年医疗器械BD白皮书 报告2026-01-26
  27. 全球医疗科技行业深度研究 报告2026-01-25
  28. 口腔医疗机构广告合规指南(2025) 报告2026-01-25
  29. 2026年医疗领域人工智能(AI)应用状况报告 报告2026-01-22
  30. 2025医疗科技领域AI应用:驾驭变革与机遇研究报告 报告2026-01-22
  31. 2026年全球医疗成本趋势报告 报告2026-01-21
  32. 2025年中国母婴医疗服务行业市场研究报告 报告2026-01-14
  33. 2025年中国可穿戴医疗设备行业市场研究报告 报告2026-01-14
  34. 2025年中国宠物医疗行业系列洞察报告(一):新瑞鹏“千店计划”启幕,... 报告2026-01-06
  35. 2025年量子技术:健康与医疗保健领导者的战略要务报告 报告2026-01-06
  36. 医疗彩超行业:临床诊断的基石与智能化升级核心 报告2026-01-05
  37. 从医疗科技到健康科技:赋能未来健康护理生态 报告2026-01-03
  38. 2025年医疗器械及供应链年度创新白皮书 报告2025-12-30
  39. 医疗装备行业数字化转型场景图谱(2025) 报告2025-12-28
  40. 医疗器械行业数字化转型发展报告(2025) 报告2025-12-27
  41. 医疗装备行业数字化转型场景需求清单(2025) 报告2025-12-26
  42. 医疗行业:全球呼吸道病毒活动,每周更新N°558(英译中) 报告2025-12-26
  43. 量子技术:健康与医疗保健领导者的战略要务 报告2025-12-26
  44. 2025年医疗服务年度创新白皮书 报告2025-12-25
  45. 2025年中国口腔医疗行业市场研究报告 报告2025-12-21
  46. 2025年医疗人工智能产业报告 报告2025-12-21
  47. 医疗保健服务行业:2026年展望 报告2025-12-19
  48. 2025年从传统模式到精准医疗:中美六大癌症治疗标准十年演进图谱 报告2025-12-18
  49. 2025年中国医疗器械投融资趋势与国产替代机遇报告 报告2025-12-17
  50. 2025年AI精准医疗市场专题分析报告 报告2025-12-16
  51. 医疗实践:美国医疗系统改善女性医疗保健的500亿美元机遇 报告2025-12-10
  52. 2025年可穿戴医疗设备品牌推荐:智能设备定义医疗新范式,实时数据驱动... 报告2025-12-09
  53. 美国医疗系统改善女性医疗保健的500亿美元机遇 报告2025-12-03
  54. 2025未来健康指数报告:构筑医疗Al信任基石 报告2025-11-28
  55. 2025年中国医疗器械国际化现状与趋势蓝皮书 报告2025-11-28
  56. 2025年中国医疗大模型行业概览:大模型铸就新引擎,赋能驱动大健康 报告2025-11-28
  57. 2025年美国医疗服务可负担性及价值评估追踪报告 报告2025-11-21
  58. 2025未来健康指数报告:构筑医疗Al信任基石-医患双重视角下的医疗健... 报告2025-11-17
  59. 2025年中国医疗健康和生命科学行业报告 报告2025-11-13
  60. 智启新质生产力之三 ——生成式人工智能 (AIGC)在医疗器械 的潜在... 报告2025-11-11
  61. 2025健康医疗内容消费趋势洞察报告 报告2025-11-11
  62. 中国医疗服务:药店:2025年三季报总结 报告2025-11-06
  63. 2025医疗未来:未来的医疗体系报告 报告2025-11-02
  64. 2025 AI与劳动力的未来:生成式AI对医疗行业岗位的影响研究报告 报告2025-11-02
  65. 计算机深度报告-Tempus AI启示-用数据构筑AI+医疗行业领先优... 报告2025-11-01
  66. 2025年医疗科技行业未来展望报告 报告2025-10-29
  67. 探索医疗保健领域的塑料循环利用机会 报告2025-10-28
  68. 2025年AI时代的医疗保健业:科技注入赋能医疗创新与患者关怀报告 报告2025-10-28
    • *

图文对照表

文章环节引用图表ID
环节1:痛点钩子+权威报告锚定健康AI_OECD国家政策行动覆盖率横向比例条形图表1
环节2:用户焦虑共情+核心冲击数据健康AI_OECD国家政策行动覆盖率横向比例条形图表1
环节3:认知反转破局+核心观点重构健康AI_开场主题锚定信息图表1
环节4:核心概念拆解+价值分层界定健康AI_焦虑破局认知反转信息图表2、健康AI_概念拆解价值分层信息图表3
环节6:真实案例佐证+具象化落地验证健康AI_案例验证流程拆解信息图表4
环节7:可落地行动指南+清单化建议输出健康AI_行动指南建议清单信息图表5