标签 Snowflake 下的文章

生成式 AI 的投资回报远超预期?Snowflake 调研全球 1900 位企业与 IT 专业人士后发现平均 ROI 高达 41%!点击下载完整报告

在这场以 What’s New for Snowflake Platform 为主题的技术发布中,Snowflake 产品管理高级总监 Artin Avanes,与产品管理团队成员 Christine 和 Raja Balakrishnan 一同,系统性地回顾并发布了 Snowflake 平台在过去一段时间内的重要进展。

不同于围绕单点功能的更新介绍,这场分享从一开始就明确了一个整体视角:Snowflake 正围绕 简洁性(Simplicity)、互联平台(Connected) 和 可信平台(Trusted) 三个关键支柱,持续重塑其作为数据与 AI 基础平台的能力边界。

简洁性:把能用变成规模化可用

Christine 在分享中重点展开了 Snowflake 的易用性支柱。她反复强调一个核心判断:真正的易用,并不是功能更少,而是在规模扩大之后依然可控、可理解、可管理。

Snowflake 仍然坚持单一产品、单一引擎的平台形态,覆盖分析型、混合型以及事务型工作负载,并以全托管的方式承担大部分运维复杂度。在过去 12 个月中,Snowflake 针对核心分析型工作负载实现了 两倍性能提升,且这一优化由平台自动完成,而非依赖用户侧调优。

随着越来越多企业在一个组织内拥有大量 Snowflake 账户和对象,组织级管理能力 成为此次更新的重点之一。Snowflake 正式推出组织账户(Organization Account),作为统一的全局管理入口;同时,通过组织级视图聚合各账户元数据,使使用情况、对象分布与成本消耗在组织层面变得可见。

在此基础上,Snowflake 进一步引入 组织用户与用户组 的管理模式,允许用户只在组织层定义一次,便可被授权至多个账户,避免重复配置。这一能力被视为大规模 Snowflake 部署的关键基础设施,目前已进入即将 GA 的阶段。

从可扩展到可运营:SPCS 的持续演进

围绕 Snowpark Container Services(SPCS),Christine 也披露了一系列面向运营友好型的增强。

SPCS 的目标并非只是让用户把自定义应用带到 Snowflake 平台,而是在 Snowflake 的安全边界内,尽可能降低运行和维护这些应用的成本与复杂度。新引入的自动扩缩容、增强版自动扩缩容以及即将上线的自动暂停能力,使服务能够根据负载峰谷动态调整,避免资源闲置。

同时,SPCS 在 Snowsight 中获得了更完整的可视化体验。开发者可以直接在 UI 中创建服务、执行作业,并查看历史日志、指标与平台事件,这些能力为应用与数据管道提供了内建的可观测性基础。

在性能层面,SPCS 即将支持 阶段挂载(Stage Mounts),为内部阶段提供更快速、稳定的文件访问能力,直接服务于 AI/ML 数据加载和管道吞吐需求。同时,块存储层新增的端到端加密能力,在不修改应用代码的前提下,增强了整体安全性。

互联平台:让数据真正跨系统流动

在互联这一支柱下,Artin 将重点放在 跨云互操作、数据共享与协作能力上。

首先,OpenFlow 作为托管体验已正式 GA,使来自异构数据系统的数据更容易被引入 Snowflake。其次,Snowflake 宣布与 SAP 的双向集成能力,以及 Oracle CDC 即将进入公开预览,进一步拓展了平台在企业数据整合场景中的覆盖面。

在协作层面,Snowflake 对开放表格式的支持持续加深。用户现在不仅可以共享 Apache Iceberg 和 Delta Lake 表,还能够共享语义视图,用于支持更准确的 AI 和 BI 应用。同时,笔记本、用户自定义函数等对象也可以通过 Snowflake 原生应用框架进行打包与分发,使构建和交付数据与 AI 产品的路径更加完整。

可信平台:为 AI 应用补上信任这一层

Raja Balakrishnan 的分享,集中在 Snowflake 平台的可信性升级上。他将 Horizon Catalog 定位为一个核心枢纽:既是开放表格式互操作的目录,也是可扩展治理与 AI 数据上下文的载体。

通过嵌入 Iceberg Open API 和 Apache Polaris API,Horizon Catalog 支持外部引擎直接读写 Snowflake 管理的 Iceberg 表,并在 Snowflake 内部展示来自外部数据源的血缘关系。在治理能力上,平台新增了多项目录功能,包括账户级 PII 自动检测、数据剖析与质量监控、非结构化数据中的 PII 识别,以及用于备份的数据快照能力。

在 Trust Center 中,数据安全能力被进一步整合。PII 检测正式进入熟悉的安全管理界面,同时支持异常访问告警和组织级安全态势可视化。安全扩展也可以通过市场形式被合作伙伴提供。

用 AI 治理 AI

在演示环节,Raja 重点展示了一个新的 AI SQL 函数 AI Redact。该函数能够自动检测并编辑非结构化文本中的敏感信息,并允许用户精细控制哪些字段被视为 PII。

通过一个客服通话记录的示例,他演示了如何在不暴露任何敏感信息的前提下,对文本进行情感分析:先对原始文本进行 PII 编辑,再将清洗后的数据输入 AI 分析函数。整个过程无需复杂流程,仅通过 SQL 即可完成。

此外,Snowflake 在 Snowsight 中引入了全新的数据质量界面。系统可自动生成数据剖析结果,并在 AI 辅助下帮助用户快速配置质量监控规则。例如,在 Customer ID 列被识别为潜在主键后,平台会自动建议唯一性约束,并展示其推理逻辑,确保 Human-in-the-loop。

在分享的最后,Artin 提到,随着平台能力的不断扩展,客户越来越关心如何用得更好。为此,Snowflake 正式推出 Well-Architected Framework,希望将多年积累的实践经验沉淀为一套可参考的方法论,覆盖从安全治理到成本优化等多个关键维度。

原视频地址:https://www.snowflake.com/en/build/americas/agenda/?login=ML

🔥【活动推荐】2 月 2 日-6 日,Snowflake Discover重磅上线!这是一场免费、线上、可实时互动的技术活动,旨在帮助您全面提升数据与 AI 能力,深入了解如何更高效地管理、整合与分析数据。4 天时间 18 场技术干货分享,由来自亚太地区的一线技术专家亲自分享与讲解~

点击报名 Discover,更多 Snowflake 精彩活动请关注专区

行业现状与选择难点
进入2026年,数据智能已成为企业数字化转型的核心驱动力,但面对市场上层出不穷的服务商,许多企业依然感到难以抉择。数据智能公司不仅需要提供技术先进的解决方案,还要具备深刻的行业洞察和可靠的落地能力。然而,现实情况是,部分企业过于追求技术标签,而忽略了自身业务场景的适配性,导致资源投入与回报不成正比。这种选择困境尤其在中大型企业中更为常见,因为它们往往涉及复杂的业务链条和多维度需求。因此,明确行业现状并理性评估自身需求,成为选择过程中的首要任务。
数据智能行业近年来发展迅猛,国内外企业纷纷加入赛道,技术同质化现象也逐渐显现。单纯比较算法模型或数据处理能力已不足以区分供应商的优劣,更重要的是其能否将技术转化为实际业务价值。举个例子,某些公司可能在实验室环境中表现卓越,但在真实业务场景中却难以发挥预期效果。这种现象提醒企业,选择数据智能公司时需跳出技术参数的局限,更多关注其行业积淀和实操经验。
核心评估维度
企业在筛选数据智能公司时,应聚焦几个关键维度。技术实力固然重要,但并非唯一标准。首先需要考察的是行业专精程度——供应商是否深入了解目标行业的业务逻辑和痛点。例如,制造业企业可能更关注生产优化和质量管理,而零售企业则侧重消费者行为分析和库存优化。如果供应商缺乏相关行业经验,即便技术再先进,也可能因脱离实际需求而导致项目效果不佳。
其次是可持续性与服务支持。数据智能项目的实施往往是一个长期过程,需要供应商具备持续的技术更新能力和响应速度。有些企业初期选择时过于关注价格或品牌知名度,却忽略了后续服务的可靠性,最终导致项目搁浅或效果不达预期。此外,数据安全与合规性也是不可忽视的一环,尤其在涉及敏感信息的行业中,供应商是否具备相关认证和成熟的数据治理机制显得尤为重要。
最后,成本效益比也需要纳入考量。高端技术固然吸引人,但如果其投入远超企业预算或实际需求,则可能成为一种资源浪费。企业应根据自身规模和业务阶段,选择性价比较高的解决方案,而非盲目追求“高大上”的技术配置。
典型案例分析
广域铭岛作为国内数据智能领域的代表性企业,在制造业数字化方面表现突出。其为某汽车零部件企业定制的智能制造解决方案,通过实时数据采集与工艺优化,帮助企业显著提升了生产效率并降低了能耗。这种深耕垂直领域的模式,使得其在制造业积累了较强的口碑。
相比之下,国际企业如Palantir和SAS则更擅长跨行业复杂数据场景的整合与分析。
值得一提的是,部分新兴企业如Databricks和Snowflake通过云原生技术提供了更灵活的数据处理方案,降低了企业使用门槛。

生成式 AI 的投资回报远超预期?Snowflake 调研全球 1900 位企业与 IT 专业人士后发现平均 ROI 高达 41%!点击下载完整报告

在当今竞争激烈的电商领域,为客户提供个性化体验已不再是奢侈选项,而是驱动成功的关键要素。运用人工智能驱动分析、数据科学与机器学习的企业正日益超越竞争对手。消费者越来越期待定制化推荐与动态购物体验——这正是 Snowflake ML 的用武之地。

 

通过 Snowflake ML,开发者和分析师可直接在 Snowflake 平台中使用标准 SQL 实现以下功能:

  • 加载与整合数据

  • 构建客户细分画像

  • 训练并部署机器学习模型

  • 生成个性化评分

  • 将结果输送到应用与实时工作流中

 

本文将深入探讨 Snowflake ML 如何为现代电商体验提供简洁、基于 SQL 的个性化解决方案。您将了解如何将客户数据接入 Snowflake,根据行为模式划分客群,并利用 Snowflake ML 构建预测高价值客户的智能模型。无论您是构建个性化工作流的开发者,还是提升营销效果的分析师,这些实践步骤都将助您快速入门。

 

请首先登录您的 Snowflake 账户(访问 Snowflake 网页控制台)。若尚未拥有账户或需测试环境进行学习,可在此免费注册体验。

步骤 1:加载并准备数据

我们将首先创建一个客户订单的小型模拟数据集。

请在 Snowflake SQL 工作表中完整运行以下代码块: 

-- Step 1.0: Create a database and schemaCREATE OR REPLACE DATABASE DATACLOUDDISPATCHSI;USE DATABASE DATACLOUDDISPATCHSI;CREATE OR REPLACE SCHEMA ECOMMERCE;USE SCHEMA ECOMMERCE;-- Step 1.1: Create a customer orders tableCREATE OR REPLACE TABLE CUSTOMER_ORDERS (  CUSTOMER_ID  NUMBER,  ORDER_ID     NUMBER,  ORDER_DATE   DATE,  ORDER_VALUE  NUMBER(10,2),  PRODUCT_ID   NUMBER);-- Step 1.2: Insert sample order dataINSERT INTO CUSTOMER_ORDERS (CUSTOMER_ID, ORDER_ID, ORDER_DATE, ORDER_VALUE, PRODUCT_ID) VALUES(1001,50001,'2023-01-15', 89.99,201),(1001,50022,'2023-03-02',120.49,305),(1002,50110,'2023-05-11', 45.00,110),(1003,50155,'2023-02-19',239.00,402),(1003,50190,'2023-05-22',130.00,233),(1003,50201,'2023-06-01', 99.99,110),(1004,50333,'2023-01-05', 19.99,502),(1001,50390,'2023-11-11',301.00,900),(1005,50400,'2023-12-12', 67.50,702);-- Step 1.3: Verify dataSELECT * FROM CUSTOMER_ORDERS ORDER BY ORDER_DATE;
复制代码

 

该数据集包含重复的客户购买记录、多样化的订单金额以及用于后续客户分群和机器学习建模的实用字段,足以支持基础建模需求。

使用 Snowflake Workspace

若您倾向于通过可视化界面而非 SQL 加载数据,Snowflake Workspace 支持将文件(包括 Excel 和 CSV 格式)直接拖放至环境中。

 

1. 在 Snowflake 左侧导航栏中进入 Projects。

2. 点击下拉菜单中的 Workspaces(如图所示)。

3. 创建并打开一个新的 Workspace。

4. 在 Workspace 内点击+ Worksheet 以新建 SQL 工作表。

5. 运行 SQL 代码前,请确保工作表已设置正确的角色、仓库、数据库与模式。

 

Article content

本教程步骤 1 至 3 中的所有 SQL 命令均需在此 SQL 工作表中粘贴并执行。Snowflake 虽提供 Workspace、Notebook 等多种项目工具,但本教程全程使用标准 SQL 工作表完成。

步骤二:使用 SQL 构建客户细分模型

Snowflake 支持集成机器学习模型,用于预测客户行为、推荐产品及定制促销策略。开发人员可通过 Python 或 R 语言,结合 Snowflake 的 Data Science Workspace 部署模型,该模型可输入客户数据并输出个性化推荐。

 

一种基础的个性化策略是基于客户历史行为进行识别,我们将计算以下指标:

  • 购买频率

  • 客单价(AOV)

USE DATABASE DATACLOUDDISPATCHSI;USE SCHEMA ECOMMERCE;
复制代码

-- Step 2.1: Create customer segmentsCREATE OR REPLACE TABLE CUSTOMER_SEGMENTS ASSELECT  CUSTOMER_ID,  COUNT(ORDER_ID)  AS PURCHASE_COUNT,  AVG(ORDER_VALUE) AS AVG_ORDER_VALUEFROM CUSTOMER_ORDERSWHERE ORDER_DATE BETWEEN '2023-01-01' AND '2023-12-31'GROUP BY CUSTOMER_ID;-- Step 2.2: Inspect customer segmentsSELECT * FROM CUSTOMER_SEGMENTS ORDER BY PURCHASE_COUNT DESC;
复制代码

 

由此构建的 CUSTOMER_SEGMENTS 表将成为机器学习模型的基础数据层。 

步骤三:训练与部署机器学习模型(基于 Snowflake ML 的纯 SQL 实现)

Snowflake ML 支持直接使用 SQL 训练模型,无需依赖 Python 或外部工具。

我们将完成以下任务:

1. 标记“高价值客户”(购买次数 ≥3 次)

2. 训练分类模型

3. 对全部客户进行评分

步骤 3.1:创建训练表

在 Snowflake 中训练机器学习模型前,需为模型提供学习样本。这意味着需要构建一个包含以下内容的表:

  • 特征(模型学习的输入变量)

  • 目标标签(模型需预测的结果)

 

本例中,我们的目标是识别高价值客户。因此,需要在历史数据中创建一列,明确标注哪些客户属于高价值客户。训练表的作用正在于此——它基于步骤二生成的客户分群,新增目标标签列。随后,Snowflake ML 将利用此标注表学习高价值客户的特征模式。

 

-- Step 3.1: Add a target label for modelingCREATE OR REPLACE TABLE CUSTOMER_SEGMENTS_TRAIN ASSELECT    CUSTOMER_ID,    PURCHASE_COUNT,    AVG_ORDER_VALUE,    IFF(PURCHASE_COUNT >= 3, 1, 0) AS TARGET_HIGH_VALUEFROM CUSTOMER_SEGMENTS;SELECT * FROM CUSTOMER_SEGMENTS_TRAIN ORDER BY PURCHASE_COUNT DESC;
复制代码

步骤 3.2:使用 Snowflake ML 训练分类模型

在获得已标注的训练表后,即可训练 Snowflake ML 识别高价值客户的潜在特征。通过训练分类模型,Snowflake 将学习:

  • 应从哪些输入特征中学习规律(如购买次数与平均订单金额)

  • 需要预测的目标结果(即高价值标签:0 或 1)

 

-- Step 3.2: Train the classification modelCREATE OR REPLACE SNOWFLAKE.ML.CLASSIFICATION HIGH_VALUE_MODEL (    INPUT_DATA     => SYSTEM$REFERENCE('TABLE', 'ECOMMERCE.CUSTOMER_SEGMENTS_TRAIN'),    TARGET_COLNAME => 'TARGET_HIGH_VALUE');Snowflake automatically trains and tunes the model based on your training table.(Optional) View metrics:CALL HIGH_VALUE_MODEL!SHOW_EVALUATION_METRICS();
复制代码

步骤 3.3:使用模型对客户进行评分(SQL)

模型训练完成后,即可用于预测。在此步骤中,模型将根据每位客户的购买行为(购买次数与平均订单金额)判断其是否为潜在高价值客户。

 

以下 SQL 命令将每位客户的特征输入模型,并返回预测结果:

-- Step 3.3: Score customersSELECT    s.CUSTOMER_ID,    s.PURCHASE_COUNT,    s.AVG_ORDER_VALUE,    HIGH_VALUE_MODEL!PREDICT(        INPUT_DATA => OBJECT_CONSTRUCT(            'PURCHASE_COUNT', s.PURCHASE_COUNT,            'AVG_ORDER_VALUE', s.AVG_ORDER_VALUE        )    ) AS MODEL_OUTPUTFROM CUSTOMER_SEGMENTS AS s;
复制代码
MODEL_OUTPUT 是什么?

 

Snowflake 将模型的预测结果以 VARIANT 类型(一种结构化对象)返回。您无需运行或执行它——它仅仅是 Snowflake 所展示的结果!

 

为了使预测结果更易于使用,您可以只提取预测类别(0 或 1)。

 

  • 1 表示模型将客户识别为高价值客户

  • 0 表示非高价值客户

 

提取预测类别的语句为:

SELECT    CUSTOMER_ID,    PURCHASE_COUNT,    AVG_ORDER_VALUE,    HIGH_VALUE_MODEL!PREDICT(        INPUT_DATA => OBJECT_CONSTRUCT(            'PURCHASE_COUNT', PURCHASE_COUNT,            'AVG_ORDER_VALUE', AVG_ORDER_VALUE        )    ):PREDICTION:"class"::NUMBER AS PREDICTED_HIGH_VALUEFROM CUSTOMER_SEGMENTS;
复制代码

 

这将为您提供一个清晰的 0/1 指标,用于判断客户是否被视为“高价值客户”。

 步骤 3.4:持久化个性化评分(可选)

至此,您已通过在查询中直接使用模型生成预测,这非常适合探索性分析——但在实际场景中,您通常需要将这些预测存储到表中,以便供仪表板、应用程序、营销活动等重复使用。

 

以下 SQL 语句创建一个名为 CUSTOMER_VALUE_SCORES 的新表,其中包含每位客户、其购买行为以及模型的预测结果。

CREATE OR REPLACE TABLE CUSTOMER_VALUE_SCORES ASSELECT    CUSTOMER_ID,    PURCHASE_COUNT,    AVG_ORDER_VALUE,    HIGH_VALUE_MODEL!PREDICT(        INPUT_DATA => OBJECT_CONSTRUCT(            'PURCHASE_COUNT', PURCHASE_COUNT,            'AVG_ORDER_VALUE', AVG_ORDER_VALUE        )    ):PREDICTION:"class"::NUMBER AS PREDICTED_HIGH_VALUEFROM CUSTOMER_SEGMENTS;SELECT * FROM CUSTOMER_VALUE_SCORES ORDER BY PREDICTED_HIGH_VALUE DESC;
复制代码

 

现在您已拥有一个可用于下游个性化流程的数据表。您可以持续引用这些评分来定位高价值客户、触发个性化优惠、提供推荐内容等。

步骤四:实时个性化

获得每位客户的预测评分后,即可结合实时行为数据提供更智能的个性化推荐。实时行为数据包括:

  • 最近浏览的商品

  • 购物车中新增或移除的商品

  • 浏览或会话事件

  • 实时库存更新

针对更高级的用例,Snowflake 支持在线特征存储,允许应用程序(如网站或推荐引擎)在毫秒级延迟内获取最新的客户特征——包括近期点击行为、会话历史或模型生成的评分。这对于需要在应用用户体验中实现实时个性化(而非依赖批量调度)的场景尤为理想。

 

Snowflake 可通过 Kafka、Kinesis 或 Event Hubs 等工具接收此类流式数据,从而根据客户行为变化持续更新推荐结果。

 

为保持个性化数据的时效性,您还可以通过 Snowflake 任务定期更新推荐表。以下示例展示了一个每小时运行并刷新热门商品推荐的简化任务:

 

--示例:定期更新推荐数据

 

CREATE OR REPLACE TASK PERSONALIZE_RECOMMENDATIONSWAREHOUSE = COMPUTE_WHSCHEDULE = 'USING CRON 0   UTC'ASMERGE INTO LATEST_RECOMMENDATIONS tgtUSING (    SELECT CUSTOMER_ID, PRODUCT_ID, SCORE    FROM ECOMMERCE.RECOMMENDATIONS_STREAM    WHERE SCORE > 0.8) srcON tgt.CUSTOMER_ID = src.CUSTOMER_ID AND tgt.PRODUCT_ID = src.PRODUCT_IDWHEN MATCHED THEN UPDATE SET SCORE = src.SCOREWHEN NOT MATCHED THEN INSERT VALUES (src.CUSTOMER_ID, src.PRODUCT_ID, src.SCORE);
复制代码

此方案使您的应用程序能够始终查询最新、最相关的推荐结果,从而实现完全动态的个性化购物体验。

总结

个性化推荐现已不再局限于手动规则或外部机器学习流水线。借助 Snowflake ML,您可以在 Snowflake 平台内直接驱动端到端的电商个性化推荐。本教程展示了如何:

  • 将全部电商数据整合至统一的单一平台

  • 完全使用 SQL 构建客户细分模型

  • 通过 Snowflake ML 训练机器学习模型——无需 Python 环境

  • 完成客户评分并生成个性化洞察

  • 利用实时数据流和任务机制保持推荐结果动态更新

最关键的是,所有操作均在 Snowflake 内完成——无需数据迁移、无需配置 Python 环境、无需依赖外部服务。这使得开发者、分析师和数据团队能够以前所未有的便捷度,提供高度个性化的购物体验。

 

注:本教程使用 SQL 和 Snowflake ML 进行演示,但 Snowflake 还提供更多人工智能与智能增强功能,可助力规模化扩展个性化应用场景。

想要一键复制代码以便跟随操作吗?

以下是您可以粘贴到 SQL workspace 中的分步最小可复现工作流程:

-- ============================================================-- E-COMMERCE PERSONALIZATION QUICKSTART (SQL-ONLY)-- End-to-end example:--  1. Create database & schema--  2. Load sample orders data--  3. Build customer segments--  4. Prepare training data for ML--  5. Train Snowflake ML classification model--  6. Score customers & optionally persist scores-- ============================================================------------------------------------------------------------------ (Optional) Step 0: Choose a warehouse------------------------------------------------------------------ Uncomment and replace <YOUR_WAREHOUSE> if needed:-- USE WAREHOUSE <YOUR_WAREHOUSE>;------------------------------------------------------------------ Step 1: Create database, schema, and sample CUSTOMER_ORDERS----------------------------------------------------------------CREATE OR REPLACE DATABASE DATACLOUDDISPATCHSI;USE DATABASE DATACLOUDDISPATCHSI;CREATE OR REPLACE SCHEMA ECOMMERCE;USE SCHEMA ECOMMERCE;-- Create the orders tableCREATE OR REPLACE TABLE CUSTOMER_ORDERS (  CUSTOMER_ID  NUMBER,  ORDER_ID     NUMBER,  ORDER_DATE   DATE,  ORDER_VALUE  NUMBER(10,2),  PRODUCT_ID   NUMBER);-- Insert sample e-commerce dataINSERT INTO CUSTOMER_ORDERS (CUSTOMER_ID, ORDER_ID, ORDER_DATE, ORDER_VALUE, PRODUCT_ID) VALUES(1001,50001,'2023-01-15', 89.99,201),(1001,50022,'2023-03-02',120.49,305),(1002,50110,'2023-05-11', 45.00,110),(1003,50155,'2023-02-19',239.00,402),(1003,50190,'2023-05-22',130.00,233),(1003,50201,'2023-06-01', 99.99,110),(1004,50333,'2023-01-05', 19.99,502),(1001,50390,'2023-11-11',301.00,900),(1005,50400,'2023-12-12', 67.50,702);-- Quick preview of raw ordersSELECT * FROM CUSTOMER_ORDERS ORDER BY ORDER_DATE;------------------------------------------------------------------ Step 2: Build customer segments (frequency & average order value)------------------------------------------------------------------ Aggregate behavior to create one row per customerCREATE OR REPLACE TABLE CUSTOMER_SEGMENTS ASSELECT    CUSTOMER_ID,    COUNT(ORDER_ID)  AS PURCHASE_COUNT,    AVG(ORDER_VALUE) AS AVG_ORDER_VALUEFROM CUSTOMER_ORDERSWHERE ORDER_DATE BETWEEN '2023-01-01' AND '2023-12-31'GROUP BY CUSTOMER_ID;-- Inspect segmentsSELECT * FROM CUSTOMER_SEGMENTS ORDER BY PURCHASE_COUNT DESC;------------------------------------------------------------------ Step 3: Prepare training data for Snowflake ML-- Add a label indicating whether a customer is “high-value”-- (in this example: 3 or more purchases)----------------------------------------------------------------CREATE OR REPLACE TABLE CUSTOMER_SEGMENTS_TRAIN ASSELECT    CUSTOMER_ID,    PURCHASE_COUNT,    AVG_ORDER_VALUE,    IFF(PURCHASE_COUNT >= 3, 1, 0) AS TARGET_HIGH_VALUEFROM CUSTOMER_SEGMENTS;-- View training data with targetSELECT * FROM CUSTOMER_SEGMENTS_TRAIN ORDER BY PURCHASE_COUNT DESC;------------------------------------------------------------------ Step 4: Train a classification model with Snowflake ML-- This learns to predict TARGET_HIGH_VALUE from the features-- PURCHASE_COUNT and AVG_ORDER_VALUE.----------------------------------------------------------------CREATE OR REPLACE SNOWFLAKE.ML.CLASSIFICATION HIGH_VALUE_MODEL (    INPUT_DATA     => SYSTEM$REFERENCE('TABLE','ECOMMERCE.CUSTOMER_SEGMENTS_TRAIN'),    TARGET_COLNAME => 'TARGET_HIGH_VALUE');-- (Optional) Inspect training metricsCALL HIGH_VALUE_MODEL!SHOW_EVALUATION_METRICS();------------------------------------------------------------------ Step 5: Score customers with the trained model-- This returns the predicted class (0 = not high-value, 1 = high-value).----------------------------------------------------------------SELECT    CUSTOMER_ID,    PURCHASE_COUNT,    AVG_ORDER_VALUE,    HIGH_VALUE_MODEL!PREDICT(        INPUT_DATA => OBJECT_CONSTRUCT(            'PURCHASE_COUNT', PURCHASE_COUNT,            'AVG_ORDER_VALUE', AVG_ORDER_VALUE        )    ):PREDICTION:"class"::NUMBER AS PREDICTED_HIGH_VALUEFROM CUSTOMER_SEGMENTSORDER BY PREDICTED_HIGH_VALUE DESC, PURCHASE_COUNT DESC;------------------------------------------------------------------ Step 6 (Optional): Persist personalized scores for downstream use-- This creates a reusable table that other teams, dashboards,-- and applications can query.----------------------------------------------------------------CREATE OR REPLACE TABLE CUSTOMER_VALUE_SCORES ASSELECT    CUSTOMER_ID,    PURCHASE_COUNT,    AVG_ORDER_VALUE,    HIGH_VALUE_MODEL!PREDICT(        INPUT_DATA => OBJECT_CONSTRUCT(            'PURCHASE_COUNT', PURCHASE_COUNT,            'AVG_ORDER_VALUE', AVG_ORDER_VALUE        )    ):PREDICTION:"class"::NUMBER AS PREDICTED_HIGH_VALUEFROM CUSTOMER_SEGMENTS;-- Final scored outputSELECT * FROM CUSTOMER_VALUE_SCORESORDER BY PREDICTED_HIGH_VALUE DESC, PURCHASE_COUNT DESC;
复制代码

原文地址:https://www.linkedin.com/pulse/how-leverage-snowflake-intelligence-e-commerce-personalization-60fhc/?trackingId=SamHZTb8T76gKESH2PP2SA%3D%3D

生成式 AI 的投资回报远超预期?Snowflake 调研全球 1900 位企业与 IT 专业人士后发现平均 ROI 高达 41%!点击下载完整报告

在 2025 年稳步发展的基础上,2026 年将成为智能体 AI 在企业中实现真正落地的关键之年。

 

回顾 2025 年初,行业曾普遍预测智能体 AI 将迎来爆发式增长与颠覆性普及。尽管技术进步显著且持续加速,但这一年的更深层意义在于,它重塑了我们对技术可行性的理解。各类组织已超越简单的聊天机器人应用场景,开始积极探索能够自主规划、执行任务并持续迭代的智能体系统。如今,核心智能体能力显著提升,已可胜任一年前仍难以处理的复杂多步骤任务。随着市场的迅速扩张,投资与创新正形成叠加效应,持续推动着该领域的发展。

 

为制定本年度的 Snowflake 数据与人工智能预测报告,我与十余位 Snowflake 的领导者共同梳理了对未来一年的行业展望。报告的核心观点是:智能体将在企业级应用中取得实质性突破。以下摘录本年度报告中的部分预测要点:

 

上下文窗口与记忆能力将成为提升智能体性能的关键:未来一年,上下文窗口与记忆能力的重大改进将使智能体能够基于更宏观的情境理解,以更高的自主性应对复杂挑战。Snowflake 工程与支持高级副总裁 Vivek Raghunathan 指出:“这是一种更趋近于人类的能力——能够记住更广泛的情境信息以解决当前问题。”

 

工作者需精通人与 AI 的协作与沟通:人类仍将处于决策闭环之中,部分原因是驱动决策的数据并非全部对 AI 开放。Snowflake 产品副总裁 Chris Child 强调,AI 能对其掌握的数据进行深度分析,但人类直觉仍不可或缺。他表示:“AI 模型将深入理解您的数据,但您仍需学会何时存疑、何时在行动前进行深度追问。”

 

数据战略将决定 AI 就绪度与最终成效:Snowflake 首席信息官 Mike Blandina 指出:“当 AI 提供准确答案时,还必须确保私有或专有数据不被泄露。用户是否拥有查看此答案的权限?您的营销聊天机器人是否在泄露员工的社保号或客户的信用卡信息?这并非 AI 本身的问题,而是关乎如何治理与保护数据。”

 

到 2026 年末,核心问题将不再是人工智能能做什么,而是人与人工智能如何协同工作。换言之,重点将转向角色如何演变、决策权如何分配,以及领导者在自主性日益增强的环境中如何建立信任与明确责任。

 

十年前,首席数据与分析官(CDO)的职责主要聚焦于数据治理。但随着智能体化人工智能的到来,这一角色已扩展至统筹企业内智能体的协同运作。首席数据与分析官需负责保障智能体所依赖数据的质量与合规性,设计智能体嵌入的工作流程,并对这些系统在现实场景中的表现承担最终责任。这使得首席数据与分析官的职能更接近真正的“人工智能首席运营官”——其职责横跨工程技术、合规监管、安全防御、运营维护及产品团队,确保人工智能运行模型具备稳定性、可信度以及与业务目标的高度一致性。

 

到 2026 年,企业面临的挑战将不再局限于将智能体简单部署至生产环境。管理者需要围绕智能体建立起系统化的管理体系,这意味着必须构建可靠的验证框架、厘清人机协同的职责边界,并实现全链路的可观测性,确保每个智能体的行为皆可审计、可解释、可信任。这一趋势将催生正式的 AI 质量控制职能,通过持续监测与评估,保障智能体行为始终与商业意图保持一致。对于注重可靠性的企业而言,这已成为必然的演进方向。

 

实现此类管控体系,依赖于坚实且集中的数据基础与治理架构。在早期实验阶段行之有效的联邦模型虽有助于提升开发效率,但随着智能体系统的扩展,必须确保跨工作流的高度一致性:统一的语义规范、严格的权限管理以及不容妥协的安全保障,已成为系统规模化运作的必要条件。

 

随着企业推进流程与决策权限的重构,建立贯穿组织全局的反馈闭环至关重要。此类闭环可协助团队优化规则边界、改进模型行为,并确保责任机制始终保持清晰。短期来看,智能体系统将最适用于边界明确、结构化程度高且风险可控的工作流程。随着数据成熟度、治理体系以及组织适配能力的持续提升,智能体将逐步进入更复杂的决策链路,获得更高自主权,并产生更具战略价值的影响。

 

智能体 AI 并非替代人类工作,而是重塑工作模式,开拓新的机遇维度与规模化潜力。若需深入了解更多前沿趋势,敬请参阅《Snowflake 数据与 AI 预测报告(2026)》

原文地址:https://www.snowflake.com/en/blog/data-ai-predictions-2026/

生成式 AI 的投资回报远超预期?Snowflake 调研全球 1900 位企业与 IT 专业人士后发现平均 ROI 高达 41%!点击下载完整报告

过去一年,Data + AI 的讨论正在悄然发生变化。

行业的关注点,逐渐从模型能力本身,转向企业是否真正具备承载 AI 的系统能力:数据是否准备充分,工程体系是否稳定,AI 是否真的进入业务流程并长期运行。这些问题开始频繁出现在一线实践中,也成为企业在推进 Data + AI 过程中无法回避的现实考验。

行业的变化并非源于某一次集中发布,而是在一次次真实落地、反复试错和持续修正中逐步显现。也正因为如此,2025 成为了一个值得回望的年份,许多重要判断,往往产生于具体实践中的“顿悟时刻”。

在这样的背景下,InfoQ 联合 Snowflake 发起了 「MAKE IT SNOW|2025–2026 Data + AI 年度时刻」 直播活动。

这一场围绕企业 Data + AI 战略展开的年度复盘与前瞻对话。活动邀请来自数据平台、开源社区,以及制造、医疗、汽车等行业的一线技术与业务负责人,围炉而坐,如老友般对谈 。我们将共同回到真实的问题本身,剖析企业在推进 Data + AI 规模化过程中遇到的关键抉择 。

那个拨云见日的「Aha Moment」

每位嘉宾将回顾自己在 2025 年经历的 3 个关键认知转折点

可能是一段产品体验、一次落地尝试,或是某个业务场景中的重新理解。正是这些具体经历,推动了对 Data + AI 的判断不断修正,也构成了企业能力演进的真实轨迹。

用「年度十问」对齐关键判断

十问 Data Strategy,AI Strategy ”环节,问题覆盖数据底座与 AI 融合架构、Agentic AI 与可信 AI、多云时代的数据治理、平台整合浪潮下的生态协同,以及工业、医疗、汽车等行业的落地实践。

这些问题没有预设答案,却直指企业当下面临的核心挑战,更接近真实决策场景中的思考方式。

留待未来打开的「时间胶囊」

这场直播的尾声,每位嘉宾将基于当下的判断,留下 一个关于 2026 的预测或猜想

它可能并不成熟,也未必已经被验证,更像是一种站在当下时刻,对下一年走势的直觉判断。这些判断不会被立即评判对错,而是被完整地保存下来,等到 2027 年,我们会再度打开它们,回看哪些判断被现实印证,又有哪些想法在时间中发生了意料之外的转向。

这一刻行业领袖们的技术直觉,将成为未来回望时的重要坐标。

如果你正在思考企业 Data Strategy 与 AI Strategy 的下一步,这场对话,值得关注。

1 月 19 日 17:30-19:30,我们不见不散!

点击链接立即报名注册:Ascent - Snowflake Platform Training - China