2026年4月

4 月14 日,由全球智慧物联网联盟鸿蒙生态推委会主办的“质领未来・生态共融”2026鸿蒙SDK交流会在成都顺利召开。作为华为鸿蒙生态的重要合作伙伴,每日互动(个推)受邀出席本次大会,并凭借旗下开发者服务全栈产品的高质量鸿蒙适配与生态落地成果,荣获鸿蒙首批SDK评测认证,同步入选鸿蒙首批64款SDK名单,彰显了公司在鸿蒙生态建设中的领先技术实力与核心生态价值。
图片
▲个推开发者服务全系产品通过鸿蒙首批SDK评测认证
2026鸿蒙SDK交流会以“标准共建・协同深耕・赋能创新”为核心,聚焦鸿蒙SDK全链条发展关键议题,搭建集技术研讨、资源对接、经验分享于一体的行业交流平台,旨在推动鸿蒙生态从“规模普及”迈向“高质量深耕”。大会现场,官方正式发布鸿蒙首批SDK评测证书与首批64款SDK名单,从合规性、个人信息保护、网络安全、生态贡献度及开发者体验等多维度进行综合评定,为鸿蒙生态高质量发展树立行业标杆。

作为国内开发者服务领域的先行者,个推自2010年起便深耕开发者服务赛道,持续为数十万APP客户提供专业的SDK产品与全链路运营增长解决方案。截至2025年6月,公司开发者服务SDK累计安装量已突破1200亿。自鸿蒙生态启动建设以来,个推始终紧跟生态发展步伐,积极投入专业团队开展鸿蒙系统适配探索,持续深化与华为的技术协同与生态联动。依托十余年的技术沉淀,个推率先完成旗下消息推送、用户运营、一键认证等全系SDK的HarmonyOS适配,以安全、高效、智能的专业产品和服务,为海量鸿蒙原生应用提供关键支撑。

从首批进行鸿蒙系统适配探索,到如今首批通过官方评测认证,个推一步步完成了从 “适配兼容” 到 “深度融合” 的跨越,成为鸿蒙生态中兼具技术实力与落地经验的重要伙伴。目前,个推已在鸿蒙生态中为电商、金融、出行、社交、新闻资讯等多个重点行业的应用提供专业可靠的技术和服务支撑,助力开发者快速实现鸿蒙应用的开发、适配与高效运营,加速鸿蒙原生应用规模化落地。

未来,个推将继续紧跟鸿蒙生态发展节奏,深耕开发者服务技术创新,持续优化产品性能与适配能力,为鸿蒙生态的高质量发展注入更多动能,与行业伙伴携手共建开放、繁荣、高质量的鸿蒙生态体系。PS:个推已支持华为情景感知、实况窗、应用内通话消息VoIP等最新能力,欢迎联系我们开通,共创鸿蒙新玩法!
图片

构建高性能、可靠的后端系统时,Rust 的标准库为了保持精简,并没有内置 Web 框架、数据库驱动或复杂的序列化工具。这种设计将选择权交给了开发者。经过社区多年的迭代,一些库已经脱颖而出,成为生产环境的事实标准。

image.png

以下是开发 Rust 后端项目时建议优先考虑的 9 个核心库,太夯了。

1. Serde 与 Serde\_json

数据在网络中流动通常需要转换格式。Serde 采用零成本抽象的设计,在编译阶段生成序列化与反序列化代码,避免了运行时的反射开销。配合 serde_json,处理 JSON 数据会变得非常自然。

use serde::{Deserialize, Serialize};

#[derive(Serialize, Deserialize)]
struct UserProfile {
    #[serde(rename = "username")]
    name: String,
    // 忽略空字段,保持输出整洁
    #[serde(skip_serializing_if = "Option::is_none")]
    nickname: Option<String>,
}

fn handle_json() {
    let data = r#"{"username": "rust_dev"}"#;
    let user: UserProfile = serde_json::from_str(data).expect("解析失败");
    let output = serde_json::to_string(&user).unwrap();
}

2. Tower-http

如果使用 Axum 这种 Web 框架,Tower-http 是不可或缺的组件。它提供了一系列现成的中间件,用来处理跨域、请求压缩、超时控制等常见的 HTTP 逻辑。

它可以通过组合不同的层(Layer)来增强服务功能。例如,开启压缩支持和跨域策略只需要几行配置。

use tower_http::{cors::Any, cors::CorsLayer, compression::CompressionLayer};
use ax_router::Router; // 假设使用 axum

let app = Router::new()
    .route("/", get(|| async { "ok" }))
    .layer(CorsLayer::new().allow_origin(Any))
    .layer(CompressionLayer::new());

3. Sea-ORM

Sea-ORM 是一个基于 SQLx 构建的异步 ORM 框架。对于习惯了动态语言 ORM(如 Django 或 ActiveRecord)的开发者,Sea-ORM 提供了更友好的链式查询接口。它支持自动生成实体类,并且能很好地处理复杂的关联查询,同时保留了异步执行的优势。

use sea_orm::{entity::*, query::*, Database};

// 查找状态为激活的所有用户
async fn get_active_users(db: &DatabaseConnection) -> Vec<user::Model> {
    user::Entity::find()
        .filter(user::Column::Status.eq("active"))
        .all(db)
        .await
        .unwrap_or_default()
}

4. JSONWebToken

在无状态的 REST API 中,JWT 是身份验证的主流方案。这个库实现了 JWT 的签名与验证逻辑,支持 HS256、RS256 等多种算法。它配合 Serde 使用,可以将自定义的 Claims 直接映射为 Rust 结构体。

use jsonwebtoken::{encode, Header, EncodingKey};
use serde::{Serialize, Deserialize};

#[derive(Debug, Serialize, Deserialize)]
struct TokenClaims {
    sub: String,
    exp: usize,
}

fn create_token(user_id: &str) -> String {
    let claims = TokenClaims { sub: user_id.to_owned(), exp: 10000000000 };
    encode(&Header::default(), &claims, &EncodingKey::from_secret("secret".as_ref())).unwrap()
}

5. Argon2

存储用户密码时,安全哈希算法的选择非常关键。Argon2 是目前推荐的现代算法,它通过增加内存成本和计算开销来抵御暴力破解。Rust 的 argon2 库易于使用,能有效防止彩虹表攻击。

use argon2::{Argon2, PasswordHasher, PasswordVerifier, password_hash::SaltString};
use argon2::password_hash::rand_core::OsRng;

fn secure_password() {
    let pwd = b"my_password";
    let salt = SaltString::generate(&mut OsRng);
    let argon2 = Argon2::default();
    let hash = argon2.hash_password(pwd, &salt).unwrap().to_string();
    
    // 验证逻辑
    let parsed_hash = argon2::PasswordHash::new(&hash).unwrap();
    assert!(argon2.verify_password(pwd, &parsed_hash).is_ok());
}

6. Prometheus

可观测性是生产环境的要求。prometheus 库允许在代码中埋点,收集请求耗时、并发数、错误频率等指标。这些数据可以被 Prometheus 抓取并在 Grafana 中展示,帮助开发者掌握系统的运行状态。

use prometheus::{Counter, Registry};

lazy_static::lazy_static! {
    static ref HTTP_REQUESTS: Counter = Counter::new("http_requests", "请求总数").unwrap();
}

fn track_metric() {
    HTTP_REQUESTS.inc();
}

7. Tokio-cron-scheduler

后端服务经常需要处理定时任务,比如每日结算、清理过期缓存等。这个库将 Cron 表达式集成到了 Tokio 异步运行时中,允许在不阻塞主线程的前提下,按照预设的时间表触发异步函数。

use tokio_cron_scheduler::{Job, JobScheduler};

async fn start_scheduler() {
    let sched = JobScheduler::new().await.unwrap();
    sched.add(Job::new("0 0 1 * * *", |_, _| {
        println!("每天凌晨1点执行清理");
    }).unwrap()).await.unwrap();
    sched.start().await.unwrap();
}

8. Async-graphql

如果需要构建 GraphQL 接口,async-graphql 是目前的首选。它利用 Rust 的类型系统来定义 Schema,能够自动生成文档,并支持强大的 Subscription 功能(基于 WebSocket 的实时数据推送)。它能无缝集成到 Axum 或 Actix-web 中。

use async_graphql::{Object, Schema, EmptyMutation, EmptySubscription};

struct Query;

#[Object]
impl Query {
    async fn version(&self) -> &str { "v1.0" }
}

fn build_schema() {
    let schema = Schema::build(Query, EmptyMutation, EmptySubscription).finish();
}

9. Mockall

测试是保证代码质量的基础。mockall 可以为 Trait 生成 Mock 对象,这在单元测试中非常有用。通过模拟外部 API 或数据库行为,可以实现真正的隔离测试,确保逻辑分支被完整覆盖。

use mockall::{automock, predicate::*};

#[automock]
trait ExternalApi {
    fn fetch_data(&self, id: u32) -> String;
}

#[test]
fn test_business_logic() {
    let mut mock = MockExternalApi::new();
    mock.expect_fetch_data()
        .with(eq(10))
        .returning(|_| "mocked_value".to_string());
        
    assert_eq!(mock.fetch_data(10), "mocked_value");
}

配置 Rust 开发环境有时会涉及环境变量、编译器版本以及相关底层库的安装,如果用 ServBay 进行一键部署Rust,就不用管这些乱七八糟的东西了。

image.png

ServBay 是一款专为开发者设计的本地开发环境管理工具。它集成了对 Rust 环境的直接支持,直接在图形界面中快速安装 Rust 编译器以及配套的数据库环境,比如 PostgreSQL、Redis等等。

总结

上面的 9 个库涵盖了从数据处理、身份认证到运维监控的完整链路,开发中所需要的基本都能涵盖了。省时省力又省心。

在日常开发中,我们经常需要从互联网上获取资源文件,尤其是 PDF 文档。无论是自动备份在线报告、批量下载电子发票,还是获取动态生成的合同文件,能够高效、稳定地将远程 PDF 保存到本地都是一项实用技能。

本文将介绍如何使用 Spire.PDF for .NET 库,结合 C# 语言,从指定 URL 下载 PDF 文档并保存到本地。Spire.PDF 提供了丰富的 PDF 操作功能,而不仅仅是下载和保存。

准备工作

首先,你需要在项目中安装 Spire.PDF for .NET。可以通过 NuGet 包管理器控制台执行:

Install-Package Spire.PDF

或者通过 .NET CLI:

dotnet add package Spire.PDF

该库支持 .NET Framework 4.0 及以上、.NET Core 3.1、.NET 5.0 及更高版本。

实现代码

以下是完整的代码示例:

using System.IO;
using System.Net;
using Spire.Pdf;

namespace DownloadPdfFromUrl
{
    class Program
    {
        static void Main(string[] args)
        {
            // 创建 PdfDocument 对象
            PdfDocument doc = new PdfDocument();

            // 创建 WebClient 对象,用于下载网络资源
            WebClient webClient = new WebClient();

            // 从 URL 下载 PDF 数据,并保存到内存流
            using (MemoryStream ms = new MemoryStream(
                webClient.DownloadData("http://www.example.com/sample.pdf")))
            {
                // 将流中的 PDF 数据加载到 PdfDocument 对象
                doc.LoadFromStream(ms);
            }

            // 将 PDF 文档保存到本地文件
            doc.SaveToFile("result.pdf", FileFormat.PDF);

            // 释放资源
            webClient.Dispose();
            doc.Close();
        }
    }
}

代码解析

1. 创建 PdfDocument 对象

PdfDocument 是 Spire.PDF 的核心类,代表一个 PDF 文档实例。我们用它来承载从网络下载的 PDF 数据。

2. 使用 WebClient 下载数据

WebClient 是 .NET 中简单易用的 HTTP 下载类。DownloadData 方法直接返回 byte[] 数组,表示 PDF 文件的原始二进制内容。

3. 利用 MemoryStream 作为桥梁

将字节数组包装到 MemoryStream 中,是为了方便调用 doc.LoadFromStream(ms) 方法。这样做避免了先将文件保存到磁盘再读取的低效操作,实现了全内存处理。

4. 加载流并保存

LoadFromStream 方法将内存流解析为可操作的 PDF 文档。最后,SaveToFile 将文档持久化到本地磁盘,文件名为 result.pdf

注意事项

  • 异常处理 :实际生产环境中,建议添加 try-catch 块处理网络超时、URL 无效、PDF 格式错误等异常。
  • 内存管理WebClientPdfDocument 都实现了 IDisposable 接口,务必及时释放资源。上述代码已使用 using 语句处理 MemoryStream,但也建议对 webClientdoc 进行显式释放或也使用 using
  • 异步版本 :如果需要下载大文件,推荐使用 WebClient.DownloadDataTaskAsync 或改用 HttpClient 的异步方法,避免阻塞 UI 线程。
  • URL 有效性 :请确保提供的 URL 直接指向 PDF 文件,而非一个跳转页面。

扩展应用

借助 Spire.PDF,你可以在下载 PDF 后立即进行其他操作,例如:

  • 提取文本或图片
  • 合并多个 PDF 文件
  • 添加水印或页眉页脚
  • 将 PDF 转换为图片或 Word 格式

总结

本文演示了如何使用 C# 和 Spire.PDF for .NET 从 URL 下载 PDF 并保存到本地。整个过程简洁高效,仅需几行核心代码即可完成。Spire.PDF 不仅提供了文档加载与保存功能,更是一个强大的 PDF 处理工具集,值得深入探索。

希望这篇文章对你有所帮助。如果你有任何问题或更好的实现方式,欢迎交流讨论!

随着AI时代的快速到来,无论是模型的训练推理,还是各行各业在AI场景中的探索、试点与推广,都对数据提出了全新的要求。而这些数据能否顺利落地,很大程度上依赖于底层数据平台或数据底座的能力。

袋鼠云在数据中台领域已深耕超过十年。结合AI时代对数据的新需求,本篇我们将重点探讨在AI时代,企业为什么要重新思考数据底座?

一、高质量数据集:AI应用落地的基石

当前业内主流大模型(如豆包、通义千问、DeepSeek等)的泛化能力与推理表现,均高度依赖数据的质量与丰富度。而在上层AI应用(如问数系统、知识库等)中,若要从Demo或个人使用迈向企业级生产应用,同样离不开高质量数据集的支撑。

然而在实际落地过程中,企业普遍面临数据不完整、质量参差甚至存在错误等问题,大量未经治理的数据被直接输入模型,进而引发“幻觉”等不稳定现象。在生产环境下,这类数据难以直接支撑业务应用,往往需要投入大量人工进行校验与处理,显著增加了落地成本,也制约了企业在AI方向的深入探索与规模化推广。

二、政策驱动:国家大力支持AI与数据要素融合

为了配套支持AI应用的快速落地,国家近年来连续发布了多项政策,推动AI与各行业深度结合:

图片

在国家密集政策的持续推动下,市场上已涌现出一批高质量数据集建设项目,尤其在政企领域表现尤为突出。

那么,什么才算是“高质量数据集”?2025年中国国际大数据产业博览会正式发布的《高质量数据集建设指引》给出了明确标准:高质量数据集应具备准确性、完整性、一致性、时效性、相关性、代表性与无偏性等关键特征。

 以“准确性”为例,企业内部虽拥有海量数据,但由于跨部门口径不一,数据冲突现象较为常见,因此在建设高质量数据集时,必须优先保障数据结果的准确可靠。再看“完整性”,在问数等应用场景中,一旦问题超出知识库覆盖范围,系统便难以给出有效答案,这就要求企业对字段维度与系统范围进行系统化梳理与补全,确保数据体系的全面性。

图片

三、高质量数据集对平台的核心要求

高质量数据集的落地,极其考验底层平台的能力,主要包括:

·自动化的工具链:高质量数据的形成需要将企业各业务系统的数据、公网爬取的数据、接口调用的数据以及本地文件(文档、音频、视频)统一采集、整合、处理。整个链路需要自动化工具链来完成数据采集、清洗、人工或自动标注以及质量检查。

·治理平台:围绕自动化工具链之上,需要一套治理平台来管理数据之间的血缘关系、数据滚动的校验以及质量监控,实现日常管控和运营。

·数据安全与隐私:高质量数据最终要支撑各种AI应用和大模型,因此平台必须支持跨域联邦学习、数据可用不可见、数据脱敏加密,以及表级、文件级的精细权限管控。

·多模态存储与计算:高质量数据集的来源包括文本、图像、音频、视频等,平台需要具备多模态的存储、计算和管控能力。

图片

四、可信数据空间:破解数据孤岛与合规难题

在企业建设各种数据应用的过程中,需要用到内部私有数据,这就需要将企业知识库和各种数据灌入Data Agent相关应用中。然而,这些数据是否存在违规、跨域或跨权限访问的问题,面临较大挑战。实际落地中存在四大痛点:

·数据孤岛与滥用:数据来自CRM、OA、财务等不同系统,存储在企业知识库、网盘甚至个人电脑上,分散存储形成烟囱,难以管控。

·严苛的合规压力:随着《数据安全法》的颁布,个人隐私数据有明确的安全要求。如果通过公有云大模型调用,数据传输到互联网上存在较大安全隐患。

·细粒度的权限管控缺失:大量数据整合后,需要明确哪些部门可以访问哪些数据。例如财务数据仅限管理层和财务部门,人力数据仅限人力部门。缺乏细粒度管控会导致数据被越权访问,引发内部风险。

·溯源与审计困难:一旦发现数据违规使用,需要全链路数据流转追踪和事件定责的工具。

为此,构建可信数据空间成为必要,具体包括:

·智能治理:通过AI自动化数据治理,实时监控数据链路和资产价值。

·统一的连接器:适配各种异构系统,实现多元异构数据的安全接入与高效交换。

·多模态能力:面向各类文件、音频、视频及系统数据,提供高性能的计算和处理能力。

·数据安全:实现测试数据与生产数据隔离,最小授权粒度,关键数据可用不可见、可用不可出,支持精细化的细粒度权限管控。

图片

五、Data Agent与RAG落地的挑战与应对

当前市场上出现了各种Data Agent,如问数Agent、营销Agent、数据洞察Agent等。这些Agent本质上都需要搭建一套知识库(RAG),将企业各类数据利用起来,并通过TextSQL等技术降低数据使用门槛,让非技术人员(如运营、销售、行政等)也能通过自然语言快速获取数据价值。

然而实际落地中面临诸多问题:

·术语与指标难以理解:AI很难理解企业自定义的术语和指标,例如“爆款”“3C”“6C”“大客户”等,每个企业的定义不同。

·数据质量与可信度:即使AI生成的语法和图表正确,但由于数据质量问题或模型环节问题,最终结果可能是错误的,导致管理人员无法直接用于决策。

·基础设施瓶颈:多模态数据(文件、音频、视频)纳入后,数据量级从几个TB升级到PB级别。海量数据的处理需要GPU支撑,传统CPU难以胜任。

同时,非结构化数据的管理方式不同于结构化数据,以往的元数据管理(如Hive表结构)已经失效。

图片

六、多模态数据的广泛应用场景

除了高质量数据集和可信数据空间,还有大量数据应用需要底层多模态数据平台的支撑:

·医疗诊断:整合患者就诊数据、拍片数据、健康体检数据,形成智能诊断方案。

·内容创作:整合作者以往的写作数据和偏好,通过AI辅助生成创作内容。

·智能客服:整合客户咨询记录、偏好、购买记录以及产品知识库、问答知识库,实现智能客服。

·智能制造:通过生产车间的摄像头和传感器采集生产环节数据,结合生产系统数据,实现智能制造。

·金融风控:整合用户借款记录、还款记录、消费习惯及关系网络,支撑金融风控场景。

·教育、自动驾驶等场景同样涉及多模态数据平台的要求。

为了支撑这些场景,多模态平台需要采集企业内部外部的结构化与非结构化数据,让数据从单一系统维度走向多模态、多维化,使数据应用更加丰富和完善。

图片

七、传统数据平台的“能力天花板”VS“多模态平台多维融合”

以往的传统数据平台在支撑上述应用时,存在以下问题:

·数据类型汇聚不统一:传统平台主要采集结构化数据(如Oracle、MySQL、SQL Server等),对于非结构化数据(文本、图片、音频、视频)采集能力缺乏,需要不同技术工具,存储在不同位置(文件服务器、对象存储),形成割裂局面。

·多模态语义搜索能力不足:传统平台主要支持结构化数据的二维表形式,搜索多采用关键词索引,难以支持向量化语义搜索。非结构化数据的处理需要专业算法人员(如图片关键词提取、文档切分、视频内容提取),上手门槛高。

·元数据管理不统一:传统平台管理MySQL、Hive等元数据,而文件、视频、音频等可能存储在网盘、FTP、语雀、钉钉等不同平台,元数据无法打通,权限不一致,带来安全风险。

·Data与AI流程割裂:传统数据平台主要为数仓而生,支持BI图表和仪表盘;而AI应用对非结构化数据要求高,两者技术栈和团队不同,开发和运维流程割裂。

基于以上问题,新型多模态平台需要具备以下能力:

·多模态数据的统一采集:无论结构化、半结构化还是非结构化数据,无论存储在何处,都可以通过统一平台采集,实现技术栈和操作习惯的统一,避免数据孤岛。

·统一的治理能力:通过GPU相关算子处理非结构化数据,并与结构化数据做关联或联邦计算,形成有价值的数据资产或数据集。

·语义化搜索与知识构建:支持关键词、语义化、索引化搜索,统一管理元数据。用户可以在权限范围内查看结构化和非结构化数据(文件、音频、图片、系统表等),并进行统一搜索。

·智能化的多模态数据处理与标注:平台内置大量处理算子,通过低代码方式快速解析文件、图片、音频,支持智能标注或人工标注,降低数据清洗成本,提高效率。

图片

九、双轮驱动:Data for AI 与 AI for Data

在实施过程中,通过平台与方法的结合,可以落地高质量数据集和可信数据空间,支撑AI应用的快速发展和生产上线。我们总结出两种模式:

Data for AI · 数据供给侧

通过采集、清洗、标注、增强、评估等关键技术,为各种AI应用提供高质量的数据语料,最终保证产出的数据干净且可用,从而降低大模型的幻觉率,提高指标问数、ChatBI等AI应用的准确率。

AI for Data · 治理智能化

利用AI技术提高数据集处理和多模态数据形成过程中的效率。例如,传统治理需要人工逐个建立采集任务、清洗任务(从ODS层到DWD层等),并手动维护。而AI可以自动化建模、标注、数据约束和管控,大大提升数据治理效率。

图片

通过 Data for AI 和 AI for Data 的双轮驱动,可以使多模态数据落地过程效率大幅提升,降低实施周期和成本。

十、未来三大演进方向

基于多模态数据平台和治理方法论,未来有三大核心演进方向:

① 数智一体化:以往数据治理和AI是两套平台建设。未来,数据平台、数据治理和AI平台应合二为一,在平台中内置AI能力(如向量搜索、智能问答、知识库),整合大模型、向量库、搜索引擎等技术组件,通过一道平台满足治理自动化、标注和向量化要求。

② AI自动化治理:基于数智一体平台,将大量重复性、有规则性、可定义SOP的治理工作交给AI完成,例如自动生成数据标准、自动检测不符合标准的数据、自动生成数据模型和ETL任务等。只要可以明确定义并有足够语料,AI就可以执行,从而降低实施工作量、成本和上线周期。

③ 数据安全内置:在平台的存储、加工各环节内置数据安全组件,包括文件/表的权限控制、数据脱敏加密、数据质量管控等,达到数据合规和最小颗粒度使用。

十一、袋鼠云多模态数据平台产品架构

基于上述理解,袋鼠云研发了多模态数据平台,产品架构如下:

左侧数据来源:包括各种关系数据库(Oracle、MySQL等)、MPP数据库、Hadoop体系数据,以及半结构化/非结构化数据(日志、网页、文档、图片、音视频等)。

统一数据集成:将上述数据采集到平台存储。存储层:内置对象存储(MinIO、S3)、数据湖、向量库、图数据库等多样化组件,满足不同数据的存储和使用需求。

模型服务层:提供模型管理和服务能力,可对接DeepSeek、通义千问、豆包等第三方模型,进行管理、微调和推理。

统一元数据管理:通过Graphine等多模元数据管理组件,将非结构化和结构化数据的元数据统一管理。

调度层:实现CPU和GPU混合调度,特别是GPU调度支持非结构化数据的并发解析识别。计算层:提供离线计算、实时计算、机器学习等处理能力。

开发治理层:统一的开发UI界面,支持低代码开发、数据质量检测、数据血缘、数据安全等能力。

AI应用:为问数Data Agent、智能客服、企业知识库、资产门户、知识图谱、高质量数据集等提供统一的数据能力。

图片

多模态数据平台产品架构图

通过这一平台,企业可以快速构建AI应用所需的所有底层数据。

十二、多模态数据平台的终极形态

以往的数据平台核心是提供结构化数据整合能力,最终支撑BI报表、分析报表或门户等应用。但在AI时代,许多企业在建设AI应用时发现:问数、知识库、搜索不准或错误,准确率不高。回归问题本质,核心还是底层数据集和平台能力不够——数据不全面、语义度不高,导致AI应用难以在生产环境中发挥作用。

在AI时代,数据已从以往的辅助决策、辅助资源,升级为核心生产资料。企业AI能否落地,核心依赖于底座的高质量数据集能做到什么程度,平台能否支持高质量数据集的快速落地和效果呈现。

因此,我们总结未来产品的几大形态:

① 构建统一底座:抛弃以往数仓仅解决结构化数据孤岛的思路,多模态平台要将结构化和非结构化数据全域接入、灵活处理。

② AI Native 的智能流水线:通过AI能力处理多模态数据,加速实施落地周期,提高资产转化效率。

③ 可信数据空间构建:平台上承载了企业所有数据(结构化和非结构化),数据的管控颗粒度和权限便捷度是核心生命线。需要构建可信数据能力,统一管控各类数据,方便、安全地供下游应用使用。

④ 敏捷智真创新:AI技术快速演进,数据来源快速膨胀。结构化数据在企业中可能只占10%甚至5%,而非结构化数据将占到90%甚至95%以上。这对大规模存储、处理、搜索提出了更高要求。平台需要支持海量数据存储管控计算,快速集成新组件,支持敏捷创新,如多模态数据存储和CPU/GPU混合调度。

结语

本篇主要分享了在AI时代,企业探索和构建数据应用的过程中,为什么需要一个新的数据底座,以及新数据底座需要具备哪些能力,结合底座之上如何做治理和实施。除了本次分享,后续还安排了两期分享,感兴趣的朋友可以点击下面的预约卡片。视频号直播预约卡片获取更多资料:《数栈·多模态数据智能中台产品白皮书》可扫描下方二维码,快速获取,无需等待~

图片

苹果签名是iOS应用实现安装、运行的核心前提,本质是苹果生态的安全认证机制,通过数字证书确认应用来源合法、内容未被篡改,保障设备使用安全。不同场景下,开发者和企业对签名的需求差异较大,市面上主流的苹果签名类型各有适配场景,本文将以实用视角,拆解各类签名的核心特点、使用场景及注意事项,帮你快速选对适合自己的类型。
首先是个人开发者签名,核心服务于个人开发者的真机调试需求,依托苹果个人开发者账号生成,年费相对亲民。这类签名的核心限制的是设备绑定数量,单账号最多可绑定100台设备,且需提前录入设备UDID,适合应用开发初期的自我测试、小范围种子用户试用。它的优势的操作便捷,无需复杂审核,通过常规开发工具即可完成签名打包;不足在于设备限制严格,且签名有效期较短,需定期续签,不适合大规模分发。
其次是企业开发者签名,专为企业内部分发需求设计,基于苹果企业开发者账号搭建,无设备数量限制,无需绑定UDID,用户下载后只需在设备管理中信任对应证书即可使用。无论是企业内部的协作工具、培训应用,还是面向内部员工的专属服务软件,都能通过这种签名快速部署。但需注意,企业签名的稳定性与证书使用方式相关,共享证书因多人共用,易触发苹果风控导致掉签,独享证书稳定性更高,适合有长期内部分发需求的企业。
第三种是超级签名,属于个人开发者签名的优化升级版本,借助技术手段实现UDID自动绑定,用户安装时无需手动提供设备信息,体验更流畅。它的核心优势是稳定性极强,单设备独立签名,掉签概率极低,且无需用户手动信任证书,适合对稳定性要求高的小范围测试、小众付费应用分发。但短板也较为明显,成本随设备数量递增,单设备收费模式导致大规模分发时性价比偏低,更适合小体量、高精度的分发需求。
最后是TF签名(TestFlight签名),作为苹果官方认可的测试签名方式,合规性和稳定性拉满。应用需经过苹果简易审核(1-3天),通过后可邀请最多1万名外部测试用户,用户通过TestFlight应用即可下载安装,测试有效期为90天。这种签名零掉签风险,无需用户手动信任,适合金融、医疗等对安全性要求极高的行业,或需要公开测试、收集广泛用户反馈的应用,不足是有审核门槛,且测试期限有限,不适合长期正式分发。
很多人会混淆各类签名的用途,其实核心原则很简单:个人调试选个人开发者签名,企业内部分发选企业签名,小范围稳定测试选超级签名,合规公开测试选TF签名。选择时结合自身预算、分发规模和稳定性需求,避开低价共享证书的坑,就能实现应用的安全、高效分发,兼顾体验与合规。

「龙蜥大讲堂」精彩预告来了,点击下方海报抢先了解。欢迎扫描海报二维码提前进群,立即预约锁定这场 AI 关键技术分享!

异构场景下的大模型优化技术

直播时间:2026 年 04 月 15 日 (周三)16:00-17:00

直播内容:

本次直播带大家了解异构推理的工作机制,掌握不同类型模型上的性能优化技巧,以及分享异构推理的基本过程和存在问题,分析在基于龙蜥操作系统的硬件资源受限场景下,稠密模型和 MoE 模型在 CPU 端的卸载技术。

适合人群:

研发工程师、运维工程师。

讲师介绍:

Rongfei Xu,浪潮信息系统软件架构师。博士毕业于北航计算机学院计算机软件与理论专业,研究领域为服务器操作系统、大模型推理等系统优化技术。目前从事异构推理的性能提升工作。

图片

随着大模型技术迈向深化应用与规模部署的新阶段,AI 基础设施的效能、成本与可靠性已成为推动产业突破的关键。4 月 28 日,由龙蜥智算联盟主办、浪潮信息承办的以「聚力前行—智算时代的基础设施创新」为主题的 MeetUp 将在北京举办。本次活动聚焦 AI Infra 产学研用全链路最新技术趋势与产业动态,涵盖 LLM 推理性能诊断、GPU 复用技术、CXL 池化内存应用、分布式推理建模框架、边缘 AI 高效 GPU 架构等热点话题,从技术原理到落地实践,全方位解析 AI 基础设施创新路径。

除此之外,活动现场将举行 CXL 接口库发布仪式,由阿里云、浪潮信息、中国科学技术大学、上海交通大学等生态伙伴共同参与,见证 AI 基础设施领域的重要里程碑。

时间:4 月 28 日(周二)14:00-17:30

地点:北京海淀区朗丽兹西山花园酒店-华夏 AB 厅

报名链接:https://openanolis.mikecrm.com/eoV0ryn

图片

在企业落地 AI 应用的过程中,团队往往面临一个尴尬的现实:AI 模型和能力已经就绪,但从"能用"到"团队都能用"之间,还横亘着一道部署与管理的鸿沟。每个成员想跑一个 AI 应用,都得理解底层资源配置、网络拓扑、权限体系,这显然不是高效的协作方式。

阿里云 PolarDB 推出的 PolarClaw 企业级 SaaS 服务,正是为解决这一问题而来。它将 AI 应用的创建、管理和分发流程高度产品化,让团队可以像使用 SaaS 工具一样,轻松管理 PolarClaw 应用的全生命周期。
图片
什么是 PolarClaw SaaS?

PolarClaw SaaS 是一个部署在用户专有网络(VPC)内的 Web 服务,核心定位是"集中创建和管理 PolarClaw 应用的统一入口"。

简单来说,它把原本分散在控制台各处的 PolarClaw 应用管理操作,收敛到一个独立的 Web 界面里。管理员可以在这里预设应用模板、管控权限,而团队成员则可以通过企业账号一键登录,基于模板快速创建自己的 PolarClaw 应用实例,全程无需接触底层的数据库、网络和资源配置细节。

这种架构的好处很直接:AI 能力的使用门槛被大幅降低,而安全性和可管理性并不因此打折。应用部署在用户自己的 VPC 内,数据不出网,管理员对配置模板拥有完全的控制权。

核心能力:三大功能解决团队 AI

SaaS 管理应用的能力可以归纳为三个核心维度。
图片

一、模板化部署,一键创建应用

这是 PolarClaw SaaS 最核心的价值所在。管理员可以在后台预先定义好 PolarClaw 应用的配置模板,包括模型来源(ModelFrom)、模型 API Key 等关键参数。团队成员登录后,只需选择模板并点击创建,即可获得一个完整可用的 PolarClaw 应用实例。

对于需要频繁创建 AI 应用的团队而言,这意味着:不再需要每次都走一遍完整的资源申请和配置流程;不再需要每个成员都具备云资源管理的知识背景;也不再需要管理员逐一手动配置每个应用实例。整个过程就像在企业内部应用商店里"安装"一个应用一样简单。

二、企业级统一认证,安全无缝接入

PolarClaw SaaS 管理应用与企业办公应用深度集成,目前已支持飞书组织架构的对接。团队成员使用企业飞书账号即可完成安全登录,无需额外注册或维护独立的账号体系。

这种集成方式带来了几个实际好处。

账号管理成本归零:员工入职、离职的权限变更自动跟随企业通讯录;
登录体验一致:用户使用熟悉的企业账号,无学习成本;
安全合规有保障:基于企业应用账号的标准认证流程,认证信息由企业自建应用掌控。

三、集中化权限管控,管理员统一运维

SaaS 服务的超级管理员拥有对配置模板的完全管理权限。这意味着管理员可以精确控制团队成员能创建什么类型的应用、使用哪些模型资源、调用哪些 API 接口。

在实际使用场景中,这种管控能力非常关键。比如,管理员可以为不同业务团队配置不同的模板,控制模型调用的成本和范围;也可以随时调整模板参数,统一升级所有基于该模板创建的应用配置。整体的管理模式是"管理员定义规则,团队成员在规则内自主使用",既保证了灵活性,也确保了可控性。

实操指南:四步完成 PolarClaw SaaS 部署
图片

第一步:创建 SaaS 管理应用

登录阿里云 PolarDB 控制台,进入"PolarDB AI → PolarClaw → SaaS 配置"标签页。在此页面中,需要填写以下关键配置信息:

阿里云 AccessKey ID 和 AccessKey Secret(建议使用专用 RAM 用户,按最小权限原则配置);VPC 网络、可用区及交换机;
安全组(注意必须放行 TCP 8080 端口,否则服务将无法访问);
飞书自建应用的 App ID 和 App Secret(用于实现企业账号登录,需在飞书开放平台创建自建应用并开通用户信息相关权限)。

第二步:配置网络访问能力

SaaS 应用默认仅支持 VPC 内网访问。如果需要公网访问能力,需在应用所在的 VPC 和交换机下创建公网 NAT 网关,并配置 SNAT 条目(VPC 粒度),绑定弹性公网 IP。随后在 SaaS 应用详情页申请开通公网访问地址。

需要注意的是,开通公网访问将产生 NAT 网关及公网流量相关费用,建议根据实际需求评估是否开通。

第三步:配置飞书回调地址

从 SaaS 应用详情页复制"飞书重定向 URL",前往飞书开放平台,在应用的安全设置中完成两项配置:添加重定向 URL,以及将 SaaS 应用的出口 IP 加入 IP 白名单。

特别提醒:在飞书开放平台添加权限后,务必点击"确认"按钮保存变更,否则配置不会生效。同时,飞书应用发布时需将可用范围设置为"全部成员",以确保团队所有人都能正常登录。

第四步:访问与使用

一切就绪后,配置好访问白名单(公网出口 IP 或 VPC 内客户端 IP),通过私网或公网地址访问 SaaS 管理界面。

以管理员身份登录后,进入"账号管理"模块,创建 PolarClaw 应用模板,指定模型来源、ModelFrom 和 ModelApiKey 等参数。模板创建完成后,团队成员即可基于模板一键创建自己的 PolarClaw 应用实例,整个过程通常只需几秒钟。

通过配置应用模板“一键开虾”[向下]

写在最后

PolarClaw SaaS 管理应用的设计理念很务实:不追求花哨的功能堆砌,而是聚焦于"让团队高效、安全地使用 AI 应用"这个核心命题。PolarClaw SaaS 几乎是零额外学习成本的能力升级,熟悉的控制台、熟悉的网络架构、熟悉的企业账号,加上一套简洁直观的模板化管理机制,就构成了完整的 AI 应用管理闭环。

如果你的团队正在探索如何让 AI 能力更高效地落地到日常业务中,PolarClaw SaaS 管理应用值得一试。

如有相关问题,欢迎使用钉钉搜索“175205010586”加入 PolarClaw 技术交流群咨询。

点击“阅读原文”查看完整配置步骤[向下]
https://help.aliyun.com/zh/polardb/polardb-for-postgresql/use...

Google Cloud介绍了 他们近期对 PostgreSQL 的技术贡献,重点在逻辑复制、升级流程和整体系统稳定性方面进行改进。此次更新体现了与上游社区的持续合作,核心引擎增强旨在解决可扩展性、复制和运维方面的挑战。

 

本次更新汇总了 2025 年 7 月至 12 月的工程工作,重点推进逻辑复制向 active-active 架构演进。其中一项关键改进是引入自动冲突检测,使数据库在复制过程中可自动识别行级冲突,无需人工干预。这解决了多节点写入场景中长期存在的问题,此前冲突更新可能导致复制中断。

 

向 active-active 复制方向的演进也在社区引发了关于一致性模型权衡的讨论。Franck Pachot如此评论

将带冲突解决的双向逻辑复制与 Oracle RAC 或 CockroachDB、YubyteDB 等分布式 SQL 进行比较,是对数据库一致性的误解。一种是最后写入胜出,另一种则是 ACID。

 

与此同时,也有人认为这一进展标志着 PostgreSQL 在企业环境中持续进化。Janardhan Korapala写到

重大的里程碑。当超大规模云厂商将 active-active 复制这类企业级特性贡献到上游时,说明 PostgreSQL 已成为无可争议的企业默认选择。

 

其他改进将逻辑复制的范围从表数据扩展到序列,减少了迁移或版本升级时手动同步的需求。团队还修复了订阅管理中的自死锁(self-deadlock)的问题,该问题在复制命令尝试访问同一服务器上的锁定资源时可能发生。

 

工作的另一重点是提升升级的可靠性与性能。对 pg_upgrade 的优化改进了大对象管理,缩短了大规模部署的升级时间。其他的更新会通过在升级期间保留必要的 WAL 数据、确保模式约束被正确保留来提高系统韧性。

 

除复制与升级外,Google Cloud 工程师还提交了多项漏洞修复以提升健壮性,包括处理诊断工具中的无效索引页、解决从嵌套路径加载扩展的问题,以及强化 WAL 刷写逻辑以确保极端场景下的数据持久性。

 

该公司还透露了正在进行的未来功能研发,包括复制结构化冲突日志、pg_dump 并行数据导出优化,以及大规模数据处理能力的增强。

 

查看英文原文:Google Cloud Highlights Ongoing Work on PostgreSQL Core Capabilities

从「AI For What」到「Value From AI」,100+可落地实践案例打通 AI 实战最后一公里!

4 月 16 日-4 月 18 日,QCon 全球软件开发大会将在北京举办。本届大会锚定 Agentic AI 时代的软件工程重塑,聚焦 Agentic AI、多智能体协作、算力优化、技术债治理、多模态和 AI 原生基础设施等前沿话题,邀请来自腾讯、阿里、百度、华为、蚂蚁、小米、网易等企业技术专家,带来百余项真实落地案例,系统性分享前沿洞察与实战干货,以技术共创探索 AI 落地新路径。

平安科技高级专家工程师褚秋实已确认出席 “Coding Agent 驱动的研发新范式” 专题,并发表题为金融级 Al Coding 落地实践:从“氛围”编程到“严谨”开发的主题分享。随着大模型与 Coding Agent 的推理和执行能力持续迭代增强,平安科技研发团队在 AI Coding 落地方面已迈入深水区。AI 具有极强的可塑性,他们通过对实际项目工程的持续探索与实践,在试点的高频迭代复杂业务系统中,AI 入库代码占比已达 60%。同时,平安科技研发团队也对 AI 如何驱动业务平台开发形成了新的解读:即通过“设计+规范”、“知识+工具”、“模式+流程”三大驱动,实现 AI 模型与工具的能力增强与研发团队工程优化的双向管齐下与双向奔赴。

褚秋实,平安科技专家工程师,长期担任核心业务平台研发负责人,先后负责过传统金融业务平台如车险报案理赔业务、寿险保全业务;互联网金融平台如贷前贷后业务;以及创新业务 AI 区块链应用等项目开发,积累了丰富的架构设计,研发管理,敏捷及工程实践的实战经验。在 AI Coding 兴起以后,带领团队持续在实际项目中探索 AI Coding 实践,形成集团内标杆示范案例。他在本次会议的详细演讲内容如下:

演讲提纲

  1. 平安爱码:平安科技上万开发者的 Coding Agent,研效提升的"曲率引擎"

  • 平安爱码 Agent 的形态和能力概述

  • 2025 年平安爱码赋能研效提升成果

2. 核心实践:金融级“严谨”AlCoding 的四大支柱

  • 规范驱动:核心实践构是建提质提效的 AI 规范驱动开发,我们在大型业务平台系统工程落地 AI Coding 的过程中,开展了两大规范驱动实践:

  • 首先,沉淀 AI 开发指导规范:针对前后端业务功能及技术任务细分,体系化梳理形成开发指南,作为 AI Agent 产能释放的关键,有力支撑了 60%的 AI 代码占比。

  • 其次,实现代码质量强约束与 AI“自愈”:借助 AI 将项目私域的架构设计与代码规范批量转化为 Lint、ArchUnit、P3C 等 CI 工具,无论是人工还是 AI 产出的代码,均须通过强制校验,将无形规范转化为有形约束,显著提升人机协作的代码一致性。

  • 知识工程:核心实践是如何沉淀一个大型业务系统的结构化私域知识,大型业务系统代码库动辄百万行,涉及大量企业私域的业务概念与规则,通用大模型难以精准理解。我们通过“软件项目知识银行“的实践,将一个软件系统关键知识利用图数据库、向量数据库及文档数据库等针对性结构化存储,并通过 MCP 将知识外挂赋能 Coding Agent,补齐模型的私域业务认知短板。

  • 上下文工程:核心实践是分场景精准管理上下文,确保 Coding Agent 在每次大模型请求时携带任务相关的精准上下文。基于一线研发实践,我们将核心任务场景划分为三类:项目功能开发、项目理解分析、项目开发质量保障,每一大类上下文又进一步细分。通过细分场景所需的具体规范、知识与工具,实现高质量私域上下文的精准加载。

  • 人机异步协作:打造“睡后编程”人机流程,我们 AI Coding 研发的先锋团队已开始全面转型异步协作模式,开发人员在工作日一定时段会调整工作重点(每日下午后两小时及周五下午)从传统开发转向布置 AI 异步开发任务,挖掘夜间及周末等非工作时间价值。通过实施 How-to/To-do 两阶段异步开发模式,最大化研发时间的利用率提升人机异步产出。

3. 总结与展望:Coding Agent 持续演化

  • 过去是,等等指令的"实习生"

  • 当前是,只认文档的"外包团队"

  • 下一步,主动规划的"技术合伙人"

这样的技术在实践过程中有哪些痛点?

  1. 很多项目的开发架构缺乏 AI 亲和严重制约了 AI Coding 在项目上的落地和发挥效果。开发架构在 AI 时代会异常重要,我们也在持续探索什么样的代码工程结构和代码组织方式是比较有利于 AI 开发的?比如 单体、微服务、模块化宏服务,前后端分离与前后端整合等怎么来提升 AI Coding 的效果?

  2. AI Coding 的编程推理模型持续在迭代能力越来越强,但是模型和项目代码库之间的隔阂全靠 coding Agent 的上下文来对齐,上下文窗口一直在扩展但是也是有限的,如何在有限的上下文上支持研发过程中多个种场景的 AI 提效,如项目理解场景、功能开发代码生成场景、质量保障场景等?

  3. 我们也在推动开发人员在 AI 加持下面的角色左移和右移,希望打造既懂业务又懂技术的前线交付工程师,全流程端对端怎么搭建稳定高效的 agentic 工作流?目前我们有一些局部尝试断点较多,特别在行业属性合规和准确要求高的要求下如何在端到端的 AI 开发上发力?

演讲亮点

  • 平安科技 AI 编码实践案例

  • 金融行业独家严谨 AI Coding 之道

除此之外,本次大会还策划了Agentic Engineering多模态理解与生成的突破记忆觉醒:智能体记忆系统的范式重塑与产业落地具身智能与物理世界交互Agent Infra 架构设计AI 重塑数据生产与消费AI 原生基础设施AI 驱动的技术债治理小模型与领域适配模型大模型算力优化Agent 可观测性与评估工程AI for SRE等 20 多个专题论坛,届时将有来自不同行业、不同领域、不同企业的 100+资深专家在 QCon 北京站现场带来前沿技术洞察和一线实践经验。

大会日程已 100%上线,更多详情可扫码或联系票务经理 18514549229 进行咨询。

感觉现在很多领域, 品牌的审美都不如从前:

  • 以前的歌旋律好听, 歌词考究, 传唱度也非常高, 而现在的华语乐坛几乎成了刷怪笼, 类似"跳楼机"的音乐层出不穷
  • 以前的 BBA, 有很多引领时代潮流的设计, 而现在宝马的小鼻孔变成了浮夸的大鼻孔, 奥迪的 A6 今年改成了轿跑类型的车, 觉得没有以前的成熟稳重气质, 新的雷克萨斯 es200, 更是丑的没眼看.
  • 以前的卡西欧,精工,西铁城, 推出了非常多好看又有设计的电子表,石英表, 我还有不少收藏, 现在的电子表只剩下卡西欧一家, 并且一直在炒冷饭
  • 以前的诺基亚, 三星, 摩托罗拉设计出了很多别出心裁的功能机, 精致好看, 现在的手机设计统一向苹果公司看齐, 创新型的设计也很难让人耳目一新了
    现在我还在听十几二十年前的歌, 看那时候的电影, 我的西铁城电子表换了一次又一次电池,仍然爱不释手, 如今这个时代好像很少出现
    "经典"的设计了, 总结, 人类一败涂地
    KnockPic_20260415110649

2026 年 4 月,运营整整二十年的 360doc 个人图书馆宣布将于 5 月 1 日停止服务。这家从 2005 年起步、巅峰时期登陆新三板被称为“知识管理第一股”的平台,最终宣布落幕,8000 万用户积累的 11 亿篇文章,除用户自行备份外,将被依法彻底删除。

有人将 360doc 的倒下归结为 AI 的冲击,但创始人蔡智给出了比“时代的眼泪”更为清醒的判断。在关停这个节点上,她接受了每日经济新闻《Ai 煮酒》的采访,既不回避旧模式的局限,也不盲目否定 AI 的价值,从用户主权出发聊了聊个人知识管理产品的未来。

未来产品的两大基石:数据主权与可持续商业闭环

问及未来真正能存活并繁荣的个人知识管理产品应该具备哪些核心特征,蔡智认为:“核心在于尊重用户数据主权和具备可持续的商业闭环。AI、本地化、社交协作都只是手段,不是目的。用户需要确信自己的知识不会被随意滥用或用于训练不明模型;平台也需要找到不依赖广告和数据贩卖的生存模式。否则无论技术多先进,没有用户信赖,都走不远。”

 

这精准地击中了中心化知识库的两个致命伤:第一个是数据主权。360doc 关停后用户数据将被彻底删除,这暴露了中心化存储的根本缺陷:用户的知识资产与平台生命周期深度绑定。

 

第二是不可持续的广告商业模式。个人知识管理产品的用户行为是低频、高价值的——深度阅读、笔记整理、知识关联,而广告的流量模式依赖高频、浅层注意力。两者的价值错配导致单位经济模型难以跑通。360doc 财报显示,2025 年营收同比下跌 43.84%的根源正在于此。蔡智强调“可持续的商业闭环”,背后隐含的判断在于,个人知识管理必须走向直接付费,无论是订阅制、服务费还是企业级方案,而不止是流量变现。

 

“反 AI 复古需求”存在,但 360doc 模式复活难

 

针对部分用户开始厌倦 AI 生成内容、回归原始文档和手写笔记的现象,记者问蔡智:未来是否会出现“反 AI 的复古知识库”需求?360doc 的模式有没有可能以某种形式复活?

 

蔡智的回答分为两层。一方面,这种需求确实会出现,部分人会因为信息过载和 AI 生成的“无意义感”而回归更原始、更可控的记录方式,比如本地文档、手写笔记。这种需求是对“自我意识被技术过度侵入”的一种抵抗。但她也明确否定了 360doc 模式原样复活的可能性。在她眼中,作为互联网特定时期诞生的中心化产品,时代环境、用户习惯与商业模式都已彻底改变,人不可能两次踏入同一条河流。未来或许会出现去中心化、用户自主掌控、基于隐私计算的新型知识库形态,但那已经是全新的事物,不再是原来的 360doc。

 

这一判断有三点商业现实作为支撑。首先是用户习惯的迁移,移动互联网时代,用户从 PC 端主动“收藏文章”转向移动端被动“消费信息流”,主动构建知识库的行为门槛显著提高。再是广告单价持续走低,而个人知识管理的获客成本并未下降,商业模式已经失效。另外,AI 也提高了新的用户预期,人们不满足于存储,而是希望智能对话,这需要持续投入 AI 研发能力,对中小团队构成较高门槛。

 

值得注意的是,蔡智对“复古需求”的肯定并非情怀,而是一个真实的细分市场。

 

眼下,个人知识库赛道正迎来史上激烈的卡位战,全球科技大厂纷纷加码个人知识库布局。海外,谷歌低调推进 NotebookLM,微软 Copilot Notebooks 将笔记、文档、会议录音整合进 OneNote;国内,腾讯 IMA 智能工作台、阿里夸克、字节豆包等也相继推出相关产品,将知识库功能内嵌于更大的 AI 入口产品中,争夺用户粘性与数据积累。

 

IEEE 调查显示,52%的技术领袖认为“个人助理/日程管家”是 2026 年消费者最需要的 AI 应用。同时,各类水墨屏平板的数字笔记产品持续迭代存在,证明有相当比例的用户愿意为“低技术干扰、高认知主权”的体验付费。相应的商业模式可以是硬件加订阅,或者纯净软件付费,但无论哪种形态,都不会回到 360doc 的中心化广告模式。

 

AI 是笔,人是执笔人:思维主权不可让渡

 

在三个问题中,最触及本质的是关于 AI 与个人知识沉淀关系的追问。当被问到:“如何看待 AI 虽然能实现“与知识对话”,但无法替代个人知识库承载的私人认知体系沉淀,以及未来 AI 与个人知识沉淀之间应该是怎样的关系?”

 

蔡智表示非常认同,她说,AI 可以帮你整理、关联、甚至生成新内容,但它无法替代你自己筛选、思考、内化的过程。个人知识库的核心价值正是那个“私人认知体系”,那是你与信息互动后留下的独特印记。未来,AI 是笔,而你是执笔人。AI 负责速度和广度,个体决定思维的深度。思维的主权,永远属于用户自己。

 

这段话为 AI 驱动的知识管理产品划定了一条明确的商业伦理边界:AI 是工具,不是主体。

 

当前市场上存在两种 AI 知识库路径。一种是“AI 替代”路径:AI 自动抓取、自动总结、自动生成知识卡片,用户仅需确认。这种模式看似高效,但长期来看会削弱用户的知识内化能力,导致产品粘性下降——用户越用会越觉得“这不是我的知识”。另一种则是“AI 增强”路径:AI 提供关联、检索、启发式提问,但将筛选、判断、结构化决策权保留给用户。

 

蔡智所说的“思维的主权永远属于用户自己”,本质上是在否定 AI 替代人类思考的商业叙事。对创业者而言,这意味着 AI 功能的商业化必须围绕“增强用户能力”而非“取代用户努力”来设计。订阅制的定价逻辑应该是“为用户节省的时间或提升的认知效率付费”,而不是“出售 AI 的自主决策权”。同时,这一观点也隐含了对数据使用边界的警示,个人知识库不应被默认用于训练平台的大模型。

 

360doc 的停运,为中心化、广告驱动的静态知识库模式画上了句号。而蔡智在访谈中提出的三个判断,数据主权与可持续商业闭环是基石、旧模式无法复活但去中心化新形态将出现、AI 是工具而非思维主体——不仅是对过去的总结,也是对未来商业模型的一个预判。

 

360doc 的墓地之上,新生的火种已经点燃。而蔡智留给行业的一句有力的话,或许可以作为当下所有产品经理的准则:“AI 是笔,而你是执笔人。”

 

昨天跟发小见了一面,吃饭之余聊起近况,似乎各行各业都陷入了降本降薪的困境,遂讨论起了副业的问题

如果在之前未雨绸缪,积累了能力/客户/模式,哪怕暂时找不到工作也能维持相当的一段时间

面对降薪等来自主业的不确定性影响,大家都有离开的底气吗

当 AI 的发展浪潮从“聊天写诗”的通用大模型涌向“干活办事”的自主智能体,我们正站在一个全新的技术分水岭。Agent 的落地深水区,不在于一次惊艳的推理,而在于长期的稳定运行、持续的自我演进以及对用户意图的终极对齐。这一切的核心底座,正是被行业视为 Agent “大脑海马体”的记忆系统与数据基础设施。

2026 年 6 月 26 日-27 日 ,AICon 全球人工智能开发与应用大会即将落地上海,在《Agent 数据、记忆与运行时基础设施》专题中,我们邀请到了来自 EverMind、MemVerge 和 OPPO 的三位专家。他们将分别从操作系统级长期记忆架构、独立于模型的 AI Memory 中间件、以及端云协同的全模态记忆工程三个硬核维度,为您呈现一场关于 Agent 的技术分享。

越过幻觉,走向演进——当 Agent 拥有了“海马体”

演讲嘉宾:邓亚峰 | EverMind CEO,盛大集团副总裁,前 360 集团副总裁、人工智能研究院院长,前格灵深瞳 CTO

如果你关注最近的 Agent 领域动态,一定对 OpenClaw 不陌生。邓亚峰将以 OpenClaw 和近期行业热点事件为引子,抛出一个可能颠覆很多人认知的判断:从通用大模型向具备长期记忆和自我演进能力的 Agent 跨越,才是当前最具商业和技术落地价值的深水区。

他提出了一个非常有意思的框架来理解长期记忆的价值——记忆的三重境界。

第一重是降本增效。在上下文窗口依然受限且成本不菲的今天,如何更聪明地利用每一寸上下文空间,让 Agent 在有限的 Token 预算下依然保持强大的任务连贯性,这本身就是一项极具工程价值的能力。

第二重是个性对齐。让 Agent 记住你喜欢什么样的回复风格,记住你常用的工具组合,记住你反复提及的那些关键信息。这意味着 Agent 从“通用的工具”变成了“专属的伙伴”。

第三重也是最具想象力的一重,是自我演进。当 Agent 能够基于与你长期交互的历史数据进行反思、总结和提炼,在没有你手把手指导下也能自主优化行为策略时,它才真正具备了“成长”的属性。

当然,概念谁都会讲,关键看怎么落地。邓亚峰将在演讲中深度公开 EverOS 的架构细节。这套系统被定位为“AI 时代的长期记忆操作系统”,其底层基础设施叫 EverMemOS。更值得期待的是,他会详细解读 MSA(Memory Sparse Attention)模型的核心原理。面对海量的历史记忆数据,如何在保证召回精度的同时大幅降低检索计算开销,这是整个行业都在攻坚的难题。结合具体的数字助理场景案例,这场演讲会让你直观感受到,一个有长期记忆的 Agent 和一个只有“金鱼记忆”的 Agent,在用户体验上的差距究竟有多大。

把记忆从模型里“拆”出来——独立 AI Memory 系统的架构哲学

演讲嘉宾:范承工 | MemVerge 联合创始人兼 CEO,前猎豹移动 CTO,前 VMware 全球高级副总裁、存储事业部总经理

现在很多开发者做 Agent 记忆,思路都很直接:拉一个向量数据库,把历史对话存进去,用的时候检索召回,往上下文里一塞。听起来合理,但为什么一到 LoCoMo 这类严苛的长期记忆基准测试上,准确率就死活突破不了 90%?

范承工博士的履历横跨存储、虚拟化、大数据和 AI 多个领域,从 Rainfinity 到 VMware 再到猎豹移动,他对“数据如何被高效存取和管理”这件事的理解深度,在这个话题上恰好是最稀缺的视角。他的核心观点很明确:AI 记忆不应该被绑死在模型身上,它应该成为一个独立的基础设施层。

这场演讲的第一个重头戏,是完整拆解一套独立于大模型的 AI Memory 记忆系统的技术架构。他会讲清楚一个关键问题——AI 记忆系统、AI 大模型、AI Agent 这三者之间,到底应该是什么样的架构关系和交互接口设计。深入到存储层,你会发现光靠向量数据库是不够的。这套系统依托图数据库与向量数据库的混合存储架构,不同记忆类型走不同的存取路径。范博士还会重点解读这套系统如何实现 90% 以上 LoCoMo 准确率——这背后涉及检索策略、排序算法、记忆更新机制等一系列精巧设计。

第二个值得关注的点是场景落地。他会特别分享 OpenClaw 记忆插件场景下的实战经验。OpenClaw 的开发者们一定对 Token 消耗深有体会。范博士将展示一个非常实用的案例:通过独立的记忆插件设计,如何在提升 Agent 响应准确率的同时,实现 Token 消耗的大幅优化。具体的优化方案和效果对比数据,现场都会给出来。

最后,他会把目光投向更远的未来。个人用户如何在本地构建私有化记忆库,让 AI 在长期对话中真正懂你且隐私绝不外泄?企业如何部署独立的 AI 记忆系统,把散落在各个业务系统里的组织知识变成可继承的 Agent 资产?当记忆数据爆发式增长,共享、存储和隐私保护技术又该往哪个方向演进?这些问题都会在演讲中得到前瞻性的探讨。

让 AI 看懂你的截图和语音——OPPO 小布记忆的亿级工程实战

演讲嘉宾:王闯闯 | OPPO 高级算法工程师,小布记忆产品算法架构负责人

前两场演讲讲的是 Agent 记忆的底层架构和中台方案,到了第三场,我们来看看真实世界里的记忆系统是怎么跑起来的。王闯闯负责 OPPO 经手过多个 S 级和 A 级项目的考验。他要分享的,是一套从碎片化数据到结构化记忆的生产级完整链路。

问题从用户最熟悉的场景开始:你每天截图、发语音、拍视频、收文档,这些异构多模态的碎片内容,怎么才能被 AI 真正理解并自动整理成有用的记忆?王闯闯用三个词概括了核心挑战——模态异构理解、跨模态关联、结构化生成。每一个词背后都是一堆技术难题。

接下来是这场演讲最硬核的部分:一键闪记的整体架构。小布记忆的触发入口极其丰富,小布助手、魔方按键、三指上滑截屏、AI 流体云识别取餐码、密码本自动填充、日历同步、相机大师参数提取……几乎做到了用户无感的“随手记”。在端侧,这套系统跑的是 OPPO 自研的 AndesVL 多模态大模型,AIUnit 模块承载了 NER 和 OCR 提取、图片分类总结、结构化字段提取、取餐码识别、账单理解等一系列任务。云端则负责内容安全审核和那些端侧搞不定的复杂推理。

这里有一个非常复杂的设计叫端云任务分流。分流模块会对输入图文信息打分类标签,然后判断走端侧还是走云侧。直屏单任务、单标签单实例这类简单场景,占到了流量的 80%,全部端侧处理,又快又省又保护隐私。分屏多任务、多标签多实例这类复杂场景才上云,确保推理质量。这个分流机制的设计思路和边界定义逻辑,对于任何在做端云协同的团队来说都是可以直接借鉴的。

有了单条记忆的提取能力,下一步是聚合。王闯闯会详细讲关联记忆的多规则融合召回加 Rerank 加 LLM 精排的多级架构,以及合集归纳的三链路统一加 Reranker 加 Verify 两阶段聚合方案。这套方案的效果数据很能说明问题——合集创建准确率从 83% 干到了 97%,新记忆加入准确率从 76% 提升到了 95% 以上。

最后他还会分享 OPPO 内部的工程化方法论。Model Selection 到 Prompt Engineering 到 Business Benchmark 的流程化开发工作流,基于 LLM-as-a-Judge 的自动化评测体系,Badcase 反馈闭环——这些都是经过亿级用户场景验证过的实战经验,拿来就能用。

会议推荐:

世界模型的下一个突破在哪?Agent 从 Demo 到工程化还差什么?安全与可信这道坎怎么过?研发体系不重构,还能撑多久?AICon 上海站 2026,4 大核心专题等你来:世界模型与多模态智能突破、Agent 架构与工程化实践、Agent 安全与可信治理、企业级研发体系重构。14 个专题全面开放征稿。诚挚邀请你登台分享实战经验。AICon 2026,期待与你同行。

最近在思考的一个问题,除了写代码,还能干啥?
对以后的路怎么走有点焦虑,如今 ai 发展越来越迅速,就算能撑过 ai 浪潮,也感觉很难撑过 35 岁的门槛。
所以就想我们这行,以后到底能干啥?
有没有大哥是过来人,或者也在思考这个问题的朋友,聊聊你们的想法

经过调研和考虑后,该功能按我个人测试的情况看,应该可以正常工作。但第一个版本,很可能会出现问题,所以有问题可以及时反馈force_smile

有独立博客的用户,可以到 https://2libra.com/blogs 上提交收录申请,审核通过后,系统会周期性的抓取你的 RSS 源,文章列表在抓取并审核后会写入库中。2Libra 会在数据库中保留文章标题、链接还有简介,正文需要通过点击标题后到你的博客进行完整阅读。除此之外,在文章列表中还支持站内用户的点赞以及打赏。

需要注意的是,申请的博客需要为你个人的博客,不要提交未经作者许可的博客 rss,若存在版权纠纷可以随时联系我删除相关内容thanks

欢迎各位提交体验一下。

最近,Etsy 的工程团队介绍了他们如何将长期运行的 MySQL 分片基础设施迁移至 Vitess。此次迁移将分片路由逻辑从 Etsy 内部系统迁移到了 Vitess,并通过 vindexes(虚拟索引)实现了数据重新分片、对原先未分片的表进行分片等功能。

Vitess 是一个用于 MySQL 水平扩展的开源数据库集群系统。它最初作为中间层部署在 ORM(对象关系映射)框架与数据库之间,负责查询路由,而由 ORM 继续指定目标分片。

在 Vitess 中,vindexes 定义了应用数据如何映射到数据库分片,以及查询如何在分片间进行路由。Etsy 高级软件工程师 Ella Yarmo-Gray 介绍了 Etsy 在迁移过程中面临的挑战:

随着新基础设施部署完成,我们开始着手研究 vindexes,它定义了 Vitess 内部的分片策略。由于 ORM 的分片映射是随机的,而非基于算法实现,如果采用现成方案,就需要对所有数据重新分片——这一手动过程可能耗时数年。因此,我们选择编写自定义 vindexes,将现有的分片逻辑移植到 Vitess 中,从而在无需承担数据迁移的复杂度与风险的前提下测试 vindexes 在我们环境中的运行效果。

自 2010 年左右起,Etsy 便采用分片 MySQL 架构存储大部分的生产数据,并使用自研的分片逻辑。该架构目前包含约 1000 个分片、425 TB 数据,每秒可处理 170 万次请求。

Etsy 工程师通过内部的对象关系映射(ORM)层访问 MySQL,每个数据库表对应一个模型。对于分片表,模型中会定义一个名为 shardifier ID 的唯一 ID 字段,用于确定每条记录存储在哪个分片。尽管大多数模型使用 shop_iduser_id 作为分片键,但整体上共使用了三十多种不同的 ID,记录与分片的映射关系则存储在一个未分片的“索引”数据库中。这种方案提升了系统可扩展性,并能将故障影响控制在小部分流量范围内,但扩容操作缓慢且依赖人工执行,索引数据库存在单点故障问题,同时开发人员必须自行管理分片。

几年前,公司决定迁移至 Vitess,以便在保持 MySQL 兼容性的同时解决这些问题:移除“索引”数据库,并对开发人员屏蔽分片的复杂性。此次迁移需要重新设计部分数据模型以优化分片策略、选定分片键,并在验证数据一致性的同时逐步将生产流量切换到新环境。Yarmo-Gray 总结道:

五年后,在提交了约 2500 个拉取请求、执行了 6000 次查询后,我们成功将 Etsy 的分片管理迁移至 Vitess vindexes!尽管我们为简化迁移过程做了大量工作,但替换 Etsy 这种规模和历史积淀的代码库的数据库基础设施依然充满挑战。

在过去几年里,Etsy 工程团队发布了一系列题为《使用 Vitess 对支付系统进行分片》的文章,记录了他们针对支付平台的迁移工作,讲述了迁移数据模型时遇到的挑战,介绍了关键高流量系统的切换过程,并对切换风险进行了评估

【声明:本文由 InfoQ 翻译,未经许可禁止转载。】

查看英文原文:https://www.infoq.com/news/2026/04/etsy-vitess-sharding-migration/

继 4 月 10 日亮相中美“乒乓外交” 55 周年纪念大会展区后,搭载北大-智源 SpikePingpong 算法的智元灵犀 X2 人形机器人于 4 月 13 日登陆纪念“乒乓外交”55 周年友谊赛,在上海体育大学纪念友谊赛现场完成无遥控、全自主乒乓球对打,与中美运动员切磋交流,以京沪双城联动的科技展演,让“小球转动大球”的外交佳话在具身智能时代焕发全新活力。

此次系列成果核心来自 SpikePingpong 算法,这是全球首个将高频脉冲视觉与模仿学习结合的人形机器人乒乓运动控制算法,实现高速动态场景下的精准感知与全身协调控制,完成从机械臂到人形机器人的“一脑多形”关键跨越,在高速动态对抗中展现毫米级轨迹预测与精准击球能力,标志着中国人形机器人具身智能技术迈入新阶段。

脉冲视觉+模仿学习:破解人形乒乓三大技术难题

乒乓球作为高动态、高对抗性运动,对机器人感知、决策与运动控制提出三重极限挑战:球速超 5m/s 需亚秒级反应、轨迹受空气阻力等物理干扰、全身协调需兼顾击球精度与姿态平衡。SpikePingpong 算法创新性融合 20kHz 高频脉冲视觉与模仿学习策略,构建端到端运动控制快慢系统,攻克上述核心难点。

1. SONIC 脉冲感知模块:基于北京大学黄铁军教授原创的脉冲视觉技术(Spike CV),通过高频脉冲相机捕捉乒乓球高速运动轨迹,实时补偿物理干扰,实现球-拍接触点的毫米级精准预测,较传统视觉方案响应速度提升 10 倍,为精准击球奠定感知基础。

2. IMPACT 策略规划模块:采用模仿学习框架,从人类顶尖运动员动作数据中提取击球策略,输出最优全身协调动作,实现对 30cm 目标区域 91%命中率、20cm 高精度区域 71%命中率的卓越表现,较前代 SOTA 方案提升 37%-38%。

3. 感控融合技术:深度适配灵犀 X2 的 29 个自由度本体与 Xyber-Edge 小脑控制器,实现从视觉感知到关节执行的亚毫秒级指令传输,让机器人在动态对抗中保持平衡的同时完成精准击球,展现类人化运动灵活性。

10 天速成乒乓高手:硬件-算法协同创新落地京沪

此次技术突破得益于智元“本体+ AI”全栈技术布局与北大-智源算法创新的深度融合。联合团队仅用 10 天完成从算法适配到系统联调的全流程开发,基于 SpikePingpong 算法、灵犀 X2 开放的 SDK 生态与模型积累,快速实现技术落地验证,并顺利完成北京、上海两场高规格展演。

灵犀 X2 作为中国自主研发的双足人形机器人代表,全栈自研硬件为算法提供坚实支撑:自主研发的 Powerflow 关节模组峰值 120N・m 扭矩输出,Xyber-DCU 域控制器保障多模态数据实时处理,抗摔柔性材料与全身 29 自由度设计确保运动稳定性与安全性,支撑机器人在京沪两地连续完成高强度对打演示。

从北京到上海:科技致敬乒乓外交精神

4. 月 10 日北京会场,灵犀 X2 与邓亚萍、郑敏之等乒乓名将互动对打,流畅完成连续接球、攻防转换、多回合对抗;4 月 13 日上海站友谊赛现场,机器人再度以全自主姿态登场,作为“科技友谊使者”与美国乒乓球运动员切磋球技,实现乒乓外交精神从体育交流到科技交流的延伸。

图:曾任基辛格博士助教的沃特金斯先生与智元机器人乒乓对打

北京大学计算机学院研究员、智源具身大模型负责人仉尚航教授表示:“55 年前,乒乓球以民间交流叩开中美友好大门;55 年后,我们用 SpikePingpong 算法为灵犀 X2 注入乒乓智慧,京沪双城展演既是对历史的致敬,也是中国具身智能实力的集中展示。这项技术将推动高速操控、精密交互等领域的广泛应用,拓展‘本体+ AI’生态边界。”

技术引领未来:人形机器人迈向通用运动智能

SpikePingpong 算法的成功应用,标志着中国人形机器人在高速动态场景具身智能技术上实现三大突破:首次将脉冲视觉用于人形机器人乒乓控制、实现物理干扰下的精准轨迹预测、达成全身协调的类人化运动表现。

未来,智元机器人将持续联合北京大学、北京智源人工智能研究院深化具身智能技术研发,以“本体+ AI”双轮驱动,推动人形机器人在更多国际舞台展现中国创新力量,让“小球转动大球”的精神在科技赋能下拥有跨越代际、连接世界的全新表达。

论文地址:https://arxiv.org/abs/2506.06690

 

ScreenShot_2026-04-15_104402_665.png
ScreenShot_2026-04-15_104416_161.png
ScreenShot_2026-04-15_104557_919.png

10 级的时候,会获得一个徽章【等级丰碑】
10 级是最高级,等级不会再涨,但是经验还可以继续累计

金币池拉满,概率 30%