2026年4月

微信图片_20260417120303_4465_3.png
从2024 年 1 月《关于推动未来产业创新发展的实施意见》明确以人工智能赋能未来制造、未来信息、未来材料、未来能源、未来空间和未来健康等六大产业方向,到 “人工智能 +” 行动被纳入 “十五五” 规划纲要前瞻布局,人工智能正加速推动未来产业从政策蓝图迈向产业实景。

在2026 中关村论坛年会上,未来产业向实而行的图景愈发清晰,具身智能、脑机接口、量子科技等前沿领域在论坛上展现出产业化加速落地的势头,而这一跨越正深度依托人工智能的赋能与支撑。近日,枫清科技创始人兼 CEO 高雪峰在接受环球网《环球热评局》专访时,阐释了人工智能与未来产业深度融合的核心逻辑。

“AI 重塑所有行业的速度已经远超大家所预期。” 高雪峰表示,“在 AI 时代,每 3-6 个月就会有突破性的 AI 领域技术涌现;6-8 个月的时间,就可实现整个技术底层代差的密集更新。技术的突飞猛进让 AI 可以快速重塑每个行业既有的流程、数据结构和工作范式,更重要的是,AI 会带来不同细分行业的生产关系的变革。”

谈及AI 与产业的融合逻辑,高雪峰进一步指出,在传统产业,AI 已经在很多行业推动了端到端的数智化改造;在新兴产业,AI 本身就是新质生产力的核心载体,与光伏、新能源等领域已形成技术共生、双向赋能的产业链融合生态。

与此同时,新质生产力的长周期培育特性在未来产业中体现得尤为突出。与已完成技术试错、或进入规模化生产的新兴产业不同,未来产业尚处于5-15 年的技术路线探索期,而 AI 已从早期布局阶段便深度嵌入其技术底层架构与全生命周期构建。“未来产业的诞生,本身要以人工智能的技术作为核心的支撑和基础。”

如今,AI 在当下的很多未来产业当中,比如核聚变、生物制造、商业航天、低空经济、量子科技等,有着各种各样的深度融合应用,无论是在研究、试验,还是应用场景的探索融合等各个方面。“好比在低空经济的场景当中,已经能看到将人工智能技术,和低空经济的路径规划、算法层面的智能驾驶等领域结合,这个领域已经处于相辅相生的状态。” 高雪峰说。

此外,他还强调,现在看待AI 技术的价值不应仅停留于单纯的算法、模型带来的实验性惊艳效果,而须以生产力提升为核心,将 AI 真正转化为效果可感知、可量化的生产力工具。

有木有个人找室友的啊,房东直租啊,靠谱的中介啊,求求了,来个中国人不骗中国人吧~

或者 V 友们有靠谱渠道,豆瓣我有尝试了

真心求租一个小屋,打工人别为难打工人

2026/05/16 前入住,现在的房子五月十六号到

要求

  1. 位置离东单不远,目前打算五号线亦庄线宋家庄到小红门一线
  2. 1500 左右,越低越好,不用大,一床,一柜,一张能放开笔记本和外接屏的桌子
  3. 正规次卧,别太破,空调别太旧,最好集中供暖
  4. 合租室友人数别太多,干净整洁,还有就是安静

求租背景

  1. 东单上班,90 后程序员,一人住,安静的 ISFP ,不加班,不熬夜,朝九晚六
  2. 不出意外,周五晚上回山东,周一才回北京,也就是周一晚上到周四晚上在

员工把合同代码贴进 ChatGPT 查问题,核心机密直接外泄;AI 客服被诱导导出 12 万条客户隐私;用了大模型却踩中合规红线,面临年收入 5% 的巨额罚款——AI 越好用,数据安全的坑就越隐蔽。
调研显示,68% 的企业 AI 应用存在数据泄露风险,80% 的安全事件源于"使用不规范",而非技术漏洞。传统安全防不住提示注入、数据回溯、模型记忆溢出这些 AI 特有攻击,没规矩、没管控,再强的防护也形同虚设。

AI 数据安全,从来不是技术部门的独角戏,而是全员、全流程、全场景的规范治理。迅易结合 1000+ 企业数字化项目经验,提炼出3 条安全红线 + 3 条最佳实践 + 2 条管理规范,覆盖 AI 使用全场景,帮企业安全用 AI、不踩坑。

一、理解 AI 数据安全的"三层防线"

在谈具体规范之前,我们需要建立一个清晰的认知框架。AI 数据安全不是单点防护,而是立体化的三道防线:

第一道:数据本体安全——"数据本身"是否可靠

通俗理解: 就像保护保险柜里的现金,数据本身必须加密、分级、可追溯。
专业释义: 指企业数据资产本身的安全防护:

  • 数据分类分级:不同级别数据不同保护策略
  • 敏感数据脱敏:输出前自动过滤
  • 数据加密存储:防止被窃取后泄露
    典型风险: 员工把客户名单、财务报表、合同条款直接上传到公共 AI 平台,数据彻底脱离企业管控。

第二道:交互使用安全——"人机对话"是否安全

通俗理解: 员工与外部沟通需要有规范,智能体的每一次"对话"和"操作"都需要安全管控。
专业释义: 指人与 AI 交互过程中的安全防护:

  • 输入验证:过滤恶意指令
  • 输出审核:防止泄露敏感信息
  • 权限控制:限制"能做什么"
  • 使用留痕:谁用了、用了什么、查得
    典型风险: 过度授权——员工用 AI 处理超出权限的数据,或在没有监督的情况下执行高风险操作。

第三道:管理制度安全——"使用规则"是否健全

通俗理解: 再优秀的员工,如果没有规章制度约束,也难免出问题。
专业释义: 指 AI 使用的管理制度和流程:

  • 工具备案:哪些 AI 能用、提前审批
  • 安全培训:员工知道风险、懂得规范
  • 应急响应:出事了怎么办、有章可循
  • 违规追责:违规成本清晰、震慑到位
    典型风险: 制度缺失——没有规范、没有培训、没有审计,靠员工自觉,风险不可控。

二、3 条安全红线:绝对不能碰(违者追责)

红线 1:禁止向外部 AI 上传任何敏感数据

痛点直击
员工为图方便,把客户身份证、银行账户、未公开合同、研发源码、财务报表直接输入第三方大模型,数据上传至外部服务器,彻底脱离企业管控,轻则机密泄露,重则触发《数据安全法》《个人信息保护法》处罚。

规范细则
❌ 严禁将涉密数据、核心业务数据、个人敏感信息(身份证、手机号、银行卡、病历、合同条款)输入 ChatGPT、文心一言等外部 AI 工具
❌ 严禁上传系统账号密码、API 密钥、数据库配置、核心算法、生产图纸等资产信息
✅ 工作必需使用 AI 时,必须先脱敏、先审批、用企业内部私有部署模型

违规后果
立即停用 AI 使用权限,情节严重者解除劳动合同
造成数据泄露、经济损失或合规风险的,追究法律与赔偿责任

红线 2:禁止绕过管控私自使用未备案 AI 工具

痛点直击
部门私自采购 AI 插件、员工私下用小众 AI 工具、研发未经评估接入第三方模型 API,无安全审计、无权限管控、无数据防护,成为黑客攻击突破口,导致数据被窃取、系统被入侵。

规范细则
❌ 所有 AI 工具(大模型、AI 客服、RAG 系统、智能助手)必须经 IT + 安全部门备案评估
❌ 严禁私自下载、安装、使用未授权 AI 软件、浏览器插件、移动端 APP
❌ 严禁绕过企业网关,用私人设备、网络访问 AI 服务处理工作数据

违规后果
强制卸载违规工具,通报批评
导致安全漏洞、数据风险的,追究部门负责人与使用者责任

红线 3:禁止利用 AI 生成违法违规、虚假误导内容

痛点直击
用 AI 生成虚假宣传文案、伪造合同文件、编造客户信息、抄袭原创内容,或生成涉政、暴恐、色情、诽谤信息,不仅引发法律纠纷,更让企业品牌与合规信誉彻底崩盘。

规范细则
❌ 严禁用 AI 生成虚假资质、伪造数据、侵权内容、误导性宣传
❌ 严禁利用 AI 实施诈骗、诽谤、泄露隐私、破坏系统等违法活动
✅ AI 生成内容必须经人工审核、标注来源,方可对外发布

违规后果
永久停用 AI 权限,严肃追责
触犯法律的,移交司法机关处理

三、3 条最佳实践:安全高效用 AI(推荐执行)

实践 1:数据使用必脱敏、必分级、必最小化

核心价值
AI 场景下,90% 的泄露风险来自敏感数据未防护。脱敏 + 分级 + 最小化,从源头把风险降到最低,既安全又不影响效率。

规范细则

  1. 敏感数据必脱敏
    数据类型 脱敏方式 示例
    身份信息 手机号 1385678、身份证 1101011234 姓名脱敏为"用户 A"
    业务数据 合同金额、客户利润、核心算法 替换为占位符 [CONFIDENTIAL]
    资产信息 密码、密钥 用{db.pwd}、{api.key}替代,严禁明文出现
  2. 数据必分类分级
    级别 数据类型 使用规则
    公开级 企业简介、公开新闻 可正常使用 AI
    内部级 流程文档、内部报表 需审批使用
    机密级 合同、客户数据、财务数据 严禁外部 AI,仅内部脱敏使用
  3. 数据必最小化
    只提供 AI 完成任务必需的最少数据,不额外上传无关信息
    能用摘要不用原文,能用片段不用全文,能用脱敏不用原始数据

实践 2:AI 使用必审批、必留痕、必审计

核心价值
解决"谁用了 AI、传了什么数据、生成了什么内容"的追溯难题,出现风险可定位、可追责、可整改,满足等保 2.0 与监管审计要求。

规范细则

  1. 事前审批
    机密数据使用 AI:提交《AI 数据使用申请表》,注明用途、数据范围、脱敏方式,部门 + 安全双审批
    批量数据、长期使用 AI:必须走正式立项与安全评估
  2. 全程留痕
    所有 AI 操作自动记录日志:账号、时间、输入内容、输出结果、数据来源、使用场景
    日志留存不少于 6 个月,不可篡改、不可删除
  3. 定期审计
    安全部门每月审计 AI 使用日志,排查异常上传、批量导出、敏感数据泄露风险
    每季度开展 AI 安全专项检查,通报违规行为,优化管控规则

实践 3:内部 AI 必隔离、必加密、必防护

核心价值
企业私有部署大模型、RAG 知识库,不做好安全隔离,比外部 AI 风险更大——内部越权访问、注入攻击、数据回溯,直接掏空核心资产。

规范细则
防护措施 具体要求
网络隔离 AI 系统与生产系统、核心数据库物理/逻辑隔离,仅开放必要端口
传输加密 所有 AI 数据传输用 TLS 1.3+ 加密,禁止明文传输
存储加密 模型权重、训练数据、知识库 AES-256 加密存储,密钥专人管理
访问控制 RBAC 角色权限 + MFA 多因素认证,最小权限原则,禁止越权访问
攻击防护 部署提示注入检测、恶意内容拦截、异常行为监控,防范 AI 特有攻击

四、2 条管理规范:长效保障(制度落地)

规范 1:AI 安全责任到人、分层管控

核心价值
避免"人人负责、人人不负责",明确管理层、部门负责人、使用者、安全部门四方责任,构建层层把关的安全体系。

责任分工
角色 安全责任
企业管理层 审批 AI 安全制度、保障资源投入、承担最终安全责任
部门负责人 本部门 AI 使用管理、审核使用申请、监督员工规范行为
AI 使用者 严格遵守规范、不违规操作、发现风险立即上报
IT/安全部门 工具备案、安全评估、技术防护、日志审计、违规处置

落地要求
签订《AI 安全使用责任书》,全员承诺、全员知晓
新员工入职必培训 AI 安全规范,考核通过方可使用相关工具

规范 2:定期培训、应急响应、持续优化

核心价值
AI 安全风险持续迭代,一次规范管不了永久。建立培训 - 响应 - 优化闭环,让安全能力跟上 AI 技术更新速度。

规范细则

  1. 定期培训
    每季度开展 AI 安全培训:覆盖风险案例、规范细则、操作流程、违规后果
    针对研发、客服、财务、销售等高风险岗位,开展专项场景化培训
  2. 应急响应
    制定《AI 数据安全应急预案》:明确泄露、攻击、违规事件处置流程
    发生安全事件:1 小时内上报、2 小时内处置、4 小时内复盘,防止风险扩大
  3. 持续优化
    每半年修订 AI 安全规范,适配新法规、新工具、新风险
    结合行业案例、内部问题,优化管控规则与技术防护措施

五、35 项安全检查清单(精简版)

基于 OWASP LLM Top 10 及 AI Agent 特定风险,企业应定期开展安全检查:

高危检查项(15 项,立即修复)
输入安全(4 项)
提示注入攻击防护
用户输入过滤
系统提示隔离
权限边界控制

输出安全(4 项)
输出安全验证
代码执行控制
恶意脚本防护
格式校验

数据安全(4 项)
敏感信息过滤
数据分类分级
对话历史加密
记忆泄露防护

系统安全(3 项)
请求速率限制
资源监控
第三方组件可信

中危检查项(12 项,限期整改)
供应链漏洞防护
依赖项扫描
模型完整性验证
Agent 权限最小化
关键操作人工确认
行为审计追踪
插件安全审查
通信加密
权限最小化
安全事件监控
模型行为基线
定期安全评估

低危检查项(8 项,持续监控)
数据源可信验证
恶意样本检测
成本异常检测
行为边界限制
决策可解释性
隔离机制
应急响应预案
安全培训计划

六、客户案例:从"裸奔"到"合规"的蜕变

客户背景
某大型制造企业部署 AI 客服系统后,委托我们进行安全检查和加固。
初始状态:58 分(中等风险)

主要问题:
防火墙未启用
AI 工具未备案,员工随意使用
客服数据未脱敏,直接上传外部 AI
无使用日志,出事查不到责任人

加固措施:
启用防火墙并配置规则
建立 AI 工具备案制度
部署数据脱敏系统
启用 AI 使用日志审计
开展全员安全培训

修复效果:78 分(良好)
维度 修复前 修复后 提升
数据安全 45 75 +30
使用规范 50 75 +25
管理制度 55 80 +25
企业顺利通过信息安全审计,AI 系统运行稳定。

迅易总结:AI 数据安全,8 条规范就够了
AI 不是洪水猛兽,无规范使用才是最大风险。记住这 8 条核心准则:

🔴 3 条红线(绝对禁止)
严禁上传敏感数据至外部 AI
严禁私自使用未备案 AI 工具
严禁生成违法违规、虚假内容
🟢 3 条实践(推荐执行)
数据必脱敏、必分级、必最小化
使用必审批、必留痕、必审计
内部 AI 必隔离、必加密、必防护
🟡 2 条管理(长效保障)
安全责任到人、分层管控
定期培训、应急响应、持续优化

先定规范,再用 AI——守住这 8 条底线,既能享受 AI 降本提效的价值,又能彻底规避数据泄露、合规处罚、品牌受损的风险,安全与效益两不误。

关于迅易科技

广州迅易科技有限公司,成立于 2007 年,18 年企业级交付经验,服务过 1000+ 成功项目,通过ISO27001 信息安全管理体系认证等。

我们专注于企业数智化革新,提供从产品部署实施、安全加固到持续运维的全生命周期服务。在数据安全方面,我们基于国际标准,帮助企业建立完善的 AI 安全防护体系。如果您对上述内容感兴趣,欢迎前往迅易科技官网了解。

前全栈工程师,离开技术岗三四年。现在想重回技术,看了下目前很多 JD 招 Agent 工程师,想了解该如何学起
目前对 LLM 了解个大概,能用龙虾能写 skill 。能否像以前一样找专栏或 blog 啃文章系统来学习?搜了下主流社媒网站都是卖课的

3月26日,Eclipse基金会生态系统发展副总裁Michael Plagge到访开放原子开源基金会,双方就开源生态发展、项目合作等议题进行了交流。开放原子开源基金会秘书长助理李博参加会议。
图片
会上,Eclipse基金会介绍了其近期在全球开源生态中的发展情况,分享了Open VSX项目进展以及在汽车软件领域的生态布局。在项目协同方面,以开源鸿蒙和Oniro项目为代表的“姐妹项目”模式,通过在国内外分别设立项目、建立同步机制,实现了技术协同与生态联动,为跨国开源项目协作提供了有益探索。Plagge表示,该模式正受到越来越多国际开源组织及中国头部企业、机构的关注。
开放原子开源基金会介绍了开源鸿蒙、开源欧拉等项目的发展态势,以及开放原子开源生态大会、开发者大会等活动规划。李博表示,当前中国开源生态发展迅速,企业和开发者的开源意识不断提升,开源发展与国际合作得到广泛支持,为中外开源组织交流互鉴创造了良好环境。开放原子愿与Eclipse基金会保持密切沟通,探索更多务实合作方向。
双方就建立常态化沟通机制、加强活动交流等达成共识,并表示将保持密切沟通,共同推动中欧开源生态的协同发展。

比如这几行粘贴之后只会显示最后几行,不知道是为什么

然后 wsl 下粘贴则一切正常

难道是终端的问题吗?请问大家 Windows 环境下一般使用哪个终端去运行 Claude Code 的呢?

{
    "code": 200,
    "data": [
        {
            "clubId": 1,
            "content": "xxx",
            "endTime": "2026-04-19 00:00:00",
            "id": 1251786757,
            "name": "领养日",
            "position": "xxx",
            "startTime": "2026-04-18 00:00:00"
        },
        {
            "clubId": 1,
            "content": "线下摆点,欢迎来看看我校的猫猫周边,所得收益全部用于校内猫狗 TNR 绝育计划。",
            "endTime": "2026-04-19 00:00:00",
            "id": 1251786758,
            "name": "线下摆点",
            "position": "xx",
            "startTime": "2026-04-17 00:00:00"
        },
        {
            "clubId": 1,
            "content": "我是一个示例,我是一个示例",
            "endTime": "2026-04-26 00:00:00",
            "id": 1251786760,
            "name": "我是一个示例",
            "position": "我是一个示例",
            "startTime": "2026-04-24 00:00:00"
        }
    ],
    "message": "操作成功"
}

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。weibo.com/ttarticle/p/show?id=2309405288632583061579 weibo.com/ttarticle/p/show?id=2309405288632960548872 weibo.com/ttarticle/p/show?id=2309405288633334104143 weibo.com/ttarticle/p/show?id=2309405288633816187157 weibo.com/ttarticle/p/show?id=2309405288634198130792 weibo.com/ttarticle/p/show?id=2309405288634579812521 weibo.com/ttarticle/p/show?id=2309405288634974076937 weibo.com/ttarticle/p/show?id=2309405288635355758612 weibo.com/ttarticle/p/show?id=2309405288635850424385 个

@ 九边 Pro: 这两天 “崩老头” 的视频大家看了吧,说的就是一些拼多多版的捞女,给一些中年人发暧昧信息,然后每次也不多要,要个一二十块,积少成多。主打一个便宜、量大、走下沉市场。

这个事已经存在了很多年了,这两年估计是太多了,慢慢被拿出来放到阳光下了。其实那些男的都知道精神小妹们就是逢场作戏,但太过性压抑了,毕竟整个人生当中从没有异性认真对待过自己,没被提供过任何情绪价值,于是也就无所谓了,花小钱养着一个精神小妹给自己提供点平多多情绪价值。

很多精神小妹不上班,每天就是混,她们的钱就是这么来的。

@ 拾人牙慧: 我培训的时候,教授说过一句话:当今社会快乐是一种生产力!

@ 用魔法打败魔法试试: 四五十岁中年妇女,通过广场舞,小公园等吊着那些六十到八十的男性(城市拆迁户,高退休金人群)。这个赛道也很热闹。

@ 星驰骋: 确实,绝大多数普通男人,年轻的时候无钱无势无背景,才能平平运气平平,优质美妙的性资源从未曾青睐于他们,也就是九边老师所说的 “人生当中从未被异性认真对待过”。待手里有一点点闲钱了,或多或少是要弥补这个缺憾了。

@ 调料架子鼓: 前一段时间一连忙了好几天,那天晚上九点多的时候已经非常疲惫了。突然手机显示了一条提醒,天晚了该回家了。突然,眼睛就湿了。崩老头这事儿必定能行。

@ 小勋奇: 这一行是这样的,精神小妹的日常就是崩老头,然后用崩老头的钱养精神小伙,精神小伙的日常就是泡吧,泡妹,相互转换
@ 语文不太好: 支持内经济周转,年轻人喜欢吃喝玩乐,钱留在那些老头身上会长毛的

@ 森罗万象: 现在都是花钱买情绪价值,所以能提供情绪价值也是一种能力,所以越来越魔幻了

@IDEC: 为什么 KTV 一波接着一波:就是因为毕竟整个人生当中从没有异性认真对待过自己,没被提供过任何情绪价值,于是也就无所谓了,花小钱养着一个精神小妹给自己提供点平多多情绪价值。

@ 云下江南: “下沉版情感杀猪盘”!本质上是用极低成本的情绪价值,收割极度缺爱的中年男性群体。

@ 磐石健身爱财经: 这钱不比打赏直播强多了么,情绪价值和实际陪伴拉的满满的

今日亮点

OpenAI 今天带来了多项重磅更新:Codex 现在能直接控制 macOS 应用,支持超过 90 款插件,还能在工作流中生成和编辑图片,任务执行也更加智能。同时,OpenAI 还推出了专为生命科学领域设计的 GPT-Rosalind 模型。另一边,Anthropic 也发布了更强大的 Claude Opus 4.7,处理复杂任务和遵循指令的能力都有显著提升。此外,Anthropic 共同撰写的一项关于 LLM 潜在偏差的学术研究也登上了《自然》杂志。

💡 产品动态

OpenAI 推出生命科学模型 GPT-Rosalind

OpenAI 发布了全新的 GPT-Rosalind 系列模型,专为生命科学领域优化。它在蛋白质和化学推理、基因组分析、生物化学知识以及科学工具使用方面表现更强。

为什么重要: 这个模型旨在加速生物学研究、药物发现和转化医学的进程,有望将目前平均 10-15 年的新药研发周期大幅缩短。

阅读原文

OpenAI Codex 大幅增强 macOS 交互与多功能

OpenAI 对 Codex 进行了多项重大更新,它现在能通过“看、点、打字”的方式直接在 macOS 上操作任何应用,在后台运行而无需占用桌面。此外,Codex 新增了对 90 多款插件的支持,可以更好地获取上下文并跨工具执行操作。它还能在同一线程中运行自动化任务,保持上下文,并自动调度和继续长期工作。

为什么重要: 这意味着 Codex 不再局限于 API 交互,能够更深入地融入用户的桌面工作流,处理前端开发、应用测试等复杂任务,极大提升了开发者的生产力。

阅读原文

OpenAI Codex 集成 gpt-image-1.5 图像生成

现在,用户可以在 Codex 中直接利用 gpt-image-1.5 生成和迭代图像,用于创建前端设计、模型图或游戏素材,无需离开当前工作流。此功能已包含在 ChatGPT 账户中,无需额外的 API Key。

为什么重要: 这将图像创作无缝融入开发流程,让开发者能更高效地进行视觉资产的迭代和管理。

阅读原文

Anthropic 发布更强 Claude Opus 4.7

Anthropic 介绍了最新、能力最强的 Claude Opus 4.7 模型。它在处理长时间任务时更加严谨,能更精确地遵循指令,并在报告结果前自行验证输出。

为什么重要: 用户可以将更困难、更复杂的任务放心地交给它,减少人工监督,提升工作效率和结果的可靠性。

阅读原文

OpenAI 澄清 ChatGPT Pro 套餐用量

OpenAI 详细说明了其 ChatGPT Pro $100 和 $200 套餐的实际用量,并指出由于定价页面表述不清造成了用户困惑。目前 $100 Pro 套餐提供至少 10 倍于 Plus 的用量,而 $200 Pro 套餐提供至少 20 倍于 Plus 的用量,这些优惠均持续到 5 月 31 日。

为什么重要: 透明化用量说明有助于用户更清晰地了解其订阅价值,避免误解。

阅读原文

🔬 学术前沿

  • Anthropic 联发 LLM 潜意识学习研究:Anthropic 共同撰写的一篇关于“潜意识学习”(subliminal learning)的研究论文发表在《自然》杂志。该研究显示大型语言模型可以通过数据中隐藏的信号传递偏好或潜在偏差,即使这些数据表面上与该特征无关。 → 论文

🌍 行业观察

  • Anthropic 董事会迎来新成员:Anthropic 的长期利益信托基金任命了 Vas Narasimhan 加入公司董事会。Vas Narasimhan 拥有二十多年医药和全球健康领域的经验,曾任诺华(Novartis)CEO。

重要性分析: Vas Narasimhan 的加入,预计将为 Anthropic 在医疗健康、生物制药等关键领域的 AI 应用带来宝贵的行业洞察和战略指导,特别是考虑到 AI 在药物研发等领域的巨大潜力。

阅读原文

💻 开源项目

  • multica:将编码智能体转变为真正的队友。像分配任务给同事一样,将问题分配给智能体,它们会自主接手工作、编写代码、报告障碍并更新状态 → GitHub
  • Claude-Code-Game-Studios:将 Claude Code 变为完整的游戏开发工作室,包含 49 个 AI 智能体和 72 项工作流技能,模仿真实工作室的层级结构 → GitHub
  • caveman:一项 Claude Code 技能,通过模拟“穴居人”说话方式,减少 75% 的 token 消耗,用更少资源完成任务 → GitHub
  • graphify:一款 AI 编码助手技能,能将任何包含代码、文档、论文或图片的文件夹转化为可查询的知识图谱 → GitHub
  • voicebox:开源的语音合成工作室,提供工具创建和编辑语音 → GitHub
  • GenericAgent:AI 驱动的 PC 智能体循环,用于桌面自动化和智能任务执行 → GitHub

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。个weibo.com/ttarticle/p/show?id=2309405288628946600037 weibo.com/ttarticle/p/show?id=2309405288629319893010 weibo.com/ttarticle/p/show?id=2309405288629831598215 weibo.com/ttarticle/p/show?id=2309405288630209085541 weibo.com/ttarticle/p/show?id=2309405288630578184323 weibo.com/ttarticle/p/show?id=2309405288630951739522 weibo.com/ttarticle/p/show?id=2309405288631325032675 weibo.com/ttarticle/p/show?id=2309405288631815503912 weibo.com/ttarticle/p/show?id=2309405288632189059115

上海移动

这个月在将 NAS 的数据备份到多个网盘上,而且是加密分块备份的,所以应该也不涉及秒传

大概看了下每个网盘都传了差不多 4TB 的数据,但是一直没遇到达量限速,甚至连 500GB 的提醒短信都还没收到

所以,这个 1TB 限速是真的吗?还是说只是合同写了,但是目前实际上并没有管?

4 月 21 - 22 日,GenAICon 2026丨2026 中国生成式 AI 大会(北京站)将在北京富力万丽酒店正式举行。中国生成式 AI 大会已成功举办四届,现已成为国内人工智能领域最具影响力的产业峰会之一。

本次大会由智一科技旗下智东西联合智猩猩发起主办,为期两天,由开幕式 + 专题论坛 + 研讨会 + 交流晚宴 + 展览区组成,将以“奔赴 AGI 重塑未来”为主题,邀请 70+ 位重量级嘉宾与会带来致辞、报告、演讲和对话。

本次大会,阿里云高级技术专家沈林受邀出席,将在 4 月 22 日下午主会场的「AI 智能体专题论坛」带来演讲,主题为《Agent 开发范式演进:从环境工程出发,“简化”多源实时上下文》。

image

Part 1 嘉宾介绍

沈林,Apache RocketMQ PMC,阿里云高级技术专家、阿里云 EventBridge 和 EventHouse 负责人,深耕于消息中间件、事件驱动、Agent 上下文生态集成领域。目前,致力于赋能 Agent 开发者,让 AI 深入各行各业,真正实现 AI 普惠和平权。

Part 2 演讲主题

《Agent 开发范式演进:从环境工程出发,“简化”多源实时上下文》

Part 3 演讲概要

“简单”和“可靠”是 AI 普惠的关键。然而,企业数据碎片化、Schema 多变、Context-Rot、语义冲突等难题,正成为 Agent 迈向生产级的“深水区”。

本次分享从环境工程出发,“简化”多源实时上下文:打破传统知识库不断“辛勤”打补丁的方式,通过内置的一键集成、状态机、闭环反馈,将原本散乱在各处的数据,“快速”变成真正有效的知识,提升 Agent 的感知能力。以统一的、一键集成的、Serverless 的上下文服务,助力开发者轻松搭建生产级的 Agent。

image

点击此处立即报名!

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。个weibo.com/ttarticle/p/show?id=2309405288618326884486 weibo.com/ttarticle/p/show?id=2309405288618691526861 weibo.com/ttarticle/p/show?id=2309405288619056693322 weibo.com/ttarticle/p/show?id=2309405288619417141392 weibo.com/ttarticle/p/show?id=2309405288619920719906 weibo.com/ttarticle/p/show?id=2309405288620285624488 weibo.com/ttarticle/p/show?id=2309405288620658655237 weibo.com/ttarticle/p/show?id=2309405288621023821879 weibo.com/ttarticle/p/show?id=2309405288621380075666

经常看到有 V 友在站上求 Linux 桌面环境或 WM ,也算月经贴了。

在家里和公司用的都是 Linux 系统(公司早期不管,就自己安装了),导致后面出现了一件搞笑的事情:

网管: “麻烦安装下 XX 软件。”
我: “我 Linux 系统。”

下面分享下我的配置以及原因。声明:适合自己的才是最好的!

dotfiles

1. 操作系统

  • Devuan( Debian 的去 systemd 版本)
    • 优点: 兼容性强,如果国产软件支持 Linux ,通常都有 .deb 包(例如:钉钉、微信、WPS )。

2. 窗口管理 (WM)

桌面图片

  • fvwm3
    • 特点: 支持虚拟屏幕。对我来说双屏都不够用(因为窗口从不最小化),设置好快捷键后切换非常方便。
    • 常用快捷键:
      • Alt + 数字键:切换桌面
      • Alt + Tab:切换应用
    • 功能面板配置:
      1. 时间 + 常用软件: 点击即可启动。
      2. 常用监控: CPU 、内存、流量实时显示。
      3. 音乐播放控制: 采用 mpd + mpc,写代码时常听的一些离线音乐。
      4. 系统托盘: 挂载输入法 (fcitx)、截图软件 (flameshot) 等。
      5. 应用窗口操作:
        • Alt + 鼠标左键拖动:移动窗口
        • Alt + 鼠标右键拖动:缩放窗口
      6. 虚拟桌面预览: 实时查看当前所在的桌面位置及窗口缩略图。

3. 开发环境

vim 图片

  • Vim + ALE + 各种插件

4. 软件支持策略

当需要安装新软件时,我的尝试顺序:

  1. 优先寻找官方 Linux 原生版本
  2. 寻找 开源替代方案
  3. 尝试使用 Wine 进行安装。
  4. 最后实在不行,才考虑用 虚拟机 安装 Windows 。

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。个weibo.com/ttarticle/p/show?id=2309405288500232060990 weibo.com/ttarticle/p/show?id=2309405288500689240152 weibo.com/ttarticle/p/show?id=2309405288501054144520 weibo.com/ttarticle/p/show?id=2309405288501406466081 weibo.com/ttarticle/p/show?id=2309405288501779497011 weibo.com/ttarticle/p/show?id=2309405288502136012842 weibo.com/ttarticle/p/show?id=2309405288502609969177 weibo.com/ttarticle/p/show?id=2309405288502966747147 weibo.com/ttarticle/p/show?id=2309405288503323000845

大家好我是 iztro 开源库的作者,仓库好不容易有 3.6k 的 star 了,昨天突然被标记了,导致账号和仓库都 404 了。尝试申诉渠道,但是现在的问题是,申述页面登录后需要短信验证,现在不支持+86 的手机号,找了个朋友的手机验证又显示达到 requests limit ,发邮件给 github 官方也发不出去。

被标记的原因应该是因为我前天晚上在 About Me 的页面里加了一个用 iztro 库开发的一个产品的链接: https://app.ziwei.pro/register?ref=TPgWxvwH

现在我已经删除那个链接了,求各位大佬指点怎么恢复账号?

最近 MCP 协议挺火的,Claude Desktop 、Cursor 、Kiro 都支持了。但 Go 生态里现有的库( mcp-go 、官方 SDK )都是 SDK 级别的,写个 Tool 要一堆样板代码。

所以做了个框架叫 GoMCP ,核心卖点:

  1. struct tag 自动生成 JSON Schema ,不用手写
  2. 一行代码把现有 Gin 路由导入为 MCP Tool
  3. 中间件、分组、认证这些框架级的东西都有

最实用的场景:你已经有个 Gin 项目,想让 AI 能调接口:

adapter.ImportGin(s, ginRouter, adapter.ImportOptions{
    IncludePaths: []string{"/api/v1/"},
})

就这样,所有路由自动变成 MCP Tool 。

GitHub: https://github.com/zhangpanda/gomcp ( https://github.com/zhangpanda/gomcp)

欢迎试用,有问题随时提 issue 。