包含关键字 typecho 的文章

作者:西流

就在最近,大模型圈再次迎来重磅炸弹!阿里巴巴开源了全新一代大模型——千问 Qwen3.5-397B-A17B,直接登顶全球最强开源模型宝座。

面对如此强大的模型,开发者们最关心的问题莫过于: “这么强的模型,部署起来会不会很麻烦?”

今天,我们就为大家带来一个 “神器级”解决方案——通过函数计算 FC 实现一键部署 Qwen3.5,让顶级模型的计算力触手可及!

模型介绍

这次开源的 Qwen3.5-397B-A17B 可不是普通的模型升级,它在架构和性能上都实现了质的飞跃:

  • 性能超过万亿参数的 Qwen3-Max 模型,是目前全球最强开源模型,总参数 3970 亿,但激活参数仅 170 亿。采用创新的混合架构(线性注意力 Gated Delta Networks + 稀疏混合专家 MoE),在保持能力的同时优化了速度与成本。
  • 成本降低:部署显存占用降低 60%,推理效率大幅提升,最大推理吞吐量可提升至 19 倍!
  • 全能选手 :作为原生视觉 - 语言模型,在推理、编程、智能体能力与多模态理解上表现优异。语言支持从 119 种扩展至 201 种,全球通用。

函数计算解决方案

传统部署大模型,你通常需要面对:

  • 复杂的 GPU 环境配置
  • 繁琐的运维监控工作
  • 弹性伸缩困难

现在,有了函数计算 FC,一切变得如此简单!

函数计算 FC 已同步接入 Qwen3.5 本次开源的模型,提供企业级部署方案。基于 Serverless GPU 架构,你无需关心底层基础设施,只需专注于模型本身的应用与调试。

一键部署 Qwen3.5-397B-A178

  1. 准备一个 OSS Bucket,使用 https://functionai.console.aliyun.com/old/template-detail?tem... 这个白屏化工具,将 Qwen/Qwen3.5-397B-A17B 下载到 bucket 的一定目录中,比如 Qwen/Qwen3.5-397B-A17B。

a. 先将这个白屏化工具部署起来,等待部署成功

image

image

b. 编辑后端配置完毕以后,将 Qwen/Qwen3.5-397B-A17B 下载对应 bucket 中的指定目录,开始下载任务(注:模型很大,请耐心等待下载)

image

image

  1. 在 FunModel 的自定义部署(https://functionai.console.aliyun.com/fun-model/cn-hangzhou/c... ),选择好镜像以及计算资源,填写好对应的启动命令,既可以完成一键部署。

image

image

启动命令:

vllm serve /mnt/my-model-scope/models/Qwen/Qwen3.5-397B-A17B --served-model-name Qwen/Qwen3.5-397B-A17B --port 9000 --trust-remote-code --gpu-memory-utilization 0.9 --max-model-len 262144 --tensor-parallel-size 16 --enable-auto-tool-choice --tool-call-parser qwen3_coder --reasoning-parser qwen3 
  1. 耐心等待部署,部署成功后,即可以进行推理服务的调试。

image

qwen3.5 模型市场

更多 qwen3.5 模型一键部署方案请参考。(模型持续补充中)

image

总结

维度传统方案FunModel
部署时间以天计5分钟
技术门槛
运维以及迭代成本

依托 Serverless + GPU,天然提供了简单,轻量,0 门槛的模型集成方案,给个人开发者良好的玩转模型的体验,也让企业级开发者快速高效的部署、运维和迭代模型。

在阿里云函数计算,开发者可以做到:

  • 模型的快速部署上线:从原来的以周为单位的模型接入周期降低到 5 分钟,0 开发,无排期。
  • 一键扩缩容,让运维不再是负担:多种扩缩容策略高度适配业务流量,实现“无痛运维”。

在 AI 的时代浪潮下,模型作为 AI 的载体必然会不断迭代,开发者对模型部署的需求也会日益增多,函数计算 FC 为模型部署和集成提供新范式,也会朝着“让人人成为开发者”的目标演进下去。

更多内容请参考:

[1] FunModel 快速入门

https://fun-model-docs.devsapp.net/getting-started/

[2] FunModel 自定义部署

https://fun-model-docs.devsapp.net/user-guide/custom-model-de...

在 Web 开发和文档共享场景中,将 PowerPoint 演示文稿转换为 HTML 格式是一项常见且实用的需求。HTML 格式的幻灯片可以直接在浏览器中查看,无需安装任何办公软件,非常适合在线展示、跨平台分享和嵌入式集成。本文将详细介绍如何使用 Python 将 PowerPoint 演示文稿导出为 HTML 文件,包括完整转换和单页导出两种实用场景。

环境准备

要实现 PowerPoint 到 HTML 的转换,首先需要安装支持此功能的 Python 库。本文使用 Free Spire.Presentation for Python 来加载、操作和转换 PowerPoint 文件。可通过 pip 安装:

pip install spire.presentation.free

安装完成后,即可在 Python 脚本中导入 spire.presentation 模块开始工作。该库支持 PPT、PPTX 等多种格式,并能够将其转换为 HTML、PDF、图片等格式。

基础转换:整个演示文稿转 HTML

最基础的转换场景是将整个 PowerPoint 文件一次性转换为 HTML。这种方法适合需要完整保留所有幻灯片内容和顺序的场景。

from spire.presentation import *

# 创建演示文稿对象
presentation = Presentation()

# 加载 PowerPoint 文件
presentation.LoadFromFile("input.pptx")

# 保存为 HTML 格式
presentation.SaveToFile("output.html", FileFormat.Html)

# 释放资源
presentation.Dispose()

转换结果预览:

这段代码展示了最简洁的转换流程。LoadFromFile() 方法支持多种输入格式,包括 .pptx.ppt 等。SaveToFile() 方法的第二个参数指定输出格式,这里使用 FileFormat.Html 枚举值。

转换后的 HTML 文件会保留原始幻灯片的文本、图片、形状和基本布局。浏览器打开后会显示一个包含所有幻灯片内容的网页,通常以垂直排列的方式展示每张幻灯片。

高级用法:转换单个幻灯片

在某些场景下,可能只需要导出演示文稿中的特定幻灯片。例如,从模板中提取某一页,或者将不同演示文稿的关键页面组合成新的展示内容。这时可以使用单页转换功能。

from spire.presentation import *

# 加载演示文稿
presentation = Presentation()
presentation.LoadFromFile("template.pptx")

# 获取指定的幻灯片(索引从 0 开始)
slide = presentation.Slides[0]  # 获取第一页

# 将单张幻灯片保存为 HTML
slide.SaveToFile("slide1.html", FileFormat.Html)

presentation.Dispose()

通过访问 Slides集合的索引,可以精确控制要导出的页面。这对于构建幻灯片预览系统特别有用——可以先生成每页的缩略图或 HTML 预览,再根据用户选择加载完整内容。

批量导出所有幻灯片为独立 HTML 文件

如果需要将每张幻灯片分别保存为独立的 HTML 文件,可以通过遍历幻灯片集合来实现。这种方法适用于创建在线相册、教学课件分页展示等场景。

from spire.presentation import *
import os

# 确保输出目录存在
output_dir = "slides_html"
os.makedirs(output_dir, exist_ok=True)

# 加载演示文稿
presentation = Presentation()
presentation.LoadFromFile("presentation.pptx")

# 遍历所有幻灯片
for index in range(presentation.Slides.Count):
    slide = presentation.Slides[index]
    
    # 为每张幻灯片生成文件名
    filename = f"{output_dir}/slide_{index + 1}.html"
    
    # 单独保存每张幻灯片
    slide.SaveToFile(filename, FileFormat.Html)
    print(f"已导出:{filename}")

presentation.Dispose()

这个脚本会自动创建输出目录,并将每张幻灯片保存为带编号的 HTML 文件。生成的文件可以按照顺序单独访问,也可以集成到自定义的导航界面中。

转换过程中的注意事项

字体和样式保留

HTML 转换过程中,PowerPoint 中使用的字体可能会被替换为 Web 安全字体。为了最大程度保持视觉效果,建议:

  • 在原始 PPT 中使用常见的 Web 字体(如 Arial、Times New Roman)
  • 接受转换后可能存在细微的样式差异
  • 对于关键文档,转换后手动检查 HTML 输出效果

图片和媒体元素

现代转换工具通常会保留幻灯片中的图片元素,但需要注意:

  • 图片会被嵌入到 HTML 文件或保存在相邻目录中
  • 动画和视频内容可能无法完全保留
  • 复杂的过渡效果在 HTML 中可能简化为静态显示

超链接的处理

如果原始演示文稿包含超链接,转换后的 HTML 文件通常会保留这些链接的可点击性。这使得 PPT 转 HTML 成为创建交互式文档的有效方式。

# 加载包含超链接的演示文稿
presentation = Presentation()
presentation.LoadFromFile("linked_slides.pptx")

# 转换后,原有的超链接仍然有效
presentation.SaveToFile("linked_output.html", FileFormat.Html)
presentation.Dispose()

实战应用:构建简单的在线演示系统

基于单页转换功能,可以构建一个简单的在线演示查看系统。以下是一个概念示例:

from spire.presentation import *
import os

def create_presentation_viewer(pptx_file, output_folder):
    """
    将 PowerPoint 转换为可在线浏览的 HTML 集合
    """
    os.makedirs(output_folder, exist_ok=True)
    
    presentation = Presentation()
    presentation.LoadFromFile(pptx_file)
    
    # 导出所有幻灯片
    for i in range(presentation.Slides.Count):
        slide = presentation.Slides[i]
        slide.SaveToFile(
            f"{output_folder}/page_{i+1}.html", 
            FileFormat.Html
        )
    
    # 同时导出完整版本作为备选
    presentation.SaveToFile(
        f"{output_folder}/complete.html", 
        FileFormat.Html
    )
    
    presentation.Dispose()
    
    return {
        "total_slides": presentation.Slides.Count,
        "output_folder": output_folder
    }

# 使用示例
result = create_presentation_viewer("quarterly_report.pptx", "viewer_output")
print(f"已处理 {result['total_slides']} 张幻灯片")

这个函数可以用于自动生成培训材料、产品文档或会议记录的在线版本。结合简单的前端导航,就能创建一个功能完备的演示文稿查看器。

与其他格式的对比

除了 HTML,PowerPoint 还可以转换为 PDF、图片等格式。各种格式有其适用场景:

格式优势适用场景
HTML可在浏览器直接查看,支持超链接在线分享、网页嵌入
PDF格式精确,打印友好正式文档、打印输出
PNG/JPG兼容性好,易于编辑社交媒体、图片展示

选择转换格式时,应根据最终用途来决定。如果需要在线访问和交互,HTML 是最佳选择;如果需要精确打印,则 PDF 更合适。

总结

使用 Python 将 PowerPoint 演示文稿转换为 HTML,是实现演示内容在线展示和自动化处理的一种高效方式。通过程序化转换,不仅可以将完整演示文稿导出为网页形式,还能够根据实际需求灵活处理单张或多张幻灯片,从而满足不同的应用场景。

在实际项目中,这种技术非常适合用于构建在线演示系统、企业培训平台或自动化报告发布流程。借助 HTML 输出格式,演示文稿可以更方便地集成到网站、学习管理系统(LMS)或内部知识平台中,实现无需 PowerPoint 即可浏览内容的效果。

掌握 PowerPoint 到 HTML 的自动化转换方法,可以显著提升文档处理效率,并为构建更复杂的文档管理或内容分发系统提供基础能力。无论是分享会议资料,还是部署在线培训内容,这一技术都具有很高的实用价值。

更多 PowerPoint 演示文稿处理技巧,请前往 Spire.Presentation for Python 官方教程查看。

长期以来,数据库运维始终难以摆脱“被动救火”模式——当 CPU 飙升、死锁频发或慢查询拖垮业务时,DBA 往往处于被动响应状态,这已成为无数技术团队的真实痛点写照。

拒绝被动响应,告别“救火模式”

线上数据库CPU突然飙到99.76%,你会怎么做?

打开监控、翻慢查询日志、找问题SQL、评估影响、执行限流……

这套流程在逻辑上严密,但在时间窗口面前却显得笨重——少则十几分钟,多则数小时,而业务损失往往就发生在这生死时速的几分钟内。

阿里云瑶池旗下的 DAS Agent 给出了另一种答案。

DAS Agent 是融合大模型技术与阿里云十万工单专家经验的智能数据库运维大脑,通过构建覆盖“问题发现-根因诊断-闭环优化”的全链路自治体系,保障企业核心数据库业务7×24 小时持续在线,助力万千企业迈入AI-Native运维时代。

云上数据库实例的运维全流程

以典型的“CPU 飙升至 99%”场景为例,DAS Agent 展现了其完整的自治流程:

上方视频中演示的,是DAS Agent在云上RDS实例上的真实操作:

自主发现异常:检测到CPU使用率高达99.76%,精准定位问题SQL

给出优化路径:索引建议、SQL改写、临时止血措施一步到位

直接发起限流:无需跳转其他控制台,对话框内完成操作

效果立竿见影:限流后CPU使用率从99.76%回落至1.05%

紧接着,DAS Agent还独立完成了一次死锁分析——不只是读日志、看报告,它主动检查了实例是否开通审计,调取全量SQL日志,自主决策查询时间范围,最终绘制出死锁发生时精准的事务时序图。

整个过程,没有人工介入,没有脚本预设。AI自主决策每一步该查什么、该调哪个接口、该怎么组合技能。

自建数据库实例的智能诊断

有人会问:我们用的是自建MySQL数据库,不在阿里云上,DAS Agent还能提供运维服务吗?

答案是:能!

DAS Agent支持主机或集中式网关模式,接入自建或其他云上的MySQL、PostgreSQL、Redis、MongoDB实例,无需迁移改造

在视频中,DAS Agent接入一个自建MySQL实例后:

通过IP端口自主查询实例ID,多次翻页、失败重试,自动调整方案——没有人告诉它怎么做

空间分析:实例已用48GB,使用率81.4%,预计还能撑99天,清晰呈现库表结构和Top大表

SQL预检:把一条待上线的SQL丢给它,DAS Agent调用执行计划、表结构、引擎信息,给出三个具体问题:
GROUP BY字段不是索引最左前缀,需要创建临时表

ORDER BY触发额外文件排序,现有索引未被利用

两张表连接因过滤条件分布不均,连接效率低

给出优化建议:创建复合索引、SQL改写(先过滤再连接),直接可落地执行

目前,已有企业将该能力前置到发布流程中:通过审计日志在预发环境自动捕获新增 SQL ,送至 DAS Agent 按生产环境预检(不用实际运行),在问题进入生产环境前即可完成拦截。

为什么 DAS Agent 是真正的“运维大脑”?

目前市面上已有的智能运维产品,大多是两类:

一类是规则+数据的工具型产品,包装了AI的名字,实则是预设规则的自动化。遇到边界场景,直接失效。

另一类是MCP/Workflow架构,依赖用户指定开源模型,场景覆盖有限,新场景上线慢,低频复杂问题基本无法应对。

而DAS Agent 则实现了质的突破。

底层架构核心优势

已上线20+运维技能(Skills),AI可以自由组合调用,不受Workflow编排限制

基于历史运维工单训练,不是通用大模型套壳,在准确率和稳定性上有明显差距

诊断+操作闭环:业界目前唯一能在对话框内直接完成限流、会话管理等运维操作的产品

7×24小时自动运维:每天自动扫描账号下纳管实例,从资源水位、慢SQL、死锁、空间、安全逐一分析,变"救火"为"预防"。

能力矩阵全方位覆盖

运维日报:实例健康度自动体检,输出。账号下多实例(支持跨引擎)的统一运维报告,包含指标趋势对比分析、慢 SQL、资源水位、安全风险等高价值建议。

SQL 优化:提供索引推荐、等价改写及上线前预检,优化效果显著优于传统方案,从源头提升查询效能。

智能诊断:覆盖 CPU/内存异常、死锁、大 Key、锁竞争等场景,精准定位根因,并秒级给出优化建议及止血方案。

知识问答:跨引擎运维报告分析对比,包含异常处理建议、升降配建议、变更影响分析等多种类型,专家级知识问答即时响应变更难题。

赋能不同规模企业智能运维

中小团队:没有专职DBA,研发兼职运维,或者花大价钱请外包兜底——DAS Agent可以大幅降低这部分成本,且7×24小时在线,不请假、不离职。

大型企业:实例多、引擎杂,DBA长期疲于救火,DAS Agent能显著减负,让DBA把精力放在真正有价值的事情上。

定义AI-Native 时代的运维新边界

数据库运维不应再是人力的简单叠加。
DAS Agent 的实践证明,当 AI 具备了领域深度、逻辑推理与操作闭环时,它便能真正从“辅助工具”进化为“自治实体”。

DAS Agent 现已支持多云多引擎的统一纳管: 能够一站式集成阿里云原生数据库(RDS/PolarDB/Tair/MongoDB)以及部署于各处的自建/跨云实例(MySQL/PG/Redis/MongoDB),为企业提供跨环境、高兼容的全局数据库运维管理中枢,打破数据孤岛,赋能一站式运维治理。

DBA不再需要在多个平台、多个账号之间来回切换。一个对话框,诊断到操作,全程闭环。

AI Native运维时代,已经到来!你准备好交出那个“火警电话”,拥抱一个不再焦虑的夜晚了吗?

了解更多

产品文档:https://help.aliyun.com/zh/das/user-guide/das-agent欢迎搜索钉钉群号“58255008752 ”或钉钉扫描下方二维码加入钉群交流:
image.png

在现代办公自动化场景中,将数据可视化为图表并嵌入 Word 文档已成为一项常见需求。无论是生成销售报告、制作数据分析文档,还是创建项目进度汇报,programmatically 在 Word 中插入图表都能显著提升工作效率。本文将深入探讨如何使用 Python 在 Word 文档中创建各种类型的图表,并对其进行样式定制和数据配置。

可通过 pip 安装:pip install spire.doc.free

环境准备

本文所使用的示例基于 Free Spire.Doc for Python,在开始之前,需要安装该库。可通过 pip 安装:

pip install spire.doc.free

安装完成后,即可在 Python 脚本中导入相关模块开始工作。

基础架构:文档与图表对象模型

在使用 Spire.Doc 创建图表前,需要了解其基本的对象层次结构:

  1. Document:表示整个 Word 文档
  2. Section:文档中的节,用于组织内容
  3. Paragraph:段落,用于承载文本和图表等元素
  4. Shape:形状对象,图表作为特殊形状嵌入其中
  5. Chart:图表对象,包含数据系列、坐标轴、标题等属性

基本操作流程为:创建文档 → 添加节 → 添加段落 → 插入图表形状 → 配置图表数据 → 保存文档。

创建第一个图表:柱形图

柱形图是最常用的图表类型之一,适合比较不同类别的数据。以下示例展示了如何创建一个简单的柱形图:

from spire.doc import *
from spire.doc.common import *

# 创建文档对象
document = Document()

# 添加一个节
section = document.AddSection()

# 添加标题段落
section.AddParagraph().AppendText("Column chart.")

# 添加新段落用于放置图表
newPara = section.AddParagraph()

# 插入柱形图,指定宽度和高度(单位为点)
shape = newPara.AppendChart(ChartType.Column, float(500), float(300))

# 获取图表对象
chart = shape.Chart

# 清空默认的数据系列
chart.Series.Clear()

# 添加数据系列:名称、X 轴类别、Y 轴数值
chart.Series.Add("Test Series",
                 ["Word", "PDF", "Excel", "GoogleDocs", "Office"],
                 [float(1900000), float(850000), float(2100000), 
                  float(600000), float(1500000)])

# 设置 Y 轴数字格式
chart.AxisY.NumberFormat.FormatCode = "#,##0"

# 保存文档
document.SaveToFile("ColumnChart.docx", FileFormat.Docx)
document.Dispose()

结果预览:

关键点解析:

  • AppendChart() 方法接受三个参数:图表类型枚举、宽度、高度
  • Series.Add() 方法用于添加数据系列,需要提供类别标签和对应的数值
  • 数值需要转换为 float 类型以确保兼容性
  • AxisY.NumberFormat.FormatCode 控制 Y 轴标签的显示格式

条形图:水平数据对比

条形图是柱形图的水平版本,特别适合类别名称较长或需要强调排名关系的场景:

# 创建条形图
chartShape = newPara.AppendChart(ChartType.Bar, float(400), float(300))
chart = chartShape.Chart

# 获取并设置图表标题
title = chart.Title
title.Text = "My Chart"
title.Show = True
title.Overlay = True  # 标题覆盖在图表上方

# 保存文档
document.SaveToFile("BarChart.docx", FileFormat.Docx)
document.Dispose()

结果预览:

标题的三个关键属性:

  • Text:标题显示的文本内容
  • Show:是否显示标题
  • Overlay:True 时标题覆盖在图表区域上,False 时标题位于图表外部

饼图:占比分析

饼图适合展示各部分占整体的比例关系,在财务分析和市场份额报告中应用广泛:

# 创建饼图
shape = newPara.AppendChart(ChartType.Pie, 500.0, 300.0)
chart = shape.Chart

# 添加单个数据系列(饼图通常只需要一个系列)
series = chart.Series.Add("Test Series", 
                          ["Word", "PDF", "Excel"],
                          [2.7, 3.2, 0.8])

# 保存文档
document.SaveToFile("PieChart.docx", FileFormat.Docx)
document.Dispose()

结果预览:

饼图的特点:

  • 通常只使用一个数据系列
  • 每个数据点代表整体中的一个部分
  • 扇区大小由数值比例决定

折线图:趋势展示

折线图擅长展示数据随时间或其他连续变量的变化趋势:

# 创建折线图
shape = newPara.AppendChart(ChartType.Line, 500.0, 300.0)
chart = shape.Chart

# 获取标题对象并设置
title = chart.Title
title.Text = "My Chart"

# 清空默认系列
seriesColl = chart.Series
seriesColl.Clear()

# 定义 X 轴类别
categories = ["C1", "C2", "C3", "C4", "C5", "C6"]

# 添加多个数据系列进行对比
seriesColl.Add("AW Series 1", categories, 
               [1.0, 2.0, 2.5, 4.0, 5.0, 6.0])
seriesColl.Add("AW Series 2", categories, 
               [2.0, 3.0, 3.5, 6.0, 6.5, 7.0])

# 保存文档
document.SaveToFile("LineChart.docx", FileFormat.Docx)
document.Dispose()

结果预览:

折线图的关键特性:

  • 支持多个数据系列叠加显示
  • 适合展示时间序列数据
  • 可以清晰对比不同系列的趋势差异

散点图:相关性分析

散点图用于展示两个变量之间的关系,在统计分析和科学研究中经常使用:

# 创建散点图
shape = newPara.AppendChart(ChartType.Scatter, 450.0, 300.0)
chart = shape.Chart

# 清空默认系列
chart.Series.Clear()

# 添加数据系列:X 值、Y 值
chart.Series.Add("Scatter chart", 
                 [1.0, 2.0, 3.0, 4.0, 5.0],
                 [1.0, 20.0, 40.0, 80.0, 160.0])

# 保存文档
document.SaveToFile("ScatterChart.docx", FileFormat.Docx)
document.Dispose()

结果预览:

散点图的特点:

  • 每个数据点由 X 和 Y 两个坐标值确定
  • 适合发现变量间的相关性模式
  • 可用于回归分析和趋势预测

气泡图:三维数据可视化

气泡图是散点图的扩展,通过气泡大小展示第三个维度的数据:

# 创建气泡图
shape = newPara.AppendChart(ChartType.Bubble, float(500), float(300))
chart = shape.Chart

# 清空默认系列
chart.Series.Clear()

# 添加数据系列:X 值、Y 值、气泡大小
series = chart.Series.Add("Test Series", 
                          [2.9, 3.5, 1.1, 4.0, 4.0],
                          [1.9, 8.5, 2.1, 6.0, 1.5],
                          [9.0, 4.5, 2.5, 8.0, 5.0])

# 保存文档
document.SaveToFile("BubbleChart.docx", FileFormat.Docx)
document.Dispose()

结果预览:

气泡图的独特之处:

  • 同时展示三个维度的数据
  • 气泡大小与第三个数值成正比
  • 适合复杂的多变量分析场景

3D 曲面图:立体数据展示

3D 曲面图提供立体的数据可视化效果,适合展示地形、温度分布等连续表面数据:

# 创建 3D 曲面图
shape = newPara.AppendChart(ChartType.Surface3D, 500.0, 300.0)
chart = shape.Chart

# 清空默认系列
chart.Series.Clear()

# 设置图表标题
chart.Title.Text = "My chart"

# 添加多个数据系列
chart.Series.Add("Series 1", 
                 ["Word", "PDF", "Excel", "GoogleDocs", "Office"],
                 [1900000.0, 850000.0, 2100000.0, 600000.0, 1500000.0])

chart.Series.Add("Series 2", 
                 ["Word", "PDF", "Excel", "GoogleDocs", "Office"],
                 [900000.0, 50000.0, 1100000.0, 400000.0, 2500000.0])

chart.Series.Add("Series 3", 
                 ["Word", "PDF", "Excel", "GoogleDocs", "Office"],
                 [500000.0, 820000.0, 1500000.0, 400000.0, 100000.0])

# 保存文档
document.SaveToFile("Surface3DChart.docx", FileFormat.Docx)
document.Dispose()

结果预览:

3D 曲面图的特点:

  • 提供立体的视觉呈现
  • 支持多个数据系列叠加
  • 适合展示复杂的多维度数据关系

图表尺寸与定位

图表的尺寸和位置对于文档的整体布局至关重要。AppendChart() 方法的第二和第三个参数分别控制图表的宽度和高度,单位为点(point):

  • 1 点 = 1/72 英寸 ≈ 0.35 毫米
  • 常用尺寸:400x300(小型)、500x300(中型)、600x400(大型)

定位技巧:

# 在特定段落后插入图表
para = section.AddParagraph()
para.Format.SpaceAfter = 20  # 设置段后间距

# 插入图表
chartShape = para.AppendChart(ChartType.Column, float(500), float(300))

通过调整段落的间距属性,可以控制图表与周围文字的间隔,实现美观的排版效果。

数据系列管理

数据系列是图表的核心组成部分。Spire.Doc 提供了灵活的系列操作方法:

添加系列

# 添加单个系列
chart.Series.Add("系列名称", ["类别 1", "类别 2"], [100.0, 200.0])

# 添加多个系列
chart.Series.Add("系列 A", categories, valuesA)
chart.Series.Add("系列 B", categories, valuesB)

清空系列

在添加自定义数据前,通常需要清空默认的系列:

chart.Series.Clear()

访问系列集合

可以通过 Series 属性访问系列集合进行更复杂的操作:

seriesColl = chart.Series
# 对系列集合进行操作

坐标轴格式化

坐标轴的显示格式直接影响图表的可读性。Spire.Doc 允许对坐标轴进行精细的格式控制:

# 设置 Y 轴数字格式(千位分隔)
chart.AxisY.NumberFormat.FormatCode = "#,##0"

# 设置百分比格式
chart.AxisY.NumberFormat.FormatCode = "0%"

# 设置小数位数
chart.AxisY.NumberFormat.FormatCode = "0.00"

常见的格式代码:

  • #,##0:千位分隔符,无小数
  • 0.00:保留两位小数
  • 0%:百分比格式
  • $#,##0:美元货币格式

完整实战示例

以下是一个综合示例,展示了如何在实际项目中创建包含多种图表的报告文档:

from spire.doc import *
from spire.doc.common import *

def create_sales_report():
    # 创建文档
    doc = Document()
    section = doc.AddSection()
    
    # 添加标题
    title_para = section.AddParagraph()
    title_para.AppendText("2024 Sales Report")
    title_para.Format.HorizontalAlignment = ShapeHorizontalAlignment.Center
    
    # 添加柱形图
    section.AddParagraph().AppendText("\nQuarterly Sales:")
    col_para = section.AddParagraph()
    col_chart = col_para.AppendChart(ChartType.Column, float(500), float(300))
    col_chart.Chart.Series.Clear()
    col_chart.Chart.Series.Add("Sales", 
                               ["Q1", "Q2", "Q3", "Q4"],
                               [150000.0, 220000.0, 180000.0, 250000.0])
    col_chart.Chart.AxisY.NumberFormat.FormatCode = "$#,##0"
    
    # 添加饼图
    section.AddParagraph().AppendText("\nProduct Distribution:")
    pie_para = section.AddParagraph()
    pie_chart = pie_para.AppendChart(ChartType.Pie, float(400), float(300))
    pie_chart.Chart.Series.Add("Products",
                               ["Product A", "Product B", "Product C"],
                               [45.0, 35.0, 20.0])
    
    # 保存文档
    doc.SaveToFile("Sales_Report.docx", FileFormat.Docx)
    doc.Dispose()

create_sales_report()

结果预览:

常见问题与解决方案

图表显示不完整

确保段落的行距设置适当,避免图表被裁剪:

para.Format.LineUnitAfter = 1  # 增加段后行距

数据精度问题

始终将数值显式转换为 float 类型:

values = [float(x) for x in raw_values]

中文标签显示

Spire.Doc 完全支持 Unicode 字符,可以直接使用中文字符串作为类别标签或标题。

总结

在 Word 文档中 programmatically 创建图表是办公自动化的重要技能。通过掌握 Spire.Doc for Python 提供的图表 API,可以实现:

  1. 创建七种主要图表类型:柱形图、条形图、饼图、折线图、散点图、气泡图、3D 曲面图
  2. 灵活配置数据系列和坐标轴格式
  3. 精确控制图表尺寸和位置
  4. 批量生成包含图表的专业报告文档

关键要点回顾:

  • 使用 AppendChart() 方法插入图表,指定类型和尺寸
  • 通过 Series.Add() 添加数据,记得先调用 Clear() 清空默认数据
  • 利用 NumberFormat.FormatCode 格式化坐标轴标签
  • 合理设置图表尺寸,确保在文档中的显示效果

掌握这些技能后,你可以进一步探索图表标题样式、图例位置、数据标签、颜色主题等高级定制功能,构建出功能完备的文档自动化生成系统。

更多 Word 文档操作技巧,请前往 Spire.Doc for Python 官方教程查看。

在各行业积极拥抱数字化转型的当下,合同、投标文件、财务报表、公务文书以及资质证明等重要文件,正迅速由传统的纸质形式向电子化形态转变。这一改变不仅显著提升了工作效率,降低了成本,同时也引发出一个核心问题,也就是如何确保电子文档的来源真实可信?如何保证电子文档在传输和存储过程中,未遭恶意篡改?是否能够赋予电子文件与传统纸质盖章文件同等的法律效力?须知在互联网时代,伪造PDF合同和恶意篡改电子协议金额的行为,已经变得愈加频繁猖獗。企业不仅面临复杂的运营问题,还可能因此陷入法律纠纷,导致财务损失,甚至还有损品牌声誉。JoySSL首席安全顾问指出,若要真正实现无纸化办公,不仅仅是格式的电子化替代,更在于将信任机制无缝迁移到数字环境中。文档签名证书正是为电子文档提供法律效力、保障数据完整性和提供可信身份认证的专业解决方案。

核心作用 为数字文件添加信任保障

文档签名证书通过密码学技术,彻底解决电子文件在身份核验、完整性保护和法律效力等方面的问题。通过权威验证,嵌入经审核的数字身份标识,让发布者身份清晰可信,避免身份伪造或文件造假等问题。而通过签名者独有的私钥,文件内容会被生成专属数字签名,相当于电子领域中的“指纹”,哪怕是最细微的篡改,都会使签名验证无法通过,并发出“文档已被篡改”提醒,使得内容的真实性和完整性始终得以保障。

文档签名证书凭借各项严谨的验证机制,达到 “可靠电子签名”的核心标准,可使经其签名的电子合同及审计报告等文件能作为重要的电子证据,简化举证和存证的复杂性,为企业带来了稳固的法律支持。同时结合权威时间戳服务,能够精确记录文件的签署时间。即便证书因过期而失效,签名依旧可以被验证真实性。对于合同、档案及医疗记录等需长期保存的文件而言,具有不可忽视的重要价值。

适用场景 可信电子文档覆盖全行业

文档签名证书凭借显著的适用性,为众多领域的文档处理流程带来变革。普通企业应用于合同签署、商务通信及财务文档;政务及公共服务普遍用于公文处理、行政审批和数字证照;司法领域通常用于法律文件、证据存档与数字化送达;医疗健康领域常见于电子病历、检查报告和健康记录;金融保险行业适用于电子保单、信贷资料和对账单。

解决方案 签名证书为文档保驾护航

为充分保障文档的可信与安全,JoySSL市场部门经过多年调研,深刻洞察各行业对文档安全性与法律效力的严谨要求,提出专业解决方案。首先以严格的身份核验机制,确保身份真实且合法,从根本上建立信任基础。其次文档签名证书需覆盖国际与国密标准,满足全球化业务及国内合规的双重需求。

批量自动化签名可轻松实现合同及报表的批量签署,提升业务效率。搭建证书生命周期管理平台,可集中处理文档签名证书的申请、部署、监控与续展,确保签名服务的持续可用性。

数字签名 赋予数字文件可信的力量

尽管文件已摆脱了纸质媒介的限制,其承载的信任依然至关重要。数字化时代,信任需要依赖更先进、更严谨的技术来确保,文档签名证书正是这种理念的最佳体现,让每一次文件交互都成为建立信任、提升效率和保护权益的契机。

在竞争激烈的程序员求职市场中,AI面试助手已成为求职者的重要技术辅助工具。面试大师面试精灵都是这类工具中的热门选择,但它们的实际技术表现和使用体验却有很大差异。

面试精灵在语音识别、简历定制化回复等技术环节表现出色;面试大师则支持多种输入输出模式和多端协同,但存在语音识别错误率高、性价比低等问题。

面试精灵操作页面

功能特性全面对比

根据我们对AI面试助手的技术评测,以下是面试精灵和面试大师的功能特性详细对比:

功能特性面试精灵面试大师
面试助手
笔试助手X
简历优化X
模拟面试XX
面试记录/分析
交流社群XX
界面美观度42
操作简单/可访问性44
功能强大43
价格(元/小时)10128
性价比4.52
免客户端下载
多语言支持X
语音识别优化X
自动说话人识别X
隐蔽模式(多机互联)
简历输入
个人知识库XX
大厂面经库XX
联网搜索XX
多种回复模式X
回复结果显示增强X

核心技术指标深度解析

语音识别能力对比

这是两款工具最显著的技术差异。

面试大师的语音识别错误率较高,实测中经常出现识别错误的情况。例如将"Transformer模型"识别成"模型相比RnB",这种基础技术环节的错误会直接影响后续回复的准确性。

面试精灵在语音识别上更可靠,特别是在英文术语识别方面表现出色。对于"Transformer"、"DeepSeek"这类技术术语,它能准确识别和处理,这对技术面试至关重要。

面试大师操作界面

回复质量对比

回复质量是面试助手的核心指标,两款工具在这方面的差距较为明显。

简历定制化能力

两款工具都支持简历解析,但实际效果不同。

面试大师在处理简历相关问题时表现不佳,回复内容空洞,甚至会出现追问面试官的情况,无法提供有效信息。

面试精灵通过RAG技术检索简历内容,将项目细节、技能要求自然融入回答中,使得自我介绍、项目描述等问题的回复更加贴合实际。

时效性问题处理

对于"DeepSeek最近很火爆"这类时效性技术问题,两款工具的处理方式不同。

面试大师不支持联网搜索,只能依赖模型内置知识,且受限于语音识别错误率,回复准确性难以保证。

面试精灵支持联网搜索,英文术语识别准确,能够通过搜索获取最新信息并给出正确回答,这对关注技术趋势的求职者非常重要。

功能特性深入对比

输入输出模式

面试大师支持多种输入输出模式,这是它的一个技术特色。

  • 共享屏幕模式:通过设置分享标签页或视频软件窗口的音频作为输入。
  • 语音模式:通过麦克风识别面试官语音,适合面试官要求分享屏幕的场景。

输出模式支持质量优先、速度优先、代码模式三种。这种多模式设计虽然全面,但由于语音识别错误率较高,整体体验受到影响。

多端协同和笔试功能

两款工具都支持多端协同和笔试功能,但实现方式有差异。

面试大师支持二维码扫描连接,但需要先安装应用并在相同局域网下连接。笔试模式通过三击选择截图区域,操作相对简单。

面试精灵的笔试助手通过多设备互联实现跨设备远程截图,利用视觉大模型自动识别题目并生成答案,纯网页操作无需安装,使用更便捷。

面试精灵笔试助手功能

界面和操作体验

面试大师的界面设计一般,美观度不高,操作逻辑虽然清晰但整体体验不够现代化。

面试精灵的界面简洁美观,对代码块、公式、图表等技术内容的显示效果更好。前端支持LaTeX公式、流程图、泳道图,特别适合技术岗位的面试场景。

价格对比

面试大师的价格约为128元/小时,在同类产品中属于较高价位,性价比不理想。

面试精灵基础版约10元/小时,精英版约25元/小时,即使使用最高配置,价格也仅为面试大师的几分之一。

两款工具都提供新用户免费额度,建议先试用再做决定。

回复效果实测对比

为了更直观地展示两款工具的回复效果差异,我们来看几个技术相关的实测案例。

实测案例:英文术语问题

问题:"Transformer模型相比RNN的优势是什么?"

这个题目测试的是英文术语识别能力。

面试大师将"Transformer模型"识别为"模型相比RnB",英文术语识别错误,但通过大模型的纠错能力,回复内容仍具有一定参考价值。

面试精灵语音识别正确,回复条理清晰,内容准确完整,详细分析了Transformer模型的优势。

实测案例:系统设计问题

问题:"设计一个支持高并发的短网址生成系统。"

这个题目测试的是系统设计能力以及架构图绘制显示效果。

两款工具都能给出正确的系统设计思路,但面试精灵在架构图显示上更有优势,能够帮助面试者快速抓住重点。

面试精灵系统设计问题回复

实测案例:金融行业问题

问题:"解释贴现现金流(DCF)模型的计算步骤。"

这个题目测试的是多行业模型应用能力和数学公式显示效果。

两款工具在本题中都能给出正确回复,说明大模型内置知识广博。面试精灵在公式显示上更清晰,对这类跨领域问题的支持更好。

面试精灵金融行业问题回复

评测数据对比

以下是两款工具在各评测维度的平均得分对比(满分5分):

评测维度面试精灵面试大师
帮助性4.783.67
语音识别准确率4.442.67
意图识别正确率53.6
内容深度及个性化4.783.8
沟通技巧4.674.6
准确性4.782.8
全面性4.783.6
直观性4.894.4

从评测数据可以看出,面试大师在沟通技巧上表现不错,但在语音识别准确率、回复准确性等核心指标上明显弱于面试精灵。面试精灵整体表现更均衡,在帮助性、内容深度等方面优势显著。

总结和建议

两款工具都具有一定的功能覆盖,但实际技术表现差异明显。

面试大师支持多种输入输出模式,适配各种面试场景,还提供多端协同和笔试功能。但它的语音识别错误率过高,这是一个致命缺陷。此外,界面设计一般,价格偏高,性价比不理想。

面试精灵在语音识别上更可靠,特别是英文术语识别能力出色。通过RAG技术实现的简历定制化回复更贴合实际,联网搜索功能能有效处理时效性问题。自动说话人识别让操作更隐蔽,纯网页访问无需安装,价格也更实惠。

从整体评测数据来看,面试精灵在帮助性、内容深度、准确性等方面有明显优势,尤其是在语音识别准确率和回复准确性上差距较大。结合其高性价比和更稳定的技术表现,面试精灵可能更符合大多数程序员和开发者的需求。

做APP设计的朋友都懂,选对工具比画得好更关键。一款好用的移动端UI设计工具,不光能让你画图速度翻倍,还能让产品想法更快落地,团队沟通也能少走很多弯路。不知道做APP设计该用什么软件?今天就给大家整理了6款当下最火的移动端UI设计工具,帮你精准找到适合自己的那一个。

  1. UXbot
    UXbot从产品需求、流程规划,到原型制作、界面设计、预览分享、前端代码生成,一套流程全搞定,是国内比较热门的APP设计工具之一。UXbot主要依赖自然语言需求,让你只需要输入一个简短的需求,就能在几十秒内就可以直接生成可视化PRD文档、交互说明等核心产品资产。关键是界面做得干净直观,新手也能快速上手。内置AI助手和专业编辑器,页面元素大小、颜色、图片、排版等都能按照自己的需求进行修改。彻底打破设计与文档割裂的传统壁垒。大幅降低重复性工作内耗。
    设计稿可直接生成为iOS(Swift)、Android(Kotlin)代码,支持编译成APK文件,安装至真机测试使用。这大大缩短了从设计到开发的周期,降低了出错风险。
    UXbot素材模板也很丰富,电商、社交、教育、金融、旅游等行业都有覆盖,从页面框架到交互逻辑,现成模板直接套用,不需要从零搭建,一键复用快速出稿。
    推荐评级:⭐⭐⭐⭐⭐
    image.png
  2. Figma
    Figma在全球范围内都很火,也是很多设计师常用的移动端UI设计工具。它最大的亮点就是基于网页的实时协作功能,能让多个设计师在同一个画布上同时工作,不用反复同步文件。
    对于需要跨国协作,或者团队规模比较大的设计团队来说,Figma的组件变体和自动布局功能很实用,能很好地适配不同尺寸手机屏幕的响应式设计需求。不过有个小缺点,国内用户用的时候,偶尔会遇到网络不稳定的问题,影响操作体验。
    推荐评级:⭐⭐⭐⭐⭐
    image.png
  3. Sketch
    Sketch是很多资深设计师都熟悉的工具,主打视觉设计和组件系统,在很长一段时间里,几乎就是UI设计的代名词。它是专门为macOS打造的,最大的特点就是轻便、插件丰富。
    Sketch有庞大的第三方插件生态,不管是图标管理、数据填充,还是色彩校正,几乎所有需求都能找到对应的插件解决。虽然它只支持Mac系统,而且协作功能起步比较晚,但在高保真界面设计的细腻度上,依然有很多设计师偏爱它。
    推荐评级:⭐⭐⭐⭐
    image.png
  4. Adobe XD
    如果你的工作中经常用到PS、AI,那Adobe XD会很适合你。它最大的优势就是速度快、性能稳,哪怕处理几百个画板的大型APP项目,也不会出现卡顿的情况。
    XD的“重复网格”功能特别实用,是处理列表型APP界面的神器,能快速批量生成相似的列表元素。而且它能直接导入PS和AI的文件,对于需要大量处理图片素材的移动端设计项目来说,能省不少事。
    推荐评级:⭐⭐⭐
    image.png
  5. Principle
    如果你的APP设计需要复杂的转场动画和微交互,普通的绘图工具可能就满足不了需求了。Principle就是专门做交互动效的移动端UI设计工具,操作逻辑和Flash、After Effects有点像,但更简单易懂,不用掌握复杂的操作技巧。
    用它制作的交互Demo特别细腻,适合用来打磨那些对体验要求极高的APP头部应用,平时大多配合Sketch或Figma一起使用,互补短板。
    推荐评级:⭐⭐
    image.png
  6. ProtoPie
    ProtoPie也是一款值得关注的移动端UI设计工具,主打无代码高保真交互,和Principle不一样的是,它更擅长处理需要调用手机传感器的交互设计,比如陀螺仪、麦克风、3D Touch这些功能。
    如果你的APP设计需要用到手机的硬件功能,或者需要验证复杂的逻辑判断,用ProtoPie能做出最接近真实APP开发效果的原型,帮你提前规避后期开发中的问题。
    推荐评级:⭐⭐
    image.png

其实选哪款软件,最终还是看你的团队规模、常用的操作系统,以及具体的项目需求。如果看重海外生态和复杂动效,Figma或Sketch会是不错的选择;但如果更看重国内网络环境的稳定性、全中文社区支持,还有“设计+原型+开发”的一站式高效体验,UXbot性价比会比较高、也极易上手的移动端UI设计工具,适合小白以及想要项目快速落地的团队。

3 月 6 日,网易有道“7X24 小时全场景个人助理” Agent LobsterAI 宣布迎来重大更新——正式上线技能商店(Skill Store),并全面支持 MCP 协议(Model Context Protocol)。此次更新旨在进一步降低智能体的使用门槛,让用户通过自然语言即可轻松扩展 LobsterAI 的能力边界,同时借助开放标准与全球开发者共建 Agent 生态,加速国产智能体的创新与应用。

作为中国版 OpenClaw,自今年 2 月正式开源以来,LobsterAI 凭借“直接替用户干活”的核心能力,在 GitHub 及开发者社区收获了热烈反响,上线开源首周 GitHub Star 数即突破 3K。该产品从设计之初就支持一键安装、开箱即用以及直观的图形界面,让没有任何命令行经验的普通办公族也能轻松驱动 AI Agent。

LobsterAI 此前已具备多个深受好评的“全场景”特性。它内置了包括文档处理(Word、Excel、PPT、PDF)、数据分析、Canvas 海报绘制及基于 Remotion 的视频生成等 16 种核心技能 。此次上线的技能商店进一步扩充了技能生态——用户可在商店中按类别浏览、搜索所需技能,一键安装即可为助手增添新能力,首批新增技能包括 find-skills、agent-browser、apple-notes 等。除官方商店外,用户还可通过 GitHub 地址直接导入开源社区中的第三方技能,也支持从本地文件夹或 zip 包安装自定义技能。

技能商店采用"即装即用"模式,安装后技能自动出现在 LobsterAI 的技能面板,用户通过自然语言即可调用。例如,用户从技能商店安装 data-analysis 技能后,只需说“分析一下这份销售数据,找出增长最快的品类并生成图表”,LobsterAI 便会自动调用该技能完成数据分析与可视化,输出可直接用于汇报的结果。

另一项关键更新在于对 MCP 协议的全面支持。MCP 为 AI 模型与外部工具、数据源之间提供了标准化的安全连接。LobsterAI 内置了涵盖搜索、开发工具、办公协作、浏览器自动化、设计、数据采集六大类别的 MCP 服务市场,包括 Tavily 搜索、GitHub、Notion、Playwright 等 15+ 主流服务,用户可一键安装并配置。

同时,LobsterAI 支持用户添加自定义 MCP 服务,兼容 stdio、SSE、HTTP 三种传输协议,可灵活接入企业内部系统或私有数据源。所有已启用的 MCP 服务会在会话中自动生效,无需额外配置。

一个典型场景:用户配置好 Notion 的 MCP 服务后,直接下达指令"汇总我 Notion 中'Q2 产品规划'页面的内容,整理成一份项目进度报告并生成 PPT",LobsterAI 将通过 MCP 自动读取 Notion 页面数据,结合 pptx 技能完成文档整理与幻灯片生成,全程无需手动复制粘贴。

为了让这位助手“越用越聪明”,LobsterAI 内置了持久记忆系统,能够跨会话学习用户的工作习惯与风格偏好。在用户最为关心的安全领域,其坚持多重保障机制,所有涉及敏感数据的工具调用均需用户手动批准,且支持在 QEMU + Alpine Linux 的沙箱虚拟机中运行。最关键的是,所有聊天记录与配置数据均存储于本地 SQLite 数据库,绝不离开用户设备,确保了隐私的绝对掌控。

目前,LobsterAI 已全面支持 macOS 与 Windows 两大桌面平台,用户可通过官网(https://lobsterai.youdao.com)下载体验,开发者则可在 GitHub(https://github.com/netease-youdao/LobsterAI)上获取源代码参与项目共建。

尝试了用 claude code 和 opencode 对接 bailian 的 glm-5, kimi-k2.5, qwen3.5-plus 。

都会出现输出到一般突然输出一个 <tool_call> 之类的,然后就输出中断了。

我使用以下供应商的模型,从来没出现过这种问题:

  • 中转的 gpt-5.3-codex, claude-4.6-sonnet
  • glm coding plan 的 glm-4.7
  • opencode zen 的 glm-5, kimi-k2.5

出现问题具体的现象:

  • claude-code

claude-code-failed

  • opencode

opencode-failed

pg每日新闻封面.png

⚙️ PostgreSQL 技术文章

🧩 Ctrl-C 在 psql 中让我感到不安

1.png

George MacKerron讨论了在psql中使用Ctrl-C中断PostgreSQL查询的复杂性。文章解释了用户可能需要停止正在运行查询的各种场景,比如查询耗时过长、意识到需要创建索引以获得更好性能,或者不再需要查询结果。MacKerron探讨了尝试取消查询时出现的技术挑战和潜在问题,强调了为什么这个常见操作会有问题并让数据库用户感到焦虑。

https://neon.com/blog/ctrl-c-in-psql-gives-me-the-heebie-jeebies

🧩 Postgres 分布式:OpenAI 数据库层的原生前进之路

2.png

EDB讨论了PostgreSQL在为数亿用户提供服务时面临的扩展挑战,特别是单主架构遇到的"Write Wall"问题,这需要人工干预并产生运营债务。文章探讨了EDB Postgres Distributed (PGD)作为解决方案,提供原生的active-active架构来消除这些扩展瓶颈和多语言数据库碎片化问题。PGD旨在用具有韧性的自愈数据平台取代复杂的变通方案,能够处理大规模负载而无需传统PostgreSQL部署的运营开销。

https://www.enterprisedb.com/blog/postgres-distributed-native...

🧩 大规模表分区的隐性成本

3.png

PostgreSQL中的表分区通过分区修剪和高效的DROP TABLE操作(而非昂贵的DELETE)为时间范围查询和数据保留提供了显著优势。然而,它引入了大量运维复杂性,包括可能静默失败的强制分区自动化、需要分区感知程序的扩展运维手册,以及增加的监控面。性能提升主要是针对窄时间范围的读取优化,而写入性能保持不变。长范围查询受到随分区数量线性增长的规划时间影响,影响季度报告和历史分析。分区最适合具有可预测保留需求的中等写入负载,但对于高频摄取场景仅是延缓问题,并未解决底层MVCC开销。

https://www.tigerdata.com/blog/hidden-costs-table-partitionin...

📨 PostgreSQL Hacker 电子邮件讨论精选

🧩 索引预取

Alexandre Felipe 讨论了 PostgreSQL 索引预取功能的优化,回应了 Andres 关于引用计数跟踪改进的建议。当前实现使用混合方法,对少量缓冲区使用数组,对大量缓冲区使用哈希表。Alexandre 测试了多达90个缓冲区的场景,注意到在特定阈值处存在性能悬崖。他发现最近的一次提交改变了缓冲区固定顺序,可能影响 pin/unpin 序列的性能。关键问题包括昂贵的资源所有者管理在缓冲区被多次固定时产生开销,以及 ResOwnerReleaseBuffer 错误地解锁它不拥有的缓冲区。建议的解决方案包括将 REFCOUNT_ARRAY_ENTRIES 增加到16,用 simplehash 替换 dynahash,或完全移除引用计数数组。Alexandre 建议资源所有者问题值得单独讨论。

https://www.postgresql.org/message-id/CAE8JnxNPK1T79gpS3PTPbF...

【补丁】 支持自动序列复制

这个补丁讨论专注于在PostgreSQL逻辑复制中实现自动序列复制。该功能将使用持久的序列同步工作器在发布者和订阅者之间持续同步序列,替代之前的一次性同步方法。正在解决的关键技术问题包括GetSequence()函数中的权限处理、序列的适当状态管理(INIT与READY状态)以及漂移检测以避免不必要的同步。识别并修复了几个错误,包括copy_sequences循环中错误的查询构建和检查本地值是否超前于发布者值时对降序序列的不当处理。代码评审反馈涵盖了文档更新、函数命名清晰度、等待事件的适当性以及各种代码风格改进。关于缓存序列信息的性能考虑进行了讨论,但推迟到后续评估。

https://www.postgresql.org/message-id/TY4PR01MB16907262C55085...

🧩 在发布中跳过模式更改

Vignesh C在Amit Kapila推送了第56版本后,为"跳过发布中的模式更改"补丁系列中的剩余项目提交了重新基于的补丁。Shveta Malik对重新基于的补丁提供了详细反馈,识别出几个问题:alter_publication.sgml中的文档排序问题,其中子句序列应该是"tables/schemas/except-tables"以提高可读性,过于冗长的HINT消息可以缩短,以及代码中不可达的错误条件。具体来说,Malik注意到错误"EXCEPT TABLE clause allowed only for ALL TABLES PUBLICATION"似乎不可达,并且几个测试用例有不匹配的注释和实际错误——原本用于验证'FOR TABLE'发布上EXCEPT TABLE限制的测试实际上触发了关于ADD/DROP子句不支持EXCEPT的不同错误。Malik要求验证其他测试用例是否存在类似的注释-错误不匹配,并询问不可达错误场景的澄清。

https://www.postgresql.org/message-id/CALDaNm1ALHQwkXBcDALA1M...

🗞️ 行业新闻

🧩 AWS 推出 Amazon Connect Health AI agent 平台

4.png

Amazon Web Services推出了Amazon Connect Health,这是专为医疗保健提供者设计的专业AI代理平台。这个新平台为患者预约、文档记录和患者验证流程提供全面解决方案。该服务代表着AWS向医疗保健领域的战略扩张,利用人工智能简化传统上消耗大量时间和资源的医疗环境管理任务。Amazon Connect Health旨在提高运营效率,同时保持医疗保健环境所需的安全和合规标准。该平台专注于核心医疗保健管理功能,为寻求现代化患者互动系统的医疗机构带来潜在的革命性变化。

https://techcrunch.com/2026/03/05/aws-amazon-connect-health-a...

🧩 OpenAI 推出 GPT-5.4,包括 Pro 和 Thinking 版本

5.png

OpenAI发布了GPT-5.4,将其定位为专门为专业应用设计的最先进、最高效的前沿模型。新版本包含Pro和Thinking两个版本,为不同用例提供增强的定制功能。GPT-5.4代表了OpenAI模型阵容的重大进步,在为专业工作环境提供增强性能的同时强调提高效率。双版本方法表明OpenAI致力于满足多样化的专业需求,Thinking版本可能针对复杂推理任务进行了优化。此次发布延续了OpenAI快速迭代的周期,展示了他们在竞争激烈的AI模型市场中保持领先地位的承诺,同时满足特定的专业用户需求。

https://techcrunch.com/2026/03/05/openai-launches-gpt-5-4-wit...

🧩 Pentagon将Anthropic列为供应链风险

6.png

美国国防部正式将Anthropic列为供应链风险,这是首次有美国AI公司获得此类分类。尽管五角大楼继续在伊朗行动中使用Anthropic的AI技术,但仍做出了这一前所未有的决定。这一指定引发了关于AI公司及其技术国家安全担忧的重要问题。这种双重关系——将Anthropic标记为风险的同时继续使用其AI能力——凸显了AI公司在国防应用中面临的复杂监管环境。这一发展可能为联邦机构如何评估和分类其他美国AI公司树立重要先例。

https://techcrunch.com/2026/03/05/its-official-the-pentagon-h...

🌐 社交媒体动态

🧩 来自首席执行官汉斯-尤尔根·舍尼格的消息,现场直击伦敦科技展!

公司首席执行官汉斯-尤尔根·舍尼格正在伦敦科技展的现场直播发布消息。这似乎是一个公告或更新,直接来自在伦敦举行的大型科技展览活动。

https://www.linkedin.com/posts/cybertec-postgresql_tech-show-...

🧩 在 pgEdge,我们致力于确保用户对我们开源项目的体验,比如用于PostgreSQL的pgEdge MCP 服务器

7.jpeg

pgEdge 邀请用户尝试他们的开源 pgEdge MCP Server for PostgreSQL 项目并提供反馈。下载、安装并测试该项目的参与者可以参加 CanaKit Raspberry Pi 5 Starter Kit PRO(128GB,8GB RAM)的抽奖活动。抽奖截止时间为美国东部时间 3 月 31 日晚上 11:59,获奖者将于 202…

https://www.linkedin.com/posts/pgedge_github-pgedgepgedge-pos...

🧩 OpenAI GPT-5.4 现已在 Databricks 上开放第一天访问!

8.jpeg

OpenAI GPT-5.4 现已在 Databricks 上开放第一天访问。用户可以使用 GPT-5.4 在企业数据上构建和扩展 GenAI 应用程序,并获得生产所需的治理和运营工具。GPT-5.4 在 OfficeQA 上实现了显著的准确性改进,这是一个针对真实企业文档的推理基准,得益于更强的工具使用和多步推理。它还比同类前沿级代理系统快约 2 倍,从…

https://www.linkedin.com/posts/databricks_day-one-access-to-o...


HOW 2026 议题招募中

2026 年 4 月 27-28 日,由 IvorySQL 社区联合 PGEU(欧洲 PG 社区)、PGAsia(亚洲 PG 社区)共同打造的 HOW 2026(IvorySQL & PostgreSQL 技术峰会) 将再度落地济南。届时,PostgreSQL 联合创始人 Bruce Momjian 等顶级大师将亲临现场。

自开启征集以来,HOW 2026 筹备组已感受到来自全球 PostgreSQL 爱好者的澎湃热情。为了确保大会议题的深度与广度,我们诚邀您提交前沿技术实践与洞见,共同打造高质量议题内容。

投递链接:https://jsj.top/f/uebqBc

2025 已过, 去年的激励活动:鸿蒙应用开发者激励计划 2025 、剧本激励计划等,群里不少执行力强的群友,单靠跟着做鸿蒙开发,大部分都闷声斩获了十几 W的激励金(不信的可以直接在站内搜关键词:“鸿蒙 激励”,看看大家晒的真实收益)。。

这就印证了普通人搞钱最稳的铁律——跟着大平台后面喝汤!平台拿钱砸哪个赛道,咱们就往哪冲。

错过去年没关系,2026 年“撒钱”激励继续!
各大平台的新一轮红利已经放出,给站友汇总了一波最新的搞钱激励活动,最高单项奖金 75 万元!赶紧码住,今年别再只做看客了!

1.天工计划·鸿蒙智能体开发者激励
华为为了建设智能体生态,拿出 10 亿激励发起「天工计划」,面向符合资质的鸿蒙开发者,开发上架达标智能体可获最高 75 万 / 个、累计最高 200 万现金激励,先到先得。

下载.png

2.Kiro 百万奖池计划
符合条件的三方赛事中用 Kiro 开发获奖,最高可获与官方奖金等额的追加奖励,单人上限 20 万元,总奖池 100 万元,先到先得。

3.抖音·精品漫剧激励政策
覆盖 AI 仿真人、2D/3D 漫剧,按评级最高每分钟保底 3 万、单部最高 360 万,原创 IP 可享改编权全额补贴,保底外还有超保底分成,优质合作方还能获得一年框架保底合作。

4.番茄小说·文启剧燃
设 6 大赛道,共 26 个万元大奖,叠加超千万版权额外激励,单部开发奖励最高 20 万,还有版权保底、多类创意奖,奖励可与年度福利叠加,全力赋能小说创作者。

还有其他的激励活动,持续更新,打破信息差,我做了一个激励活动小程序,聚合了全网的激励政策,实时跟进,持续更新! 搜小程序名:​激励活动​!

欢迎一起交流~

微信搜 激励活动

OpenClaw 成为风靡全球的 AI Agent 同时,它的安全性和 AI Agent 通用的不确定性等问题也引发人们的广泛关注。基于 SelectDB 或 Apache Doris 的 AI Observe Stack 可以为 OpenClaw 提供可观测性,让 AI Agent 的每一个行为清晰可见、安全问题可被洞察,让你看清它的每一个 “脑回路”。

本文基于 AI Observe Stack 构建的 OpenClaw 可观测系统是使用 AI 在一天内完成的。用户也可以用阿里云 SelectDB 云服务或者开源 Apache Doris 在几分钟内快速搭建起来亲身体验。

OpenClaw:爆火背后的安全危机

OpenClaw 大概是 2026 年最火的开源 AI Agent 平台。它支持通过 WhatsApp、Telegram、Web 等渠道与用户交互,背后的 Agent 可以调用 shell 命令、浏览网页、搜索信息、操作文件、发送消息——几乎无所不能。

OpenClaw:爆火背后的安全危机.PNG

但"无所不能"恰恰是问题所在。

OpenClaw 上线短短几周内,安全事件已经井喷。来自 Kaspersky、Cisco、CrowdStrike、Trend Micro 等安全厂商的报告描绘了一幅触目惊心的画面:

  • 近 1000 个暴露的 OpenClaw 实例被安全研究员通过 Shodan 发现,这些实例无需认证即可访问,泄露了 API 密钥、Telegram bot token 和完整聊天记录(Kaspersky
  • 安全审计发现 512 个漏洞,其中 8 个为高危,包含一个 CVSS 8.8 的远程代码执行漏洞 CVE-2026-25253(BitSight
  • 研究人员证明:仅凭一封精心构造的邮件,就能通过 prompt injection 诱导 OpenClaw 窃取私有 SSH 密钥和 API token(Trend Micro
  • ClawHub 技能市场中 36% 的技能存在安全缺陷,1467 个含恶意载荷(Snyk
  • 工信部专门发布了《关于防范 OpenClaw 开源 AI 智能体安全风险的预警提示》

Cisco 的分析一针见血:OpenClaw 的安全问题不是配置问题,而是架构问题——它的官方文档自己都写着:"there is no 'perfectly secure' setup"。

这些是行业公开的安全报告。那么,如果我们对一个实际运行中的 OpenClaw 实例做深度审计,会看到什么?

我们的审计结果

我们用 AI Observe Stack 对一个真实的 OpenClaw 实例进行了 7 天的全量可观测审计,记录了每一次 LLM 调用、每一次工具执行、每一条日志。结果如下:

  • Agent 自主执行了 31 次 shell 命令,包括文件操作和网络请求
  • Agent 访问了 40 个外部网站,其中部分内容包含 prompt injection 标记
  • 一个用户的单次提问触发了 19 轮 LLM 调用,累计消耗 784 万 tokens
  • 在外部网页返回的内容中,检测到 "ignore previous instructions" 等注入模式
  • 行业报告告诉你"有风险",而可观测数据让你亲眼看到风险在哪里、有多大

你以为你在用 AI,其实 AI 在用你的权限

而且,正如 Trend Micro 所指出的,这些问题不是 OpenClaw 独有的,而是 Agent AI 范式的固有问题。几乎所有具备工具调用能力的 AI Agent 都会面临同样的困境。

三个黑盒问题:从 OpenClaw 看所有 AI Agent

OpenClaw 的审计结果揭示了 AI Agent 的三个本质性黑盒问题。传统软件有日志、有监控、有审计,但 AI Agent 不一样——它的行为是非确定性的、上下文驱动的、自主决策的。

黑盒一:安全黑盒

在 OpenClaw 的审计中,我们看到 Agent 执行了 curl 访问外部 URL、用 exec 操作文件系统、通过 gateway 向用户发送消息。这些操作都是 Agent 自主决定的,用户并不知情。

这不是 OpenClaw 的特例。任何具备工具调用能力的 AI Agent 都可能执行 shell 命令(rm -rfsudo)、读取敏感文件(.ssh/id_rsa.env)、发送网络请求(curlscp)。更危险的是,当 Agent 浏览网页时,恶意网站可以在页面中嵌入 prompt injection 内容——Agent 读到 "ignore previous instructions" 时,它可能真的会执行。

你完全不知道它干了什么

黑盒二:成本黑盒

OpenClaw 中最极端的案例:一个用户问题触发了 19 轮 LLM 调用。Agent 的"思考链"是这样的——先搜索网页、再浏览页面、再执行命令、再总结结果。每一步都是一次 LLM 调用,而每次调用都携带了完整的对话历史

这就是 context window 的滚雪球效应:第一轮调用 3000 tokens,第二轮 8000,第三轮 25000……到第 19 轮已经膨胀到几十万 tokens。一个问题的成本可能是你预期的 100 倍。

这个问题在所有 AI Agent 中普遍存在。月底账单才知道花了多少

黑盒三:行为黑盒

OpenClaw 的 工具调用错误率,exec 的调用次数,部分请求的 P95 延迟远是否高于平均值。但如果没有可观测体系,这些数据你根本看不到。

当用户投诉"AI 回答慢"或"AI 回答不准"时,你无法复盘——不知道是 LLM 慢、工具调用失败、还是 Agent 进入了死循环。

出了问题无法复盘

解决方案:用可观测性打开黑盒

AI Observe Stack 简介

AI Observe Stack 是一个开源的 AI 可观测平台,专为 AI Agent 场景设计。它基于三个成熟的开源项目:

组件职责
OpenTelemetry Collector遥测数据网关,接收 OpenTelemetry 协议数据
Apache Doris存储层,VARIANT 类型 + 倒排索引,天然适配半结构化数据
Grafana + Doris App 插件可视化层,支持 SQL 查询和预置 Dashboard

架构

AI Agent 可观测架构.png

核心优势:

  • Traces、Metrics、Logs 三合一:不是三套系统,而是统一采集、统一存储、统一查询
  • SQL 查询:不需要学新的查询语言,标准 SQL 即可分析所有数据
  • 实时分析:数据写入即可查询,不需要等待 ETL 或预聚合
  • 5 分钟部署:一条 docker compose up -d 搞定
本文使用开源 Apache Doris 进行演示。如果你的 AI Agent 已经在生产环境运行,需要更高的可用性、弹性扩缩容和免运维体验,可以使用 阿里云 SelectDB 云数据库 ——基于 Apache Doris 的全托管云服务,即可获得开箱即用的生产级可观测存储。

用 AI Observe Stack 观测 OpenClaw

说了这么多问题,怎么解决?我们用 AI Observe Stack 对 OpenClaw 做了完整的可观测接入。以下所有数据来自真实的 OpenClaw 运行环境,通过三个预置 Dashboard 呈现。

安全审计:你的 Agent 在执行什么命令?

这是你最应该关心的问题。

打开 Security 与 Audit Dashboard,顶部四个指标卡片一目了然:

安全审计.png

  • Dangerous Commands:检测到的危险 shell 命令数量(rm -rfsudochmod 777curl | sh 等)
  • Prompt Injection:外部内容中检测到的注入模式数量(ignore previous instructionsyou are nowDAN mode 等)
  • Outbound Actions:Agent 主动发出的对外操作(发邮件、发消息、调用外部 API)
  • Sensitive File Access:Agent 访问敏感文件的次数(.ssh/id_rsa.envcredentials.json 等)

数字变红意味着需要立即关注。

Security Event Timeline

往下看时间线图,可以看到安全事件的时间分布:

Security Event Timeline.png

每种颜色代表一类操作:橙色是 shell 命令执行,蓝色是浏览器操作,紫色是网页抓取,红色是 gateway 调用。如果某个时段出现异常的操作尖峰——比如凌晨 3 点突然执行了大量 shell 命令——你需要警觉。

Top Risk Sessions

哪些会话最危险?Top Risk Sessions 表格按风险评分排序:

Top Risk Sessions.png

风险评分算法:exec×3 + web×2 + outbound×5 + error×1 + sensitive_file×10。得分越高,越需要优先审查。

展开折叠面板,可以深入查看每个风险类型的详细记录:

  • Dangerous Command Detection:每条危险命令的执行时间、会话 ID、风险类别(DESTRUCTIVE / PRIVILEGE\_ESCALATION / DATA\_EXFIL / CREDENTIAL_ACCESS)和完整命令内容

Top Risk Sessions-1.png

  • Prompt Injection Detection:检测到的注入内容、风险类型(INJECTION\_PATTERN / ROLE\_HIJACK / HIDDEN_INSTRUCTION / JAILBREAK)和来源工具

Top Risk Sessions-2.png

  • Outbound Data Flow Audit:所有对外操作的记录,包括发送的邮件、消息和网络请求

Top Risk Sessions-3.png

  • Sensitive File Access Log:敏感文件访问明细,按文件类型分类(SSH\_KEY / ENV\_FILE / CREDENTIALS 等)

Top Risk Sessions-4.png

  • User Message Audit Trail:完整的用户消息审计轨迹,按渠道分类(WhatsApp / Web),可搜索过滤

Top Risk Sessions-5.png

  • Tool Execution Log:所有工具执行的完整日志,包含工具名、执行状态(OK / ERROR)和返回内容,用于取证分析

Top Risk Sessions-6.png

  • Tool Calls vs Errors Over Time:工具调用总量与错误数的趋势对比,错误率突增可能意味着 Agent 正在尝试越权操作

Top Risk Sessions-7.png

关键发现:通过这个 Dashboard,我们可以去发现 Agent 在处理某些用户请求时,是否会主动执行 curl 命令访问外部 URL,是否执行了危险的命令,如 rm, 返回的内容中是否包含了 prompt injection 标记。预防间接提示注入攻击链

成本分析:一个问题花了多少钱?

打开 Cost 与 Efficiency Dashboard,先看概览:

成本分析.png

Token Usage Over Time

时序图显示 token 消耗趋势,按模型分别统计 input 和 output:

成本分析-1.png

右侧的饼图展示各模型的 token 占比,帮你看清成本主要花在了哪个模型上。

Context Window 滚雪球效应

这是最值得关注的图表——Input Tokens per Turn(Context Window Growth)

成本分析-2.png

每条线代表一个会话。你可以清晰地看到滚雪球效应:随着对话进行,每次 LLM 调用携带的 input tokens 持续增长——因为每次调用都带上了完整的对话历史。

一个会话的 input tokens 可能从几千膨胀到几十万。这意味着一个用户问了 19 个问题,最后一个问题的 input 成本可能是第一个问题的 100 倍

Per-Question Cost(每个问题花了多少?)

这个表格把成本拆解到每个用户问题:

成本分析-3.png

  • ai_steps:这个问题触发了多少轮 LLM 调用(蓝色越深,轮数越多)
  • total_input:累计 input tokens(红色越深,成本越高)
  • user_question:用户问了什么

你会发现,一些看似简单的问题——比如"帮我查一下这个网站的信息"——实际触发了 Agent 的长链路操作:先搜索、再浏览、再总结、再确认,每步都是一次 LLM 调用。一个问题可能消耗几十万 tokens

行为分析:Agent 在做什么?

打开 Agent Behavior Dashboard,从全局视角看 Agent 行为。

性能概览

行为分析.png

  • Avg Request Latency:用户发出请求到得到回复的平均时长
  • Avg Turn Duration:Agent 每个思考回合的平均耗时
  • Total Spans:总 Span 数(衡量 Agent 活跃度)
  • Trace Chains:Trace 链路数(衡量请求复杂度)

Tool 调用分布

行为分析-1.png

Tool Call Summary 表格展示了每个工具的全貌:

行为分析-2.png

关键发现

  • browser 工具的被调用 40 次,是使用此时最多的 tool
  • exec 被调用了 31 次——每次调用都应该被审查
  • web_fetch 占总调用量的大头,这意味着 Agent 花了大量时间在抓取外部内容

Span Performance Summary

深入到 Span 级别的性能分析:

行为分析-3.png

可以看到 openclaw.request(端到端延迟)的 P95 远高于平均值——说明存在长尾请求。通过 Trace 链路,你可以定位到是哪个工具调用或 LLM 调用拖慢了整个请求。

Conversation Flow

行为分析-4.png

这是一张完整的对话流水表,按时间倒序展示 Agent 与用户的每一次交互。你可以清晰地看到一个请求的完整生命周期:用户发问 → Agent 思考 → 调用工具 → 获取结果 → 生成回复。每行的 msg_role 用颜色区分:蓝色是用户消息,绿色是 Agent 回复,橙色是工具返回。当你在其他面板中发现异常时,可以在这里定位到具体的对话上下文,进行逐条复盘。

日志探索:Doris App Discover

Dashboard 提供的是预定义的分析视角,但实际排查问题时,你往往需要自由探索原始数据。Doris App 插件内置的 Discover 功能正是为此设计。

在 Grafana 左侧导航栏进入 Doris App - Discover,你会看到一个类似 Kibana 的日志探索界面:

日志探索.png

顶部的查询栏支持两种模式:SQLLucene。SQL 模式下你可以写任意 WHERE 条件,比如 log_attributes['type'] = 'message' 精确筛选 Agent 的对话消息;Lucene 模式则提供全文搜索能力,适合模糊查找关键词。

点击展开任意一条日志,可以看到完整的结构化详情:

日志探索-1.png

展开后的 Table 视图将每个字段清晰列出,JSON 视图则展示原始数据结构。你可以直接看到 Agent 的完整消息内容——包括它的思考过程(thinking)、执行的命令、调用的模型和 token 消耗。点击 "Surrounding items" 还能查看上下文日志,还原完整的事件时间线。

Discover 在以下场景特别有用:

  • 即席查询:Dashboard 没有覆盖的分析需求,直接写 SQL 探索
  • 关键词搜索:搜索特定的错误信息、文件路径或命令内容
  • 数据验证:确认数据采集是否正常,检查字段格式是否符合预期

深入追踪:Doris App Trace 分析

三个 Dashboard 提供了全局视角,但当你需要深入到单个请求的完整调用链时,Doris App 插件内置的 Trace 功能是更强大的工具。

在 Grafana 左侧导航栏进入 Doris App - Traces,你会看到一个专业的 Trace 搜索界面:

深入追踪.png

你可以按 Service、Operation 筛选,也可以通过 Tags 精确搜索(例如 http.status_code=200 error=true),或按 Duration 范围过滤出慢请求。散点图直观展示了每个 Trace 的耗时分布——那些远高于平均线的点就是需要关注的异常请求。

点击任意一条 Trace,进入 Waterfall 视图

深入追踪-1.png

这个视图把一个 Agent 请求的完整生命周期展开成调用链:openclaw.agent.turn 是父 Span,耗时 38.33 秒;其下的 tool.browsertool.web_fetch 等子 Span 展示了 Agent 在这次回合中依次调用了哪些工具、每个工具花了多长时间。

Trace 分析在以下场景特别有价值:

  • 慢请求定位:用户反馈"AI 回复太慢",通过 Trace 精确定位是 LLM 推理慢还是某个工具调用卡住了
  • 异常行为取证:安全审计中发现可疑操作,通过 Trace ID 追溯完整的调用上下文
  • Agent 行为理解:直观看到 Agent 的"思考过程"——它先调了什么工具、再调了什么、为什么耗时这么长

Dashboard 告诉你"有问题",Trace 告诉你"问题在哪里"。

5 分钟部署

第一步:启动 AI Observe Stack

git clone https://github.com/ai-observe/ai-observe-stack.git
cd ai-observe-stack/docker
docker compose up -d

等待 Doris 就绪(首次约 3 分钟):

docker compose ps
# 确认所有服务 STATUS 显示 "running",doris 显示 "(healthy)"
生产环境可以使用 阿里云 SelectDB 云数据库 替代本地 Doris,详见下方 生产环境:对接 SelectDB Cloud

第二步:对接你的 AI Agent

以 OpenClaw 为例,安装社区 OTel 插件并配置 OpenTelemetry endpoint:

# 安装插件
mkdir -p ~/.openclaw/plugins
cd ~/.openclaw/plugins
git clone https://github.com/henrikrexed/openclaw-observability-plugin otel-observability
cd otel-observability && npm install

~/.openclaw/openclaw.json 中配置:

{
  "plugins": {
    "load": {
      "paths": ["~/.openclaw/plugins/otel-observability"]
    },
    "entries": {
      "otel-observability": {
        "enabled": true,
        "config": {
          "endpoint": "http://127.0.0.1:4318",
          "protocol": "http",
          "serviceName": "openclaw",
          "traces": true,
          "metrics": true
        }
      }
    }
  }
}

启动日志采集(因为社区插件不导出日志,需要通过 filelog 方式采集)。注意:以下命令中的 $(pwd) 指向第一步 clone 的 ai-observe-stack/docker 目录,请确保在该目录下执行:

docker run -d \
  --name openclaw-log-collector \
  --network docker_aiobs-net \
  -v ~/.openclaw/logs:/openclaw-logs:ro \
  -v ~/.openclaw/agents:/openclaw-agents:ro \
  -v $(pwd)/../examples/openclaw/otel-collector-log-config.yaml:/etc/otelcol-contrib/config.yaml:ro \
  otel/opentelemetry-collector-contrib:0.144.0 \
  --config=/etc/otelcol-contrib/config.yaml

重启 OpenClaw:

openclaw gateway restart

第三步:打开 Dashboard

打开 Grafana(http://localhost:3000,默认账号 admin / admin),三个 OpenClaw Dashboard 已经预置好了,无需手动导入:

  • Security 与 Audit Dashboard — 安全审计
  • Cost 与 Efficiency Dashboard — 成本分析
  • Agent Behavior Dashboard — 行为分析

对接 OpenClaw 并产生数据后,Dashboard 会自动展示分析结果。你的 AI Agent 的一切行为,现在都在你的掌控之中。

生产环境:对接阿里云 SelectDB

上面的一键部署包含了内置的 Doris 实例,适合本地体验和开发测试。如果你的 AI Agent 已经在生产环境运行,推荐使用 阿里云 SelectDB 云数据库 作为 AI Observe Stack 的后端存储,免去运维负担。

只需将第一步替换为以下操作,其余步骤完全一致:

# 1. 配置连接信息
cp .env.example .env
# 编辑 .env,填入 SelectDB Cloud 连接信息:
DORIS_FE_HTTP_ENDPOINT=http://<your-cluster>.selectdb.com:http_port
DORIS_FE_MYSQL_ENDPOINT=<your-cluster>.selectdb.com:mysql_port
DORIS_USERNAME=admin
DORIS_PASSWORD=<your-password>

# 2. 使用 without-doris 模式启动(不启动本地 Doris,数据直接写入云端)
docker compose -f docker-compose-without-doris.yaml up -d

不只是 OpenClaw

虽然本文以 OpenClaw 为例,但 AI Observe Stack 的设计是通用的。任何支持 OpenTelemetry 的 AI Agent 框架都可以接入:

  • 数据采集:通过 OpenTelemetry 协议(gRPC :4317 / HTTP :4318)发送 Traces 和 Metrics;通过 filelog receiver 采集日志
  • 数据存储:Apache Doris 的高效列式存储,VARIANT 类型天然适配半结构化 JSON 的可观测数据,倒排索引自动加速文本检索等查询
  • 数据分析:标准 SQL 查询,你可以自由编写任何分析逻辑

无论你用的是 LangChain、AutoGen、CrewAI 还是自研的 Agent 框架,只要输出 OpenTelemetry 格式的遥测数据,就能接入这套体系。

结语

如果你正在运行 AI Agent,你需要回答一个问题:

你知道它在做什么吗?

它执行了哪些命令?访问了哪些文件?调用了哪些外部服务?花了多少 token?有没有被注入攻击?

如果你回答不了这些问题,那你的 AI Agent 就是一个黑盒——一个拥有你全部权限的黑盒。

AI Observe Stack 的目标,就是为每一个 AI Agent 装上一扇“透明玻璃窗”

让黑盒变白盒,让不确定性变得确定。

我们相信,可观测性是 AI 大规模落地的基石。

开源不应孤独, 如果你也认同这个理念,欢迎给我们的项目点个 Star,支持我们继续为 AI 的安全保驾护航。 GitHub 地址:https://github.com/ai-observe/ai-observe-stack

想立刻体验? 

无论你是 OpenClaw 的玩家,还是正在开发自己的 AI Agent,都可以在几分钟内快速部署这套观测栈:

  • 省心的云上部署:使用 阿里云 SelectDB 云数据库 ,无需自己维护数据库。
  • 免费的开源部署:喜欢 DIY 的朋友可以选择 Apache Doris。

导读:

易车引入 Apache Doris 取得以下核心成果:

  • 替换 Druid、Kudu、ClickHouse 等近 10 种数据引擎
  • 构建 Apache Doris + Paimon + Hive 湖仓架构
  • 探索 Doris + AI(ChatBI、Data Agent)融合应用
  • 覆盖实时多维分析、用户画像、BI 报表等核心场景

数据的爆发式增长与业务对实时性的极致追求,驱动易车技术团队在实时湖仓建设上持续探索。目前易车已基于 Apache Doris + Paimon + Hive 构建了湖仓一体化数据平台,实现架构收敛统一:**逐步替换 Druid、Kudu、HBase、MongoDB、ClickHouse 等近 10 种引擎。**广泛应用于实时多维分析、用户画像及标签体系、BI 报表(实时报表、仪表盘)等核心场景。在此基础上,团队进一步探索 Apache Doris + AI 的融合应用,为智能化业务提供实时、统一的数据底座。本文将具体讲述易车数据平台架构的演进及具体实践。

一、早期架构:多引擎混用,流批难统一

img

易车数据平台的数据源丰富多样,涵盖业务日志、业务数据库(RDS/自建库)、消息系统、接口数据、第三方 API 及应用程序等。

团队通过内部数据集成工具将多源数据统一接入数据平台:底层离线数仓以 Hive 为主、基于 Hudi 构建数据湖;半结构化数据则主要存储在 Elasticsearch、HBase、MongoDB 中。

在 OLAP 引擎层面,团队先后使用过 Kudu、Kylin、Druid、ClickHouse 等多种引擎,即席分析 MPP 架构方面则使用了 Impala、Spark、Presto 等计算引擎,为数据分析、实时大屏、实时指标、个性化推荐等上层应用提供服务。

然而,早期架构链路复杂,面临多重挑战:

  • 开发效率低:不同业务场景需适配不同技术栈,开发人员需掌握多种引擎,上手慢、协同难。
  • 运维负担重:组件林立,维护难度大,故障排查链路长且复杂。
  • 流批割裂:实时与离线计算分离,无法通过一套架构同时满足,且实时性表现不足。

二、引擎选型:从 ClickHouse 到 Apache Doris

为满足快速响应、统一架构等新需求,团队决定对湖仓架构进行持续迭代与升级。在引擎选型上,ClickHouse 曾是易车选择的过渡方案,但随着业务深入,其短板愈发凸显:

  • 高频小批量写入场景支持不佳;
  • 数据一致性保障较弱;
  • 复杂多表关联查询场景下,查询性能有限;
  • 运维成本较高,生态不够丰富。

因此,团队开始评估新的 OLAP 引擎。Apache Doris 凭借以下优势成为最终选择:

  • 架构简洁:Doris 仅由 FE 和 BE 两类组件构成,支持数据自动均衡分布,无需手动配置分布式表,相比 ClickHouse 极大简化了运维。
  • 实时性更强:Doris 支持数据实时同步、更新与删除,且变更实时可见;ClickHouse 则多为后台异步执行,一致性较弱。
  • 查询性能优越:基于 MPP 架构与 Pipeline 模型,Doris 实现了高吞吐实时写入与高并发点查的兼顾;其查询优化器针对多表关联、聚合等复杂算子深度优化,即使在大数据量下仍能保持秒级响应。
  • 生态友好:Doris 原生兼容 MySQL 协议,可无缝对接各类 BI 工具,降低学习与集成成本;ClickHouse 则需使用特定 SQL 方言,学习成本较高。

综合以上考虑,团队最终选择 Apache Doris 作为核心 OLAP 引擎。在实际落地过程中,Doris 不仅在查询性能上表现稳定,其湖仓一体能力更是超出预期。

三、Apache Doris:湖仓一体,融合统一

Apache Doris 的湖仓一体能力,体现在三个维度:

  1. 可扩展的多源数据连接:

    1. Doris 定义了标准三层元数据模型:数据目录(Catalog)、数据库(Database)、数据表(Table)。无论是 Hive、Iceberg、Hudi、Paimon,还是支持 JDBC 协议的数据库系统,Doris 均能轻松连接并高效提取数据。
  2. 便捷的跨源联邦查询:

    1. Doris 支持在运行时动态创建多个数据源连接器,通过标准 SQL 即可实现对多个异构数据源的联邦查询。其联邦查询能力对标 Presto/Trino,能够在不移动现有数据的前提下,轻松完成跨平台的统一数据查询与分析,极大降低数据冗余和迁移成本。
  3. 高性能的数据处理

    1. 执行引擎:基于 MPP 架构与 Pipeline 执行模型,支持数据实时写入与高并发等值点查。
    2. 查询优化:针对多表关联、聚合、排序、分页等复杂 SQL 算子深度优化,内置高性能查询优化器,自动生成最优执行计划。
    3. 多模数据处理:原生支持 JSON、Variant 等半结构化数据类型,实现对结构化、半结构化、非结构化数据的统一分析与处理,满足多样化业务场景需求。

img

四、架构升级:存储、计算、查询统一

引入 Apache Doris 后,构建了全新的湖仓一体融合架构,整体设计如下图所示:

img

  • 数据接入:实时数据链路中,业务数据库数据通过 Kafka、Flink CDC 实时写入 Doris;离线数据仍同步至 Hive 数仓,完成分层建模。
  • 实时处理:在 Doris 内部完成实时分层建设后,通过 Catalog 方式统一挂载 Hive、Hudi、Paimon 等外部数据源,实现离线数据查询与实时数据计算的无缝融合。
  • 统一查询入口:Doris 作为统一的查询引擎,可屏蔽底层异构存储与计算引擎的差异,向上支撑各类业务场景,大幅简化上层应用对接。

升级前后架构对比如下,可看到整体收益明显:

img

  • 组件统一,运维成本大幅降低: 此前,团队需同时维护 ClickHouse、Druid、Impala、Kylin、Kudu 等多种引擎,组件繁多且分散。统一至 Apache Doris 后,引擎数量锐减,技术栈得以收敛,运维负担显著减轻。
  • 架构简化,接入与开发效率提升: Doris 原生兼容 MySQL 协议与标准 SQL,极大降低了业务侧的接入门槛与学习成本。同时,团队基于 Doris 实现了统一的元数据服务与权限控制,避免了多套系统间的权限割裂,整体架构链路更简洁。
  • 融合统一,存储与计算一体化: 在存储层面,Apache Doris 既可承载离线数据存储,也可承载实时增量数据存储,实现存储一体化;在计算层面,Apache Doris 可统一承载实时数据分析与离线数据分析任务,实现流数据与批数据的统一分析。

五、智能分析:AI + Lakehouse 的探索与实践

在 AI 技术迅猛发展的当下,Apache Doris 积极推动 Data + AI 的深度融合与创新,这与易车在 AI 业务领域的探索方向高度契合。在构建湖仓一体架构的基础上,易车数据团队进一步探索了 Doris + AI 的融合应用,将 Doris 打造为面向智能化场景的数据底座,赋能上层 AI 应用与智能代理。

易车对数据引擎在 AI 场景下的应用有着迫切需求,而 Apache Doris 4.0 版本 引入了向量检索、混合检索以及 AI 原生函数,使得结构化分析与语义检索能够在同一系统中完成。并提供了面向 Agent 的 MCP 交互能力,能够有效支撑易车在 AI 业务中的实践。

img

  1. 能力底座:为 AI 提供统一数据入口

Apache Doris 天然支持多源联邦查询,可无缝对接 MySQL、Hive、PostgreSQL、Hudi 等异构数据源。这意味着,上层 AI 应用无需关心数据实际存储在何处,只需通过 Doris 即可统一访问数仓内的离线历史数据、实时增量数据以及业务库中的维度信息。这种能力为 AI 模型训练、特征工程、实时推理等场景提供了高效、统一的数据供给通道。

  1. Doris MCP:开放数据能力,赋能智能代理

Apache Doris 开源了 Doris MCP 工具,为 AI 代理与数据平台的交互提供了标准化接口。团队基于 Doris MCP 及内部二次开发,构建了一套面向智能代理的数据服务层,支持通过 MCP 执行 SQL 查询、获取库表 Schema、列举表列表、检索字段信息等操作。这些能力被封装成可复用的 API,使得上层 AI 应用能够以自然语言或结构化方式快速获取所需数据上下文,极大降低了智能代理接入数据平台的复杂度。

  1. 场景实践:AI 应用落地探索

易车基于 Apache Doris,已在多个智能化场景中落地应用,具体包括:

  • 智能化运维与管理: 支撑数据治理、资产管理、自动化运维等 Agent,实现数据任务的智能调度与异常自愈;
  • 交互式智能分析: 赋能内部 Data Agent 及智能助手 ChatBI,支持自然语言问答、业务指标查询等交互式分析场景;
  • 语义理解与知识服务: 为问答系统、知识库等应用提供底层支持,并基于 Doris 实现知识向量的实时更新与混合检索,构建统一的语义记忆层。

Doris 社区目前还在 AI 侧发力,未来易车数据团队也会持续跟进与参与 Doris MCP 的建设。此外,Apache Doris 4.0 版本已支持混合检索分析、AI 原生函数等。易车数据团队也将在此版本上进一步探索。

六、结束语

从多引擎混用到统一架构,从离线分析到实时智能,易车数据平台在 Apache Doris 的加持下,完成了从"支撑业务"到"驱动业务"的跨越。未来,随着存算分离架构的落地和 AI 能力的深度融合,我们将持续打造更高效、更智能的数据基础设施,为业务创新提供源源不断的数据动力。

当前易车数据平台主要运行在 Doris 2.0 版本之上,下一步将全面升级至存算分离架构。 通过存算解耦与冷热分层,进一步降低存储成本、提升查询效率,为业务增长释放更多资源。

云基础设施的成熟,推动了 Apache Doris 存算分离架构商业化的实现。SelectDB Cloud阿里云数据库 SelectDB 版 均基于 Apache Doris 内核构建,二者均采用存算分离架构,为企业提供更加弹性、易管理的部署模式。

  • SelectDB Cloud:多云适配,支持阿里云、华为云、AWS 等平台以 SaaS 模式部署,并提供 BYOC(自带云)模式,满足数据合规与成本控制需求。
  • 阿里云数据库 SelectDB 版:作为阿里云原生服务,与 VPC、RAM 权限、监控等云服务无缝集成,提供类似用户 VPC 内自建的网络体验与便捷管理。

今日速览

  1. Aident AI Beta 2:用简单英语管理千种自动化。
  2. MacBook Neo:苹果新品,性价比超高的笔记本。
  3. Heywa:把问题变成可点击的视觉故事。
  4. Coursekit:课程页面一键生成 AI 助教。
  5. Golf:企业级 AI 代理的安全控制中心。
  6. Willow Voice for Teams:语音输入替代键盘,团队协作更高效。
  7. Parsewise:智能代理批量处理文档,告别黑箱。
  8. Codex app for Windows:Windows 原生运行,安全编码不扰环境。
  9. Hermit:导出 ChatGPT 记忆,无缝切换语言模型。
  10. Supa Social:自建社区平台,几分钟搞定部署。

深度阅读

1. Aident AI Beta 2

这款 AI 助手能让你用大白话管理自动化,告别复杂设置,直接在聊天工具里搞定一切。

  • 支持 Discord、Slack、X、Shopify 等平台,集成超 1000 种。
  • 用简单英语触发操作,覆盖 23000 多种动作和 1000 多个模板。
  • 实时监控运行状态,审批流程和问题一目了然。
    热度:🔺374
    Aident AI Beta 2
    访问官网 Product Hunt 详情


2. MacBook Neo

苹果新出的笔记本,铝合金机身配惊艳屏幕,续航给力,价格亲民到让人心动。

  • 13 英寸 Liquid Retina 显示屏,视觉效果出众。
  • 搭载苹果自家芯片,性能强劲。
  • 超长电池续航,全天使用无压力。
  • 起售价仅 599 美元,性价比超高。
    热度:🔺370
    MacBook Neo
    访问官网 Product Hunt 详情


3. Heywa

别再盯着 ChatGPT 的文字墙了,Heywa 能把你的问题秒变视觉故事,浏览起来超轻松。

  • 动态构建视觉体验,支持浏览、比较和深度探索。
  • 无需打开多个标签页,快速响应提问。
  • 告别冗长聊天回复,直观呈现信息。
    热度:🔺288
    Heywa
    访问官网 Product Hunt 详情


4. Coursekit

想为课程加点 AI 魔法?Coursekit 能一键把销售页面变成定制化工具,服务学生全天候。

  • 粘贴课程网址,自动分析并生成 AI 工具。
  • 工具体现品牌形象,无需编写代码。
  • 提供 24/7 指导,提升学习体验。
    热度:🔺250
    Coursekit
    访问官网 Product Hunt 详情


5. Golf

企业级 AI 代理越来越多,Golf 帮你集中管理,确保安全合规,控制得明明白白。

  • 集中可视化 AI 代理和多云平台服务器。
  • 实施政策控制和审计跟踪。
  • 保障安全性、合规性和控制力。
    热度:🔺200
    Golf
    访问官网 Product Hunt 详情


6. Willow Voice for Teams

团队协作还在敲键盘?Willow 用语音 AI 识别专业术语,共享快捷方式,效率翻倍。

  • 准确识别公司名称、缩写和行业术语。
  • 创建共享快捷方式,一键插入邮箱签名或模板。
  • 符合 SOC 2 和 HIPAA 标准,安全可靠。
  • 上下文智能语音输入,格式完美转换。
    热度:🔺179
    Willow Voice for Teams
    访问官网 Product Hunt 详情


7. Parsewise

文档处理太头疼?Parsewise 派智能代理上阵,批量分析,追溯来源,透明无黑箱。

  • 一次性分析成千上万文档,提取信息和交叉引用。
  • 输出精确追溯来源,确保推理透明。
  • 无需编码,轻松配置代理,支持多种文档类型。
    热度:🔺157
    Parsewise
    访问官网 Product Hunt 详情


8. Codex app for Windows

OpenAI 官方 Codex 桌面应用登陆 Windows,原生运行加安全沙盒,编码代理不扰本地环境。

  • 原生支持 Windows 系统,并行编码代理。
  • 操作系统级沙箱隔离任务,保护本地环境。
  • 代理可编写、测试和提议代码,专用工作树管理。
    热度:🔺142
    Codex app for Windows
    访问官网 Product Hunt 详情


9. Hermit

切换语言模型怕丢记忆?Hermit 处理完整 ChatGPT 数据,生成结构化档案,无缝导入新平台。

  • 处理完整 ChatGPT 数据导出,生成时间意识档案。
  • 支持粘贴到 Claude Memory、Gemini Gems 等 LLM。
  • 提供免费分析,一次性定价,数据 24 小时内删除。
    热度:🔺128
    Hermit
    访问官网 Product Hunt 详情


10. Supa Social

想自建社区?Supa Social 用 Once UI 和 Supabase 打造,功能齐全,几分钟就能部署上线。

  • 自托管社交平台,支持身份验证、用户资料和通知。
  • 灵活信息流,多种帖子格式,内容审核便捷。
  • 可构建去中心化社区、客户空间或内部中心。
    热度:🔺126
    Supa Social
    访问官网 Product Hunt 详情

简单写个自我介绍。

我在团队里算不上的管理层,没有人事权,也不决定谁走谁留,但我参与的项目一旦出问题,最后都会落到我这里。进度卡住、需求反复、线上事故,会议上可以绕一圈再绕一圈,最终还是要有人把代码改完、把锅兜住。我清楚自己的位置,用武之地比较多的一个“多功能开发者”而已。还依稀记得,当初总部另外一个项目的入侵测,找的还是我,而不是再招一个人。

所以我很少参与评价人,只谈事,谈事实,谈项目是怎么一步步偏离轨道的。

先直接告诉大家结果吧,他被辞退了。

当初公司决定要不要这个人的时候,无意中跟我提到过。我只讲述了几个项目事故,以及其他同事和他合作时的态度。至于留不留他,我不想决定,也决定不了。

那个项目经理,其实并不“坏”。他不吼人,也不甩脸色,会议纪要写得很勤,群里回复永远是“收到”“我跟一下”。问题出在另一层面:需求变更没有留痕,风险评估永远是“可控”,节点延期总能找到外部理由。

上面看到的是一条被不断抚平的曲线,下面看到的是每天被推翻重来的开发计划。我们不是没提醒过,只是提醒被整理成了更好看的版本,再往上递的时候,已经失去了原本的锋利。当然,这些最后都会被归结为一句话——开发同学多努努力,多扩展下思维,补补这个缺点就好了。

但我认为,有些问题其实在内部一直被反复提起,只是从来没有被真正放到台面上说过。

团队里的其他项目经理,大多都有过开发背景。哪怕代码早就不写了,对功能复杂度、实现成本、技术边界心里都是有尺度的。评估的时候会留余量,也知道什么时候该踩刹车。

只有他完全没有开发经验,对一个需求的理解停留在“看起来不难”的层面。既怕自己显得不专业,又怕在会上被认为拖进度,于是每次评估都偏向最激进的版本,功能报得满,时间压到极限。

开发这边明知道不现实,那又怎么办呢?你能说得过他吗?况且领导也是只看结果,活干得快,公司赚得多,干得慢赚得少。所以开发也只能硬着头皮往前推。

一次延期还能解释成意外,两次三次之后,延期就成了默认选项。项目表面上在跑,实际上每一步都在透支客户的耐心。

他甚至能把一个月的功能,压成 7 个工作日。

结果显而易见。项目连夜上线,第二天直接崩溃:APP、小程序白屏,数据无法保存,ToC 的用户一个都打不开。我们凌晨 4 点发完版本,早上 6 点半问题出现,7 点钟起床开始处理。

我起床的时候就已经料到了。项目有他管控着,您就放一万个心吧,麻烦肯定少不了。

当时写功能的时候,有个同事请了丧假。他来了句逆天发言:“到时候你能把电脑带上吗?有事可以找你。”

我当时真想告诉他,兄弟,全公司不是只有他一个前端,这个项目也不是只有他一个前端。人家就请假 3 天,已经很紧张了,还让人把电脑带着,真特么丧良心。

如果他不走,跟这样同事共事,真想跑路了

跑路机会:技术大厂,前端-后端-测试,全国均有机-会,感兴趣可以试试。待遇和稳定性都还不错~

真正的转折点,是那次 A 项目上线。

我没有提任何人的名字,也没有用情绪化的词,只是把时间线拉直:哪一天确认需求,哪一天推翻,哪一天出 PRD,哪一天出 UI,最终导致了什么结果。那份文档写得很长,不好读,也不“体面”,但它有一个特点——每一个问题,都自然地指向了同一个岗位职责。

我提交的时候,甚至没多想,只觉得这次总算把事情说清楚了。

事后我想过,如果我当初不写那份复盘,不跟领导说这些事,会不会结果不同。答案大概是否定的。项目不会因为沉默变好,问题也不会因为不点名而消失。

那天没人替他说话,并不是因为他人缘差,而是因为在那个位置上,他已经很久没有为任何人、任何结果,真正说过一句“这是我的责任”。

系统从来不需要情绪,它只是在某个时刻,停止了包容。

我后来也明白了一件事:在很多公司里,项目经理这个角色,本质上是一个缓冲层。缓冲需求、缓冲压力、缓冲管理层的焦虑。

但一旦缓冲只剩下过滤,没有承担,系统就会重新校准。

那天被裁的不是一个人,而是一种失效的角色设计。

而这件事,迟早会发生在任何一个不再为结果站出来的位置上。

——转载自:狗头大军之江苏分军

OpenClaw 在开发者社区迅速获得 23万+ Stars,因其作为开源、本地优先的个人 AI Agent,能够将大语言模型的推理能力转化为对计算机的实际操作,为构建个人 AI 助手提供了系统级权限与自动化基础。

然而,近期部分平台开始收紧对非官方入口的访问。谷歌以“恶意使用”为由,大规模封禁通过 OpenClaw 路由 Gemini token 的用户账号,Anthropic 随后也更新使用条款,明确禁止通过第三方工具调用 Claude 的 OAuth token。这些事件表明,依赖第三方订阅进行非官方调用存在账号安全风险与服务不稳定性。为规避此类问题,LongCat 团队提供稳定合规的官方免费 API,开发者可通过官方渠道直接接入,在确保账号安全的前提下构建自动化工作流

LongCat API 开放平台:

https://longcat.chat/platform/usage

下文将通过实测数据与典型案例,展示 LongCat-Flash-Thinking-2601 在 OpenClaw 上的性能表现,并附完整部署流程,帮助开发者快速构建个人自动化助理。

01 核心优势

在执行效率方面,LongCat-Flash-Thinking-2601 展现出显著优势。在 21 个可比的非定时任务中,其平均单任务耗时仅为 2.35 分钟,相比对比模型快约 30%。这种高效率在不同复杂度的任务中均有体现:

  • 高频简单任务:如模糊文件搜索与即时发送,可在 30 秒 内完成。
  • 中等常规任务:如文件整理与格式转换,仅需约 2 分钟。
  • 复杂综合任务:如文档生成与网页开发,也能在 3 分钟 内交付可用结果。

在任务完成质量方面,LongCat-Flash-Thinking-2601 在涉及联网信息检索和 GUI 界面生成的场景中,能够准确获取信息并快速生成符合要求的输出,展现出较好的执行效率和稳定的任务完成能力。与此同时,我们也在持续优化模型在系统路径识别、脚本生成一致性等方面的表现,致力于为用户带来更全面、更可靠的自动化体验。

02 技术能力拆解

我们通过一系列开发者日常会遇到的真实场景,进一步来评测 LongCat-Flash-Thinking-2601 在驱动本地 Agent 时的技术表现。速度是贯穿始终的核心优势——无论是秒级的文件检索,还是分钟级的复杂任务编排,它都能快速响应,让开发者真正从重复劳动中解放出来。

场景一:自动化配置Python开发环境(2分钟完成)

复杂任务分解与顺序工具调用,这是 Agent 实现真正自动化的基石。

指令要求:

“在 Downloads 目录下创建一个名为 Projects 的文件夹,初始化一个 Python 3.10 的虚拟环境,安装 flask 和 requests 库,然后用 VS Code 打开这个文件夹…”

技术表现分析:

我们给出的指令包含了一系列连续的、有依赖关系的操作。LongCat-Flash-Thinking-2601接收指令后,精准地对任务进行了拆解:mkdir -> python -m venv -> pip install -> code 。它准确地规划了每一步操作,并依次调用 OpenClaw 提供的 shell 工具来执行。

整个过程在2 分钟内自动完成,没有步骤遗漏或顺序错乱。

场景二:远程图片重绘与跨应用协作(3分钟完成)

一个高效的 Agent 必须能无缝地连接不同的服务。

指令要求:

“把这张图用 Google 的 Nano Banana 重绘成赛博朋克风格,生成好之后通过 iMessage 发给我。”

技术表现分析:

我们通过 iMessage 发送一张图片,这个工作流涉及三个关键点:

  • 通道感知: 理解指令来自 iMessage。
  • 工具选择: 准确识别出需要调用名为 nano-banana 的外部技能 (Skill)。
  • 低延迟执行: 快速完成 API 调用和文件回传。

LongCat-Flash-Thinking-2601 在这个过程中表现出色,成功调度了外部 AI 工具。

按照要求生成并发送了赛博朋克风格的图片,实现了无缝的跨应用协作。

场景三:TGA年度游戏信息网页生成(3分钟完成)

从非结构化信息中提取价值并生成结构化产出,是开发中的高频需求。

指令要求:

“整理2015-2024这十年的TGA年度游戏信息,包括游戏发布时间、游戏简介、IGN评分、其他获奖记录等,并且每部游戏需给出高度概括的一句话评价。按获奖年份顺序进行排序,制作成一个主色调为深蓝+金色的精美网页。”

技术表现分析:

LongCat-Flash-Thinking-2601 在此展示了端到端的能力:

  • 信息合成:调用知识库或搜索工具,获取并整理 TGA 的相关数据。
  • 代码生成:将整理好的数据,结合“深蓝+金色”的设计要求,直接生成包含 HTML 和 CSS 的完整代码文件。

游戏信息介绍按照指令要求展示。

场景四:定制化GitHub每日热榜推送(5分钟自动触发)

最强大的 Agent 是那些无需提醒、能主动为你服务的。指令要求:

“每天下午17:40查询 github 的今日热榜并将其做成一个中文简报(需附带项目链接),完成后通过 imessage 发送给我。”

技术表现分析:

设定一个长期、自动执行的任务,LongCat-Flash-Thinking-2601 成功地设置并执行了 cron 类型的定时任务。它能够在无人干预的情况下,周期性地执行信息获取、处理和推送,成为一个真正的自动化情报助理。

成功定位全部文件,并通过 iMessage 完成发送。

场景五:模糊文件搜索与即时发送(32秒完成)

精准的本地文件检索与跨平台交互,是远程办公场景下的高频需求。

指令要求:

“帮我找一下电脑上《东鞑纪行》有关的文件,格式为 word 或者 pdf,可能在 Downloads 或文档目录下。找到后直接通过 imessage 发送给我。”

技术表现分析:模型需要理解模糊的文件名(“东鞑纪行”可能并非精确文件名)、推测可能的存放位置,然后遍历目录、筛选匹配文件,最后通过 iMessage 完成发送。

LongCat-Flash-Thinking-2601 成功定位到全部 3 个相关文件,并通过 iMessage 发送,文件完整无损。整个过程仅耗时 32 秒,充分体现了其在本地文件系统操作与消息通道集成上的高效率。

03 OpenClaw 部署教程

3.1 环境准备

按照要求生成并发送了赛博朋克风格的图片,实现了无缝的跨应用协作。

在使用OpenClaw前,您需要准备好以下内容:

1.OpenClaw安装包

MacOS 环境下安装命令如下:

# 使用npm安装
npm install -g openclaw@latest

# 或使用pnpm安装
pnpm add -g openclaw@latest

# 或使用curl安装
curl -fsSL https://openclaw.ai/install.sh |bash

Windows PowerShell 环境下安装命令如下:

iwr -useb https://openclaw.ai/install.ps1 | iex

2.LongCat核心配置

支持的模型:

3.2 快速启动

向导启动命令

openclaw onboard --install-daemon

向导配置选项说明

3.3 启动后的配置

向导启动完成后,OpenClaw会自动启动Gateway服务并打开Web控制页面。

默认访问地址:http://127.0.0.1:18789

如果页面没有自动打开,可以手动在浏览器中访问上述地址。

配置文件位置:OpenClaw的配置文件位于:~/.openclaw/openclaw.json

3.4 LongCat模型配置

启动后我们可以通过修改自定义配置来接入LongCat模型。

配置方案一:修改配置文件

  1. 增加自定义模型供应商在openclaw.json中添加models字段:

  1. 修改默认模型设置

修改agents字段,设置默认模型:

修改保存后立即生效。

配置方案二:GUI界面配置

1.在Web控制页面中,进入 Config → Models → Providers

2.添加如下配置:

完整配置示例地址:https://longcat.chat/platform/docs/zh/OpenClaw.html

3.5 开始使用

配置生效后,即可使用 OpenClaw。

打开TUI,并查看Gateway状态

openclaw tui
/status

打开Web UI,在Chat页面进行交互

openclaw dashboard

然后输入测试消息,如:"你好,请介绍一下自己"。

如果配置正确,您将收到来自LongCat模型的回复。

04 更多资源

欢迎通过以下资源开始实践:

期待你的反馈与更多场景的探索。

对于追求极致效率的开发者来说,一个强大的本地 Agent 框架和一个为行动而优化的 AI 模型是天作之合。这套技术栈的核心优势在于,它将自然语言的灵活性与机器执行的精确性高效地结合起来,能够切实地自动化开发者日常工作流中的高频、重复性任务。

| 关注「美团技术团队」微信公众号,阅读更多技术干货!

| 本文系美团技术团队出品,著作权归属美团。欢迎出于分享和交流等非商业目的转载或使用本文内容,敬请注明“内容转载自美团技术团队”。本文未经许可,不得进行商业性转载或者使用。任何商用行为,请发送邮件至 tech@meituan.com 申请授权。

OpenClaw 在开发者社区迅速获得 23万+ Stars,因其作为开源、本地优先的个人 AI Agent,能够将大语言模型的推理能力转化为对计算机的实际操作,为构建个人 AI 助手提供了系统级权限与自动化基础。

然而,近期部分平台开始收紧对非官方入口的访问。谷歌以“恶意使用”为由,大规模封禁通过 OpenClaw 路由 Gemini token 的用户账号,Anthropic 随后也更新使用条款,明确禁止通过第三方工具调用 Claude 的 OAuth token。这些事件表明,依赖第三方订阅进行非官方调用存在账号安全风险与服务不稳定性。为规避此类问题,LongCat 团队提供稳定合规的官方免费 API,开发者可通过官方渠道直接接入,在确保账号安全的前提下构建自动化工作流

LongCat API 开放平台:

https://longcat.chat/platform/usage

下文将通过实测数据与典型案例,展示 LongCat-Flash-Thinking-2601 在 OpenClaw 上的性能表现,并附完整部署流程,帮助开发者快速构建个人自动化助理。

01 核心优势

在执行效率方面,LongCat-Flash-Thinking-2601 展现出显著优势。在 21 个可比的非定时任务中,其平均单任务耗时仅为 2.35 分钟,相比对比模型快约 30%。这种高效率在不同复杂度的任务中均有体现:

  • 高频简单任务:如模糊文件搜索与即时发送,可在 30 秒 内完成。
  • 中等常规任务:如文件整理与格式转换,仅需约 2 分钟。
  • 复杂综合任务:如文档生成与网页开发,也能在 3 分钟 内交付可用结果。

在任务完成质量方面,LongCat-Flash-Thinking-2601 在涉及联网信息检索和 GUI 界面生成的场景中,能够准确获取信息并快速生成符合要求的输出,展现出较好的执行效率和稳定的任务完成能力。与此同时,我们也在持续优化模型在系统路径识别、脚本生成一致性等方面的表现,致力于为用户带来更全面、更可靠的自动化体验。

02 技术能力拆解

我们通过一系列开发者日常会遇到的真实场景,进一步来评测 LongCat-Flash-Thinking-2601 在驱动本地 Agent 时的技术表现。速度是贯穿始终的核心优势——无论是秒级的文件检索,还是分钟级的复杂任务编排,它都能快速响应,让开发者真正从重复劳动中解放出来。

场景一:自动化配置Python开发环境(2分钟完成)

复杂任务分解与顺序工具调用,这是 Agent 实现真正自动化的基石。

指令要求:

“在 Downloads 目录下创建一个名为 Projects 的文件夹,初始化一个 Python 3.10 的虚拟环境,安装 flask 和 requests 库,然后用 VS Code 打开这个文件夹…”

技术表现分析:

我们给出的指令包含了一系列连续的、有依赖关系的操作。LongCat-Flash-Thinking-2601接收指令后,精准地对任务进行了拆解:mkdir -> python -m venv -> pip install -> code 。它准确地规划了每一步操作,并依次调用 OpenClaw 提供的 shell 工具来执行。

整个过程在2 分钟内自动完成,没有步骤遗漏或顺序错乱。

场景二:远程图片重绘与跨应用协作(3分钟完成)

一个高效的 Agent 必须能无缝地连接不同的服务。

指令要求:

“把这张图用 Google 的 Nano Banana 重绘成赛博朋克风格,生成好之后通过 iMessage 发给我。”

技术表现分析:

我们通过 iMessage 发送一张图片,这个工作流涉及三个关键点:

  • 通道感知: 理解指令来自 iMessage。
  • 工具选择: 准确识别出需要调用名为 nano-banana 的外部技能 (Skill)。
  • 低延迟执行: 快速完成 API 调用和文件回传。

LongCat-Flash-Thinking-2601 在这个过程中表现出色,成功调度了外部 AI 工具。

按照要求生成并发送了赛博朋克风格的图片,实现了无缝的跨应用协作。

场景三:TGA年度游戏信息网页生成(3分钟完成)

从非结构化信息中提取价值并生成结构化产出,是开发中的高频需求。

指令要求:

“整理2015-2024这十年的TGA年度游戏信息,包括游戏发布时间、游戏简介、IGN评分、其他获奖记录等,并且每部游戏需给出高度概括的一句话评价。按获奖年份顺序进行排序,制作成一个主色调为深蓝+金色的精美网页。”

技术表现分析:

LongCat-Flash-Thinking-2601 在此展示了端到端的能力:

  • 信息合成:调用知识库或搜索工具,获取并整理 TGA 的相关数据。
  • 代码生成:将整理好的数据,结合“深蓝+金色”的设计要求,直接生成包含 HTML 和 CSS 的完整代码文件。

游戏信息介绍按照指令要求展示。

场景四:定制化GitHub每日热榜推送(5分钟自动触发)

最强大的 Agent 是那些无需提醒、能主动为你服务的。指令要求:

“每天下午17:40查询 github 的今日热榜并将其做成一个中文简报(需附带项目链接),完成后通过 imessage 发送给我。”

技术表现分析:

设定一个长期、自动执行的任务,LongCat-Flash-Thinking-2601 成功地设置并执行了 cron 类型的定时任务。它能够在无人干预的情况下,周期性地执行信息获取、处理和推送,成为一个真正的自动化情报助理。

成功定位全部文件,并通过 iMessage 完成发送。

场景五:模糊文件搜索与即时发送(32秒完成)

精准的本地文件检索与跨平台交互,是远程办公场景下的高频需求。

指令要求:

“帮我找一下电脑上《东鞑纪行》有关的文件,格式为 word 或者 pdf,可能在 Downloads 或文档目录下。找到后直接通过 imessage 发送给我。”

技术表现分析:模型需要理解模糊的文件名(“东鞑纪行”可能并非精确文件名)、推测可能的存放位置,然后遍历目录、筛选匹配文件,最后通过 iMessage 完成发送。

LongCat-Flash-Thinking-2601 成功定位到全部 3 个相关文件,并通过 iMessage 发送,文件完整无损。整个过程仅耗时 32 秒,充分体现了其在本地文件系统操作与消息通道集成上的高效率。

03 OpenClaw 部署教程

3.1 环境准备

按照要求生成并发送了赛博朋克风格的图片,实现了无缝的跨应用协作。

在使用OpenClaw前,您需要准备好以下内容:

1.OpenClaw安装包

MacOS 环境下安装命令如下:

# 使用npm安装
npm install -g openclaw@latest

# 或使用pnpm安装
pnpm add -g openclaw@latest

# 或使用curl安装
curl -fsSL https://openclaw.ai/install.sh |bash

Windows PowerShell 环境下安装命令如下:

iwr -useb https://openclaw.ai/install.ps1 | iex

2.LongCat核心配置

支持的模型:

3.2 快速启动

向导启动命令

openclaw onboard --install-daemon

向导配置选项说明

3.3 启动后的配置

向导启动完成后,OpenClaw会自动启动Gateway服务并打开Web控制页面。

默认访问地址:http://127.0.0.1:18789

如果页面没有自动打开,可以手动在浏览器中访问上述地址。

配置文件位置:OpenClaw的配置文件位于:~/.openclaw/openclaw.json

3.4 LongCat模型配置

启动后我们可以通过修改自定义配置来接入LongCat模型。

配置方案一:修改配置文件

  1. 增加自定义模型供应商在openclaw.json中添加models字段:

  1. 修改默认模型设置

修改agents字段,设置默认模型:

修改保存后立即生效。

配置方案二:GUI界面配置

1.在Web控制页面中,进入 Config → Models → Providers

2.添加如下配置:

完整配置示例地址:https://longcat.chat/platform/docs/zh/OpenClaw.html

3.5 开始使用

配置生效后,即可使用 OpenClaw。

打开TUI,并查看Gateway状态

openclaw tui
/status

打开Web UI,在Chat页面进行交互

openclaw dashboard

然后输入测试消息,如:"你好,请介绍一下自己"。

如果配置正确,您将收到来自LongCat模型的回复。

04 更多资源

欢迎通过以下资源开始实践:

期待你的反馈与更多场景的探索。

对于追求极致效率的开发者来说,一个强大的本地 Agent 框架和一个为行动而优化的 AI 模型是天作之合。这套技术栈的核心优势在于,它将自然语言的灵活性与机器执行的精确性高效地结合起来,能够切实地自动化开发者日常工作流中的高频、重复性任务。

| 关注「美团技术团队」微信公众号,阅读更多技术干货!

| 本文系美团技术团队出品,著作权归属美团。欢迎出于分享和交流等非商业目的转载或使用本文内容,敬请注明“内容转载自美团技术团队”。本文未经许可,不得进行商业性转载或者使用。任何商用行为,请发送邮件至 tech@meituan.com 申请授权。

配置能力:

  • homeassistant
  • Agent Browser 抓取指定页面
  • xiaohongshu-mcp

完成的任务总结

  • 一句话安装 skills 和增加定时任务
  • SSH 服务器批量连接测试
  • Agent Browser 安装测试并成功抓取 bilibili 69aa7571e261f.png
  • 监控 claude code 会话框确保任务完成
  • 港股 IPO 上新提醒 69aa75415b7eb.png
  • 根据 HomeAssistant 天气组件和温湿度计数据,检测到湿度大于 90%,给房间开一小时除湿模式 69aa758b81f79.png
  • 小红书搜索相关帖子 69aa75d86c231.png
  • 给 ESP32-C3 擦除 NVS 分区 69aa75af9e76e.png

每日定时任务

  • 港股新股 IPO 提醒
  • 温湿度检测

使用情况

  • ChatGLM Coding Pro 套餐
  • GLM4.7
  • Telegram 聊天
    69aa6f428b27b.png