java version "22.0.2" 2022-07-19
Java(TM) SE Runtime Environment (build 18.0.2+9-61)
Java HotSpot(TM) 64-Bit Server VM (build 18.0.2+9-61, mixed mode, sharing)
400 Request blocked: context too large (estimated 50012 tokens, limit 50000
without cache). No cache available: tools: not_cached. Reduce context or send
smaller requests first to warm up cache.
第一个部分,选择 AI 服务提供商和具体使用的模型。大部分服务提供商提供了 OAuth 授权认证和直接输入 API 这两种方式,对应了不同的计费方式。
以 Google Gemini 模型为例,如果你选择 OAuth 认证,那么就可以通过 Antigravity 来使用 Google Gemini 3 Pro、Google Gemini 3 Flash、Claude Opus 4.5 和 Claude Sonnet 4.5 等模型,每五个小时刷新一次额度;如果你选择了 Google API,那么就需要到 Google AI Studio 或者 Vertex 创建一个 API Key 来使用,根据 Token / Prompts 的使用量来计费。AI 服务提供商验证通过后,你就可以从服务商提供的模型列表中选择一个你喜欢的模型。
截止成稿时,OpenAI 新推出了 ChatGPT 5.3-Codex,Anthropic 新推出了 Claude Opus 4.6,通常被认为是当前最强梯队的两个模型。
如果你不缺钱,也有稳定的途径订阅官方的付费套餐,那么 ChatGPT Pro 和 Claude Max 自然是最好的选择。如果你没有合适的支付渠道,或者担心被封号,那么也可以通过 OpenRouter 这样的聚合服务商来按照 Token 计价使用这两个最强模型,不过性价比自然就低了许多。
我相信很多人最近趁着 Google的优惠订阅了 Google AI Pro 或者 Ultra 的家庭计划。这种情况下,你有两种选择:一是通过 Google Antigravity 进行 OAuth 授权认证,认证通过后可以使用 Gemini 和 Claude 的模型,每隔一定时间进行额度刷新。不过我自己用下来,发现这种方式很容易出现 rate limit,特别是 Claude 模型,体验不佳;二是直接去 Google AI Studio 申请一个 API,通过 API 来按 Token 计价。最近 Google 又给 Pro / Ultra 订阅用户送了 300 美元的一次性额度和每月 10 美元的额度,应该够你用好一阵子了。
如果你不想花这么多钱在 ChatGPT 或者 Claude 模型上,也搞不定 Google 的付费订阅,那么不妨试一试国产模型。为了测试 OpenClaw,我特意订阅了 MiniMax 和 Kimi 的 Coding Plan,这段时间用下来还是令我有点惊喜,两者最新推出的模型 MiniMax 2.1 和 Kimi K2.5 也都先后被 OpenClaw 的开发者 Peter 本人所推荐。
从我个人的使用体验和 X 上网友们的反馈来看,Kimi K2.5 的工程能力要比 Minimax M2.1 好一点,基本上所有项目都能顺利跑起来。不过,MiniMax M2.1 也有优势,那就是套餐价格更便宜,119 元就能买到顶配套餐,而 Kimi 需要 199 元。响应速度上,我觉得 Minimax M2.1 比 Kimi K2.5 更快一些,适合一些比较轻量级的任务。根据我自己的使用情况,Kimi Code 每月 99 元的 Moderato 套餐不到五天我就用完了,所以要主力使用的话还是需要上 Allegretto 套餐。
如果你想使用另一个 T0 级模型 —— Claude Opus 4.6,又搞不定 Claude 订阅或者担心被封号,那么可以通过 Google Antigravity 来使用(目前需要订阅 AI Ultra 套餐,Pro 套餐暂不开放 Claude Opus 4.6 模型),虽然 Claude 模型的额度比较少,但是轻度体验一下或者作为 Subagents 之一承担一些重要但消耗 Token 较少的任务也未尝不可;如果你搞不定这些海外模型服务的订阅或者 Credits 购买,那么直接用 Kimi、MiniMax、Qwen 这些国产模型也是一个不错的选择,至少把 OpenClaw 跑起来轻度体验一下没有什么问题。
现在,我已经习惯了通过 OpenClaw 来获取信息或者进行研究分析,一方面它可以聚合多个 AI 模型服务,随时切换调用,另一方面像飞书这一类 IM 工具在对话场景下拥有比 AI 应用更好的界面交互体验。比如说,我会在 OpenClaw 上与 Bot 交流自己的投资思考、查询地址邮编、总结文档内容、抓取 X 贴文内容等,感觉一天到晚有说不完的话。
编程小能手
大语言模型在 2025 年的进化已经完全证明了零编程基础的人也可以轻松完成以往遥不可及的编程工作,这就是 2025 年风靡一时的概念 —— Vibe Coding。随着 Claude Code、Codex、Antigravity 等工具的推出,以及 Xcode 也支持了 ChatGPT 和 Claude 模型来进行 AI 编程,像我这样的普通人也获得了亲手打造产品的能力。
想象一下,你自己就是一个产品经理,这些顶级的 AI 模型就是全栈工程师,你只需要不断地把自己的想法描述给工程师,它就会帮你完成所有的编程工作并交付给你。
比如说我在小红书上发现了一个宝藏博主,想把他所有的帖子都抓取下来学习一下。小红书作为一个国内的社交平台,自然是不可能通过 API 来提供这些数据,也不能像 X 一样通过 Skill 来进行查询、发帖、搜索等操作。于是,我就操作 OpenClaw 直接控制浏览器来「手动」抓取这些小红书帖子,虽然速度慢了一点,但是至少不用我自己去频繁地点击鼠标。不过,小红书的反爬机制还是有点烦人,抓取的帖子一多就会强行返回首页。
在输入端,我们可以让 OpenClaw 安装一下 Whisper without API 的 Skill,然后创建一个收到语音自动调用这个 Skill 进行转写的脚本。这样一来,我们在飞书里可以直接发送语音,OpenClaw 在接收到后就会自动完成转写并执行相应的任务。其实一些 IM 工具自带了语音转写的功能,不过 OpenAI 的 Whisper 工具可以支持更多的语言以及多语言混合输入,转写的效果会比 IM 工具自带的语音转写更好。
因此,我更推荐大家继续采用「以 AI 制 AI」的思路。远程控制电脑有很多方法,最简单粗暴的就是向日葵、Todesk 这种桌面控制软件,不过我认为这有点「大炮打蚊子」的意思,还是远程 SSH 更加轻量化、易操作。
除了官方推荐的 Tailscale,你还可以采用 Cloudflare Tunnel、VPS 反代等方式来连接家里的电脑。我自己采用了 VPS 反代这个方案,通过 GCP 创建一个 VM 实例,让 Mac mini 连接到这个 VM,最后在 iPhone 上使用 Termius 来 SSH 到 Mac mini 上。如果你想要获得更加流畅的 SSH 体验,那么推荐你在 Mac mini 上安装 tmux,这样一来每次在 iPhone 上 SSH 到 Mac mini 时都可以保持连续的会话,不需要从头再来。
所以,当我在外面遇到 OpenClaw 出现崩溃的情况,我就打开 Termius 来 SSH 到 Mac mini 上,然后调用 Codex CLI 来帮助我进行发现问题、提出方案、执行修复的一条龙操作。具体配置方案和步骤,请大家自行询问自家 AI Agent。
总结
如文章开头所说,OpenClaw 的核心创新更多体现在工程整合与可用性层面,而非单一模型能力突破,但是它的确让 AI Agent 这个原来桌面端的概念扩展到了各个平台,我们可以在各种终端设备上都享受到 AI Agent 的能力。同时,OpenClaw 作为一款开源项目也让大家集思广益,创造出了各式各样的趣味玩法和生产力应用,形成了很强的口碑扩散效应。
从谨慎一点的角度来说 OpenClaw 存在一些隐私安全方面的隐患,所以大家在使用的过程中不要把自己的 API Key 暴露到网络上,更不要把涉及自己的财务信息、家庭住址等敏感信息进行上传,在调用浏览器时也要实时监控,切不可掉以轻心。
当然,任何技术的变更或者应用的落地都会伴随着这样的阵痛期,我们不能否认个人 AI 助理的时代进入我们生活的步伐会越来越快。既然不放心 OpenClaw 这样的个人开发者作品,等待 Apple、谷歌这样的大公司下场也许就能给这种形态的 AI Agent 给予更多的隐私保障,让我们在信赖这些大公司的基础上吃下一颗定心丸。
graph TD
A[Flask应用实例] --> B[路由系统]
A --> C[配置管理]
A --> D[扩展注册]
B --> E[视图函数]
E --> F[请求上下文]
F --> G[request对象]
F --> H[session对象]
E --> I[响应生成]
I --> J[字符串/JSON/模板]
D --> K[数据库扩展]
D --> L[表单验证扩展]
D --> M[认证扩展]
from flask import Flask, request, jsonify
app = Flask(__name__)
# 内存数据库
todos = [
{'id': 1, 'title': 'Learn Flask', 'completed': False},
{'id': 2, 'title': 'Build API', 'completed': False}
]
next_id = 3
# 获取所有待办事项
@app.route('/api/todos', methods=['GET'])
def get_todos():
return jsonify(todos)
# 创建新待办事项
@app.route('/api/todos', methods=['POST'])
def create_todo():
global next_id
data = request.get_json()
if not data or 'title' not in data:
return jsonify({'error': 'Title is required'}), 400
todo = {
'id': next_id,
'title': data['title'],
'completed': data.get('completed', False)
}
todos.append(todo)
next_id += 1
return jsonify(todo), 201
# 更新待办事项
@app.route('/api/todos/<int:todo_id>', methods=['PUT'])
def update_todo(todo_id):
todo = next((t for t in todos if t['id'] == todo_id), None)
if not todo:
return jsonify({'error': 'Todo not found'}), 404
data = request.get_json()
todo['title'] = data.get('title', todo['title'])
todo['completed'] = data.get('completed', todo['completed'])
return jsonify(todo)
# 删除待办事项
@app.route('/api/todos/<int:todo_id>', methods=['DELETE'])
def delete_todo(todo_id):
global todos
todo = next((t for t in todos if t['id'] == todo_id), None)
if not todo:
return jsonify({'error': 'Todo not found'}), 404
todos = [t for t in todos if t['id'] != todo_id]
return jsonify({'message': 'Todo deleted'})
if __name__ == '__main__':
app.run(debug=True)
之前看到有人讨论网页监控/爬虫的法律风险,我觉得这里面有个关键区别——云端爬虫是服务商的服务器去访问目标网站,服务商是行为主体;但浏览器插件不一样,所有的页面访问都是用户自己的浏览器完成的,插件只是把页面内容交给 AI 做一个语义判断,本质上跟你自己 F5 刷新没区别。当然我不是法律专业的,不知道大家怎么看这个问题?
据介绍,模型看不到广告,也有防护措施。“狂轰滥炸广告对用户、对商家都没好处。我们不想让广告主乱花钱买曝光,也不想让用户看一堆广告,我们只想展示那条正确的广告。作为顶尖 AI 公司,这正是我们能做好的事。”
当公司有专门的广告收入部门时,还会把模型和广告之间这堵墙砌死吗?
“只要目标和激励机制是成为最值得信任的 AI,我们就不会走偏。”
Awan 强调,“我们的核心业务是信任。对 C 端用户,是提供可信的优质回答;对企业客户,信任更是一切,你把最重要的数据交给我们,我们必须守住。如果我们真的想成为你最贴身的智能助手,就必须让你放心分享最重要的信息,并且知道它会被妥善对待。我们的商业模式就是 信任,这和很多只做一次性查询、内容推荐的产品完全不同。对我们而言,信任不是可选项,而是必需品。我们希望被用户记住的,就是‘可信’。
ChatGPT 推出广告之际,正值人工智能行业竞争压力不断加剧,且外界对大型 AI 平台的可持续盈利模式抱有更高期待。OpenAI 表示,“ChatGPT 被数亿人用于学习、工作和日常决策。为了确保免费版和 Go 版的快速稳定运行,我们需要投入大量基础设施和持续资金。广告收入有助于资助这些工作,从而通过更高质量的免费和低成本选项,让更多人能够使用人工智能,并使我们能够不断提升所提供的智能和功能。”
同时,该公司称,广告商只会获得汇总的广告浏览量和点击量数据,不会获取用户的 ChatGPT 对话个性化数据或内容。免费版和 Go 版用户都可以对广告反馈、关闭广告个性化设置、关闭基于历史对话的广告推荐,从而限制赞助内容的推送方式并删除广告相关数据。此外,OpenAI 现在并非对所有用户和对话都会投放广告,比如 18 岁以下用户以及涉及健康、心理健康、政治等特定敏感话题的对话场景。即便免费版与 Go 版的成年用户,也未必会立即看到广告,因为该功能仍处于测试阶段。
摘要:本文深入探讨在数据工程中,企业进行指标平台选型时面临的核心挑战——如何在摒弃物理宽表、保障业务灵活性的同时,实现海量数据下的高性能查询。文章系统分析了自研高性能指标平台必须跨越的三大技术难关:统一语义解析、智能物化加速与开放生态适配,并对比了基于 NoETL 语义编织技术的 Aloudata CAN 如何通过声明式策略与自动化引擎,实现百亿级数据秒级响应的成熟方案,为技术决策者提供清晰的 Build vs Buy 评估框架。
传统数据库物化视图需要 DBA 手动创建、维护和选择刷新策略,是“手动优化”。Aloudata CAN 的物化加速是 声明式、自动化 的。用户只需关注业务逻辑(定义指标),系统根据查询模式自动决策物化什么、如何物化、何时刷新,并负责全生命周期运维,实现了从“人治”到“自治”的跃升,大幅降低使用和维护门槛。
Q3: 选择指标平台时,除了查询性能,还应重点评估哪些方面?
除了查询性能,还需重点评估:1) 指标定义与管理能力:是否支持复杂业务逻辑(如指标转标签、自定义周期);2) 口径一致性:是否为企业提供唯一可信指标源;3) 开放性与集成能力:是否提供标准 API/JDBC,支持各类 BI 工具和 AI 应用;4) AI 原生适配:是否具备 NL2MQL2SQL 等能力,根治 AI 问数幻觉;5) 总拥有成本(TCO):包括采购成本、实施效率与长期运维开销。
大模型时代的到来,让 AIOps 具备了前所未有的智能化能力。那么,大模型究竟为运维领域带来了哪些质变?周琦用一个生动的比喻来解释,给 AI 装上“摄像头”。传统运维在很大程度上依赖于工程师的个体经验,一位经验丰富的老师傅心中通常有一张无形的系统拓扑图,知道哪里容易出问题、该如何分析。但这种宝贵的经验附着于个体,难以沉淀、复制和规模化。大模型的出现,结合阿里云构建的实时数据采集与分析引擎,相当于为 AI 赋予了感知能力,使其能够真正能“看懂”系统、“理解”故障、“思考”方案。
中层通过 UModel 统一模型构建 IT 系统的 “数字孪生”,这是阿里云可观测性产品的核心建模框架。UModel 基于本体论,提供了一套观测实体及实体关系的定义,覆盖从用户体验、应用服务、容器到底层基础设施的每一层表征。UModel 就像给整个 IT 系统建立一套通用语言词典,让应用、容器、网络等不同组件能用同一套语义对话,彻底告别“你说你的指标,我说我的日志”的沟通困境。周琦表示,这套标准化建模彻底消除了语义歧义,让不同部门、不同系统之间的协作更高效,也让运维人员的经验得以沉淀为可复用的组织资产,而非随人员流动流失。
展望未来,周琦从不同时间维度来做出判断。短期来看,低风险任务将实现全自动化闭环,如 IP 封禁、简单扩容等操作可由 AI 自主完成,而重要操作仍保留人机协同决策模式,确保系统安全。同时,多角色 Agent 协同雏形将逐步显现,运维、安全、成本控制等不同领域的 Agent 将共享统一数据视图,提升跨域运营效率。
中长期来看,AIOps 将与 AI Coding、测试等环节深度打通,最终形成开发、测试到运维的全生命周期智能闭环。周琦解释道,AI Coding 目前在开发态做的非常有效,但从一个演示应用到企业级系统,部署后能稳定运行,还需要很长时间。“我们希望能够将 AI Coding 和 AIOps 串联,实现全局优化。让应用系统不光能跑起来,还能跑得更好、更稳,把运行态的状况实时反馈给 AI Coding。”
1月13日,由深圳计算科学研究院、崖山科技主办的“2026 YashanDB数据库城市行”新年首站在成都举办。现场,YashanDB与云和恩墨联合发布了“zData X for YashanDB数据库一体机解决方案”,该全栈信创方案以卓越性能与简化运维,为关键业务提供了高性价比承载选择。此外,YashanDB与海光信息、佰思杰等伙伴的联合解决方案也一同发布,展现了其在多元技术生态中的融合能力。同时,YashanDB为西南地区一批新晋生态伙伴举行了授牌仪式。
{{{width="auto" height="auto"}}}
zData X for YashanDB数据库一体机解决方案"基于云和恩墨自研的数据库运行基础平台zData X,深度适配YashanDB V23版本,实现了从服务器、操作系统、数据库到管理平台软件的全栈信创兼容,涵盖海光、鲲鹏等国产芯片,麒麟、统信、openEuler等国产操作系统,构建了自主可控的技术底座。
{{{width="auto" height="auto"}}} 全栈信创的zData X for YashanDB一体机方案