2026年3月

AI Agent 是能够自主感知环境、调用工具、循环推理并完成复杂目标的 AI 系统。与单次问答的大模型不同,Agent 具备"思考→行动→观察→再思考"的闭环能力,可以分解多步任务、跨工具协作、持久记忆上下文。本文从核心架构出发,覆盖最小可运行实现、工具定义、记忆管理、框架选型到多 Agent 协作,帮助开发者建立完整的 Agent 构建认知体系。


什么是 AI Agent?

AI Agent 是以大语言模型(LLM)为核心推理引擎,配备感知输入、规划决策、记忆存储、工具执行四大能力模块的自主 AI 系统。

与普通 LLM 调用的核心区别:

维度普通 LLM 调用AI Agent
交互方式单轮输入→输出多轮循环,自主决策下一步
工具使用可调用外部 API、代码、数据库
记忆仅当前上下文窗口短期 + 长期持久记忆
任务类型单一问答多步骤复杂目标分解
自主性可在限定范围内自主行动

OpenAI 在 2025 年发布的 Agents SDK 将其定位描述为:"配备指令和工具的 LLM,能通过内置 Agent 循环自动处理工具调用和持续迭代。"


Agent 的四大核心模块

构建一个完整的 Agent,需要理解四个基础模块:

1. 感知(Perception)

Agent 接收外部输入的能力。输入可以是文本、图像、文件、API 返回值、用户指令等。现代多模态模型(GPT-4o、Claude 3.5、Gemini 1.5)已支持文本+图像联合感知。

2. 规划(Planning)

Agent 分解目标、制定行动计划的推理机制。主流方法:

  • ReAct(Reason + Act):交替输出推理过程(Thought)和动作(Action),最常用
  • CoT(Chain of Thought):逐步思考,适合数学/逻辑推理
  • ToT(Tree of Thoughts):探索多条路径,适合复杂决策
  • Plan-and-Execute:先完整规划,再逐步执行,适合长任务

3. 记忆(Memory)

Agent 存储和检索信息的机制:

记忆类型存储位置特点实现方式
短期记忆上下文窗口会话内可见,重启丢失messages 列表
长期记忆外部数据库跨会话持久,需主动检索向量数据库(Pinecone、Chroma)
工作记忆中间变量任务执行过程中的临时状态LangGraph State
程序记忆代码/提示词固化的行为规则System Prompt

4. 工具(Tools)

Agent 调用外部能力的接口。本质是将 Python 函数暴露给 LLM,LLM 决定何时调用、传什么参数。常见工具类型:搜索引擎、代码解释器、文件读写、数据库查询、HTTP API 请求。


Agent Loop:核心运行机制

Agent 的运行遵循一个固定循环,直到任务完成或达到最大步数:

用户输入
   ↓
LLM 推理(输出 Thought + Action 或 Final Answer)
   ↓
是否调用工具?
   ├── 是 → 执行工具 → 获取 Observation → 回到 LLM 推理
   └── 否 → 输出 Final Answer → 结束

这就是 ReAct 框架的核心。每一轮循环,LLM 接收的 messages 包含:系统提示 + 历史对话 + 所有工具调用记录 + 最新 Observation。


最小可运行 Agent(从零手写)

不依赖任何框架,用 Python + OpenAI API 实现一个完整 Agent:

from openai import OpenAI
import json

client = OpenAI(
    api_key="你的API_KEY",
    base_url="https://api.openai.com/v1"  # 或兼容 OpenAI 格式的其他服务地址
)

# ① 定义工具
def get_weather(city: str) -> str:
    """模拟天气查询"""
    return f"{city}今天晴,气温 22°C"

def calculate(expression: str) -> str:
    """安全计算数学表达式"""
    try:
        return str(eval(expression))
    except Exception as e:
        return f"计算错误: {e}"

# ② 工具注册(生成 JSON Schema,供 LLM 理解)
tools = [
    {
        "type": "function",
        "function": {
            "name": "get_weather",
            "description": "查询指定城市的天气",
            "parameters": {
                "type": "object",
                "properties": {"city": {"type": "string", "description": "城市名"}},
                "required": ["city"]
            }
        }
    },
    {
        "type": "function",
        "function": {
            "name": "calculate",
            "description": "计算数学表达式",
            "parameters": {
                "type": "object",
                "properties": {"expression": {"type": "string"}},
                "required": ["expression"]
            }
        }
    }
]

# ③ 工具分发映射
tool_map = {"get_weather": get_weather, "calculate": calculate}

# ④ Agent 主循环
def run_agent(user_input: str, max_steps: int = 10):
    messages = [
        {"role": "system", "content": "你是一个助手,可以查天气和做计算。"},
        {"role": "user", "content": user_input}
    ]

    for step in range(max_steps):
        response = client.chat.completions.create(
            model="gpt-4o",
            messages=messages,
            tools=tools,
            tool_choice="auto"
        )
        msg = response.choices[0].message

        # 无工具调用 → 任务完成
        if not msg.tool_calls:
            print(f"最终回答:{msg.content}")
            return msg.content

        # 有工具调用 → 执行并回传结果
        messages.append(msg)
        for tc in msg.tool_calls:
            fn_name = tc.function.name
            fn_args = json.loads(tc.function.arguments)
            result = tool_map[fn_name](**fn_args)
            print(f"[工具] {fn_name}({fn_args}) → {result}")
            messages.append({
                "role": "tool",
                "tool_call_id": tc.id,
                "content": result
            })

    return "达到最大步数,任务未完成"

# 运行
run_agent("北京今天适合穿什么?另外 128 * 37 等于多少?")

关键设计点

  • tool_map 将工具名映射到实际函数,避免 eval 动态调用的安全风险
  • 每次工具调用结果以 role: tool 格式追加到 messages,LLM 下一轮能看到
  • max_steps 防止死循环,生产环境建议设为 15-20

用 OpenAI Agents SDK 构建(生产推荐)

OpenAI Agents SDK 是 Swarm 的生产级升级,2025 年发布,更简洁:

from agents import Agent, Runner, function_tool

@function_tool
def search_web(query: str) -> str:
    """搜索互联网获取最新信息"""
    # 接入真实搜索 API
    return f"搜索 '{query}' 的结果:..."

@function_tool
def run_code(code: str) -> str:
    """在沙箱中执行 Python 代码"""
    # 接入代码执行环境
    return f"执行结果:..."

# 创建 Agent
agent = Agent(
    name="研究助手",
    instructions="你是一个研究助手,能搜索信息并执行代码验证结论。",
    tools=[search_web, run_code]
)

# 运行
result = Runner.run_sync(agent, "分析 2025 年 AI Agent 框架的发展趋势")
print(result.final_output)

SDK 内置了 Agent Loop、自动 Schema 生成、追踪可视化,省去手写循环的工作。


框架选型指南

框架适用场景学习曲线特点
裸实现(推荐入门)学习原理、简单任务完全理解底层机制
OpenAI Agents SDK快速生产、多 Agent轻量,handoffs 机制优秀
LangGraph复杂状态机、长任务图结构编排,持久化强
LangChainRAG + Agent 混合生态最全,抽象层多
AutoGen(微软)多 Agent 对话协作对话驱动,适合模拟场景

选型建议

  • 第一次构建 → 先裸实现,理解 Agent Loop
  • 需要上生产 → OpenAI Agents SDK 或 LangGraph
  • 任务有明确状态流转 → LangGraph
  • 主要是 RAG 增强 → LangChain

记忆系统实战

短期记忆:直接用 messages 列表

# 多轮对话直接在 messages 中追加,自动形成短期记忆
messages = [{"role": "system", "content": "你是助手"}]
messages.append({"role": "user", "content": "我叫小明"})
# ... LLM 回复 ...
messages.append({"role": "user", "content": "我叫什么?"})
# LLM 可从上下文找到答案

长期记忆:向量数据库检索

from chromadb import Client

db = Client()
collection = db.get_or_create_collection("agent_memory")

# 存储记忆
collection.add(
    documents=["用户偏好:喜欢简短回答"],
    ids=["pref_001"]
)

# 检索相关记忆(在构建 System Prompt 前调用)
results = collection.query(query_texts=["用户风格"], n_results=3)
relevant_memory = "\n".join(results["documents"][0])

七牛云 AI 推理服务内置的 MCP(Model Context Protocol)支持标准化记忆编排,开发者无需本地部署向量库即可构建带长期记忆的 Agent 应用。


多 Agent 协作设计

当单个 Agent 能力边界不足以完成复杂任务时,引入多 Agent 协作。主流两种模式:

模式一:分层调度(Orchestrator + Workers)

用户输入
    ↓
调度 Agent(Orchestrator)
    ├── 研究 Agent(负责搜索信息)
    ├── 代码 Agent(负责执行计算)
    └── 写作 Agent(负责生成报告)

OpenAI Agents SDK 通过 handoffs 机制实现:调度 Agent 在合适时机将控制权移交给专门 Agent,各 Agent 有独立的工具集和系统提示。

模式二:流水线(Pipeline)

每个 Agent 处理一个阶段,输出作为下个 Agent 的输入。适合数据处理、内容生产等有明确顺序的场景。

七牛云 2025 年实践案例中,多智能体采用分层设计:规划层(DeepSeek-R1 擅长推理规划)+ 执行层(DeepSeek-V3 支持函数调用),通过职责分离规避单一模型在推理与工具调用上的能力权衡问题。


调试与追踪

Agent 调试的核心难点是"看不见中间过程",建议从第一行代码就加上追踪:

# 方法一:打印每步 messages(简单有效)
for msg in messages:
    print(f"[{msg['role']}] {str(msg.get('content', ''))[:100]}")

# 方法二:OpenAI Agents SDK 内置追踪
# 运行后自动在 platform.openai.com/traces 生成可视化时间线

# 方法三:LangSmith(LangGraph 生态)
# 设置环境变量后自动追踪每个节点的输入输出
import os
os.environ["LANGCHAIN_TRACING_V2"] = "true"
os.environ["LANGCHAIN_API_KEY"] = "你的key"

常见问题

Q:Agent 和 RAG 是什么关系?
RAG(检索增强生成)是一种为 LLM 补充外部知识的技术,本质上是一种"工具"。Agent 可以将 RAG 作为其众多工具之一——当需要查询知识库时调用 RAG,当需要执行代码时调用代码解释器。RAG 回答单次问题,Agent 完成多步任务。

Q:构建 Agent 一定要用 GPT-4 吗?成本很高?
不必。工具调用能力(Function Calling)是选择模型的核心指标。DeepSeek-V3、Kimi K2、Claude 3.5 Haiku、Qwen2.5-72B 均支持工具调用,成本远低于 GPT-4o。建议先用小模型验证逻辑,上线前再评估模型效果和成本的平衡点。

Q:Agent 执行过程中出错了怎么办?
生产级 Agent 需要实现:① 工具调用异常捕获并返回错误信息给 LLM;② max_retries 对同一工具失败后重试逻辑;③ 超时熔断,避免单步卡死整个流程;④ 检查点(Checkpoint)支持,LangGraph 内置此能力。

Q:Agent 会不会无限循环消耗 Token?
务必设置 max_steps 上限。此外,可在 System Prompt 中明确指示:"如果连续两步没有进展,输出 Final Answer 结束任务"。OpenAI Agents SDK 和 LangGraph 都提供了内置的循环终止机制。

Q:个人开发者适合用 Agent 做什么?
当前最有价值的个人 Agent 场景:① 自动化重复信息收集(竞品监控、新闻摘要);② 本地文件/邮件智能处理;③ 代码审查和自动修复;④ 个人知识库问答(结合 RAG)。这些场景任务边界清晰、工具需求明确,是 Agent 落地成本最低的切入点。


总结

构建 AI Agent 的核心路径是:理解四大模块(感知/规划/记忆/工具)→ 手写最小 Agent 理解 ReAct 循环 → 选择合适框架上生产 → 逐步扩展工具集和记忆系统。Agent 工程的本质不是框架选择,而是对任务边界的清晰定义和对工具调用失败的鲁棒处理。

延伸资源:

本文内容基于 2026 年 3 月 OpenAI Agents SDK、LangGraph、DeepSeek 最新版本,框架 API 更新较快,建议对照各官方文档最新版本使用。

AI Agent 是能够自主感知环境、调用工具、循环推理并完成复杂目标的 AI 系统。与单次问答的大模型不同,Agent 具备"思考→行动→观察→再思考"的闭环能力,可以分解多步任务、跨工具协作、持久记忆上下文。本文从核心架构出发,覆盖最小可运行实现、工具定义、记忆管理、框架选型到多 Agent 协作,帮助开发者建立完整的 Agent 构建认知体系。


什么是 AI Agent?

AI Agent 是以大语言模型(LLM)为核心推理引擎,配备感知输入、规划决策、记忆存储、工具执行四大能力模块的自主 AI 系统。

与普通 LLM 调用的核心区别:

维度普通 LLM 调用AI Agent
交互方式单轮输入→输出多轮循环,自主决策下一步
工具使用可调用外部 API、代码、数据库
记忆仅当前上下文窗口短期 + 长期持久记忆
任务类型单一问答多步骤复杂目标分解
自主性可在限定范围内自主行动

OpenAI 在 2025 年发布的 Agents SDK 将其定位描述为:"配备指令和工具的 LLM,能通过内置 Agent 循环自动处理工具调用和持续迭代。"


Agent 的四大核心模块

构建一个完整的 Agent,需要理解四个基础模块:

1. 感知(Perception)

Agent 接收外部输入的能力。输入可以是文本、图像、文件、API 返回值、用户指令等。现代多模态模型(GPT-4o、Claude 3.5、Gemini 1.5)已支持文本+图像联合感知。

2. 规划(Planning)

Agent 分解目标、制定行动计划的推理机制。主流方法:

  • ReAct(Reason + Act):交替输出推理过程(Thought)和动作(Action),最常用
  • CoT(Chain of Thought):逐步思考,适合数学/逻辑推理
  • ToT(Tree of Thoughts):探索多条路径,适合复杂决策
  • Plan-and-Execute:先完整规划,再逐步执行,适合长任务

3. 记忆(Memory)

Agent 存储和检索信息的机制:

记忆类型存储位置特点实现方式
短期记忆上下文窗口会话内可见,重启丢失messages 列表
长期记忆外部数据库跨会话持久,需主动检索向量数据库(Pinecone、Chroma)
工作记忆中间变量任务执行过程中的临时状态LangGraph State
程序记忆代码/提示词固化的行为规则System Prompt

4. 工具(Tools)

Agent 调用外部能力的接口。本质是将 Python 函数暴露给 LLM,LLM 决定何时调用、传什么参数。常见工具类型:搜索引擎、代码解释器、文件读写、数据库查询、HTTP API 请求。


Agent Loop:核心运行机制

Agent 的运行遵循一个固定循环,直到任务完成或达到最大步数:

用户输入
   ↓
LLM 推理(输出 Thought + Action 或 Final Answer)
   ↓
是否调用工具?
   ├── 是 → 执行工具 → 获取 Observation → 回到 LLM 推理
   └── 否 → 输出 Final Answer → 结束

这就是 ReAct 框架的核心。每一轮循环,LLM 接收的 messages 包含:系统提示 + 历史对话 + 所有工具调用记录 + 最新 Observation。


最小可运行 Agent(从零手写)

不依赖任何框架,用 Python + OpenAI API 实现一个完整 Agent:

from openai import OpenAI
import json

client = OpenAI(
    api_key="你的API_KEY",
    base_url="https://api.openai.com/v1"  # 或兼容 OpenAI 格式的其他服务地址
)

# ① 定义工具
def get_weather(city: str) -> str:
    """模拟天气查询"""
    return f"{city}今天晴,气温 22°C"

def calculate(expression: str) -> str:
    """安全计算数学表达式"""
    try:
        return str(eval(expression))
    except Exception as e:
        return f"计算错误: {e}"

# ② 工具注册(生成 JSON Schema,供 LLM 理解)
tools = [
    {
        "type": "function",
        "function": {
            "name": "get_weather",
            "description": "查询指定城市的天气",
            "parameters": {
                "type": "object",
                "properties": {"city": {"type": "string", "description": "城市名"}},
                "required": ["city"]
            }
        }
    },
    {
        "type": "function",
        "function": {
            "name": "calculate",
            "description": "计算数学表达式",
            "parameters": {
                "type": "object",
                "properties": {"expression": {"type": "string"}},
                "required": ["expression"]
            }
        }
    }
]

# ③ 工具分发映射
tool_map = {"get_weather": get_weather, "calculate": calculate}

# ④ Agent 主循环
def run_agent(user_input: str, max_steps: int = 10):
    messages = [
        {"role": "system", "content": "你是一个助手,可以查天气和做计算。"},
        {"role": "user", "content": user_input}
    ]

    for step in range(max_steps):
        response = client.chat.completions.create(
            model="gpt-4o",
            messages=messages,
            tools=tools,
            tool_choice="auto"
        )
        msg = response.choices[0].message

        # 无工具调用 → 任务完成
        if not msg.tool_calls:
            print(f"最终回答:{msg.content}")
            return msg.content

        # 有工具调用 → 执行并回传结果
        messages.append(msg)
        for tc in msg.tool_calls:
            fn_name = tc.function.name
            fn_args = json.loads(tc.function.arguments)
            result = tool_map[fn_name](**fn_args)
            print(f"[工具] {fn_name}({fn_args}) → {result}")
            messages.append({
                "role": "tool",
                "tool_call_id": tc.id,
                "content": result
            })

    return "达到最大步数,任务未完成"

# 运行
run_agent("北京今天适合穿什么?另外 128 * 37 等于多少?")

关键设计点

  • tool_map 将工具名映射到实际函数,避免 eval 动态调用的安全风险
  • 每次工具调用结果以 role: tool 格式追加到 messages,LLM 下一轮能看到
  • max_steps 防止死循环,生产环境建议设为 15-20

用 OpenAI Agents SDK 构建(生产推荐)

OpenAI Agents SDK 是 Swarm 的生产级升级,2025 年发布,更简洁:

from agents import Agent, Runner, function_tool

@function_tool
def search_web(query: str) -> str:
    """搜索互联网获取最新信息"""
    # 接入真实搜索 API
    return f"搜索 '{query}' 的结果:..."

@function_tool
def run_code(code: str) -> str:
    """在沙箱中执行 Python 代码"""
    # 接入代码执行环境
    return f"执行结果:..."

# 创建 Agent
agent = Agent(
    name="研究助手",
    instructions="你是一个研究助手,能搜索信息并执行代码验证结论。",
    tools=[search_web, run_code]
)

# 运行
result = Runner.run_sync(agent, "分析 2025 年 AI Agent 框架的发展趋势")
print(result.final_output)

SDK 内置了 Agent Loop、自动 Schema 生成、追踪可视化,省去手写循环的工作。


框架选型指南

框架适用场景学习曲线特点
裸实现(推荐入门)学习原理、简单任务完全理解底层机制
OpenAI Agents SDK快速生产、多 Agent轻量,handoffs 机制优秀
LangGraph复杂状态机、长任务图结构编排,持久化强
LangChainRAG + Agent 混合生态最全,抽象层多
AutoGen(微软)多 Agent 对话协作对话驱动,适合模拟场景

选型建议

  • 第一次构建 → 先裸实现,理解 Agent Loop
  • 需要上生产 → OpenAI Agents SDK 或 LangGraph
  • 任务有明确状态流转 → LangGraph
  • 主要是 RAG 增强 → LangChain

记忆系统实战

短期记忆:直接用 messages 列表

# 多轮对话直接在 messages 中追加,自动形成短期记忆
messages = [{"role": "system", "content": "你是助手"}]
messages.append({"role": "user", "content": "我叫小明"})
# ... LLM 回复 ...
messages.append({"role": "user", "content": "我叫什么?"})
# LLM 可从上下文找到答案

长期记忆:向量数据库检索

from chromadb import Client

db = Client()
collection = db.get_or_create_collection("agent_memory")

# 存储记忆
collection.add(
    documents=["用户偏好:喜欢简短回答"],
    ids=["pref_001"]
)

# 检索相关记忆(在构建 System Prompt 前调用)
results = collection.query(query_texts=["用户风格"], n_results=3)
relevant_memory = "\n".join(results["documents"][0])

七牛云 AI 推理服务内置的 MCP(Model Context Protocol)支持标准化记忆编排,开发者无需本地部署向量库即可构建带长期记忆的 Agent 应用。


多 Agent 协作设计

当单个 Agent 能力边界不足以完成复杂任务时,引入多 Agent 协作。主流两种模式:

模式一:分层调度(Orchestrator + Workers)

用户输入
    ↓
调度 Agent(Orchestrator)
    ├── 研究 Agent(负责搜索信息)
    ├── 代码 Agent(负责执行计算)
    └── 写作 Agent(负责生成报告)

OpenAI Agents SDK 通过 handoffs 机制实现:调度 Agent 在合适时机将控制权移交给专门 Agent,各 Agent 有独立的工具集和系统提示。

模式二:流水线(Pipeline)

每个 Agent 处理一个阶段,输出作为下个 Agent 的输入。适合数据处理、内容生产等有明确顺序的场景。

七牛云 2025 年实践案例中,多智能体采用分层设计:规划层(DeepSeek-R1 擅长推理规划)+ 执行层(DeepSeek-V3 支持函数调用),通过职责分离规避单一模型在推理与工具调用上的能力权衡问题。


调试与追踪

Agent 调试的核心难点是"看不见中间过程",建议从第一行代码就加上追踪:

# 方法一:打印每步 messages(简单有效)
for msg in messages:
    print(f"[{msg['role']}] {str(msg.get('content', ''))[:100]}")

# 方法二:OpenAI Agents SDK 内置追踪
# 运行后自动在 platform.openai.com/traces 生成可视化时间线

# 方法三:LangSmith(LangGraph 生态)
# 设置环境变量后自动追踪每个节点的输入输出
import os
os.environ["LANGCHAIN_TRACING_V2"] = "true"
os.environ["LANGCHAIN_API_KEY"] = "你的key"

常见问题

Q:Agent 和 RAG 是什么关系?
RAG(检索增强生成)是一种为 LLM 补充外部知识的技术,本质上是一种"工具"。Agent 可以将 RAG 作为其众多工具之一——当需要查询知识库时调用 RAG,当需要执行代码时调用代码解释器。RAG 回答单次问题,Agent 完成多步任务。

Q:构建 Agent 一定要用 GPT-4 吗?成本很高?
不必。工具调用能力(Function Calling)是选择模型的核心指标。DeepSeek-V3、Kimi K2、Claude 3.5 Haiku、Qwen2.5-72B 均支持工具调用,成本远低于 GPT-4o。建议先用小模型验证逻辑,上线前再评估模型效果和成本的平衡点。

Q:Agent 执行过程中出错了怎么办?
生产级 Agent 需要实现:① 工具调用异常捕获并返回错误信息给 LLM;② max_retries 对同一工具失败后重试逻辑;③ 超时熔断,避免单步卡死整个流程;④ 检查点(Checkpoint)支持,LangGraph 内置此能力。

Q:Agent 会不会无限循环消耗 Token?
务必设置 max_steps 上限。此外,可在 System Prompt 中明确指示:"如果连续两步没有进展,输出 Final Answer 结束任务"。OpenAI Agents SDK 和 LangGraph 都提供了内置的循环终止机制。

Q:个人开发者适合用 Agent 做什么?
当前最有价值的个人 Agent 场景:① 自动化重复信息收集(竞品监控、新闻摘要);② 本地文件/邮件智能处理;③ 代码审查和自动修复;④ 个人知识库问答(结合 RAG)。这些场景任务边界清晰、工具需求明确,是 Agent 落地成本最低的切入点。


总结

构建 AI Agent 的核心路径是:理解四大模块(感知/规划/记忆/工具)→ 手写最小 Agent 理解 ReAct 循环 → 选择合适框架上生产 → 逐步扩展工具集和记忆系统。Agent 工程的本质不是框架选择,而是对任务边界的清晰定义和对工具调用失败的鲁棒处理。

延伸资源:

本文内容基于 2026 年 3 月 OpenAI Agents SDK、LangGraph、DeepSeek 最新版本,框架 API 更新较快,建议对照各官方文档最新版本使用。

大家好,我是R哥。

2026 年,OpenClaw 引爆全网,到现在还没有看到要停歇的迹象,反而越来越火了,个人在玩一人公司,连大厂们都在卷,整个 AI 生态都在玩 OpenClaw,真的是热闹非凡啊。

全网都在积极地部署 OpenClaw 来养虾,甚至还有不少玩家已经养成了好几只虾了,你确定还要做一个旁观者吗??

如果你想上手 OpenClaw,还是有一定门槛的。。

说说几大痛点和共鸣:

  • 环境配置复杂,即使是技术人员,动辄几小时甚至一天的部署时间,折腾到怀疑人生。
  • Token 消耗如流水,一不小心就超预算,成本飙升,压力山大。
  • 模型响应不稳定,关键时刻掉链子。

难道就没有一个全家桶方案,能让我们真正实现零门槛安装和使用 OpenClaw,免去复杂配置、7 × 24 在线,同时实现 Token 自由吗

别急,火山引擎这次把门槛直接拆了,小白也能部署和玩转小龙虾了。。

最近,火山引擎推出了 Arkclaw,解决了上述所有痛点,可一键部署 OpenClaw、对接飞书机器人、玩转飞书生态等,好用、方便又便宜。

Arkclaw 介绍及优势

ArkClaw 是火山引擎提供的云端 AI 智能体(Agent)服务,能实现一键云端部署 OpenClaw,享有一对一专属 ECS 资源,免去复杂配置、7 × 24 在线,零门槛使用 OpenClaw,还能无缝使用订阅的火山方舟 Coding Plan,告别 Token 按量计费焦虑。

如果你以为 Arkclaw 只是一个 OpenClaw 部署工具,那你就错了。

说说使用 Arkclaw 的优势:

  • 更优的模型适配:支持 Doubao-Seed 2.0 Pro & Lite & Code / DeepSeek 3.2 / GLM 5.0 / MiniMax 2.5 / Kimi 2.5,高效协同 Doubao-Seed 2.0;
  • 更低的使用成本:自带 Token 节省和优化,支持端云存储协同,文件无缝直连,减少重复传输与计算,构建长期记忆;
  • 更亲和飞书生态:专属飞书插件(火山 ArkClaw 独家优势),轻松处理日程安排和提醒、会议总结预定、复杂文档/表格处理,一键接入飞书专属 Skills;并内置网盘长效存储,LUl & Terminal 兼容模式,灵活易用;
  • 更安全使用环境:全面保护数据与隐私安全,支持火山专属 Skills Hub,内置 Skills 安全扫描、数据防泄漏能力,确保 Skills 质量与能力,安全可信;
  • 生态兼容:兼容 GLM、Minimax、Kimi 等更多主流模型;
  • 多功能开箱即用:定时任务、人格设置、IM一键配置,0 门槛 Web 端直接使用,功能持续迭代,常用常新。

我还发现了一个更亮眼的功能,它具备傻瓜式运维能力,提供了 Terminal 登录、OpenClaw 自动修复、Skills Hub 白屏化接入等高级功能,让运维变得前所未有的简单,不再需要专业运维技能,人人都能轻松管理和维护 OpenClaw 实例

火山的 ArkClaw 是真的把门槛打下来,小白也能养虾了,下面咱们进入 ArkClaw 接入指南及初体验!

ArkClaw 一键部署 OpenClaw

ArkClaw 的部署过程非常简单,几步操作就能完成,接下来,让我带大家一起上火山养虾,轻松部署 OpenClaw!

ArkClaw 体验入口:

https://v2ig.cn/cRm03IcFyUU/

1、订阅方舟 Coding Plan

方舟 Coding Plan 是为开发者量身打造的 AI Coding 场景订阅服务,现已全面升级,支持主流 Code 模型(Doubao-Seed-2.0-Code & Lite & Pro、Doubao-Seed-Code、GLM、Kimi、DeepSeek 等最新版本)的使用和自由切换。

Coding Plan 服务还兼容主流 AI 编码工具,如:Trae、 Claude Code、veCLI、Cursor、Cline、Codex CLI 等,为开发者提供畅快、智能、稳定的编码体验,提升代码编写效率与质量。

Coding Plan 现在可以抢先体验 ArkClaw:

Lite & Pro Plan 订阅用户都可以免费使用 ArkClaw:

  • Coding Plan Lite 订阅用户,免费体验 7 天 ArkClaw 使用权益;
  • Coding Plan Pro 订阅用户,会话周期内 ArkClaw 可持续免费使用;

太爽了,新用户首购最低 9.9 元就能试玩,量大管饱性价比高,扫码订阅即可。

通过我的邀请注册订阅 Coding Plan,再享 9 折优惠价,首月 8.9 元 就能玩起来了,订阅越多越划算。

可以通过我的邀请链接注册:

https://volcengine.com/L/zBWUFWykf2w/

有了 Coding Plan 的加持,大幅度降低玩 OpenClaw 的成本,再也不用每天计算 tokens 使用量,减少预算管控成本,专注核心开发工作,Coding Plan 简直就是 OpenClaw 这样智能 Agent 的最佳搭档。

2、创建并使用 ArkClaw

订阅任意 Coding Plan 套餐后,就可以创建 ArkClaw 实例了:

点击 “立即创建” 按钮,等个 1 - 2 分钟,就能看到 ArkClaw 实例创建成功了:

3、与 ArkClaw 进行对话

我们可以直接在 ArkClaw 的对话页面与它进行对话了:

我这里问了它是什么模型,以及它是什么操作系统,它都能正确回答,说明它已经成功部署好了。

4、设置 ArkClaw

点击右上角的设置图标:

在这里,可以重启 ArkClaw、自动修复 ArkClaw 实例、打开终端、配置模型等,其中自动修复功能非常强大,如果 ArkClaw 实例出现异常,直接点击自动修复就能帮你修复实例了,不需要任何专业的运维技能了,真正实现了傻瓜式运维

如果你是开发者,还可以打开终端,直接在云端操作 ArkClaw 实例了,不需要再通过 SSH 连接服务器了,超级方便。

通过飞书与 ArkClaw 对话

上面我们已经成功部署了 ArkClaw,并且在 ArkClaw 的对话页面和它进行了对话,接下来,我来演示一下如何通过飞书来和 ArkClaw 进行对话

现在通过扫描二维码就能一键创建机器人,太方便了。

回到 ArkClaw 对话页面,点击 “飞书配对” 按钮:

等待终端命令执行完成,会展示创建飞书机器人二维码:

然后使用手机飞书 APP 扫描该二维码,并填写机器人名称,再点击 “创建” 按钮开始创建流程:

机器人创建成功后,ArkClaw 会自动配置新建机器人信息:

期间不要关闭终端,等显示 “所有任务执行成功!” 说明配对成功了,最后关掉终端窗口就好了。

完成机器人匹配后,我们就可以通过飞书机器人与 ArkClaw 进行对话了:

这里,我和 ArkClaw 问了个好,然后让它把 OpenClaw 更新到了最新版本。

之后,我们就可以通过飞书来和 ArkClaw 进行对话了,不用每次都要回到 ArkClaw 的对话页面了,手机、电脑都能随时指挥 ArkClaw,超级方便!

ArkClaw + 飞书高级玩法

使用 ArkClaw 和飞书结合的好处就是,可以让 ArkClaw 直接在飞书里帮我们处理一些事情,让 ArkClaw 直接在飞书里帮我们安排日程、创建定时任务、生成飞书文档等,大大提升了我们的工作效率。

接下来,我来演示这几个 ArkClaw 和飞书结合的高级玩法,看看 ArkClaw 在飞书机器人里面怎么玩。

1、安排日程

先演示一个让 ArkClaw 创建飞书日程的场景,比如:

帮我定一个明天早上 9 点的日程,主题是:写一篇 ArkClaw 的原创文章。

如果没有授权过,会要求授权,点击授权后会弹出飞书授权页面,完成授权后就可以看到日程已经创建成功了:

在日历中也可以看到这个日程:

这个场景对使用 ArkClaw 的小伙伴们非常实用,可以让 ArkClaw 帮我们安排日程,提醒我们按时完成任务。

所以,学会了这点,我们再也不用担心忘记重要的事情了,也不用手动去创建日程了,一句话 ArkClaw 就帮你搞定了

2、创建定时任务

这里我再演示一个让 ArkClaw 创建定时任务的场景,比如:

每天早上 9 点,抓取一下过去 24 小时内的 AI 领域的热点新闻并生成报告。

定时任务创建成功后,ArkClaw 就会每天早上 9 点自动执行这个任务了,我们就可以每天早上都收到一份 AI 领域的热点新闻报告了

也可以让它手动执行一下这个定时任务,看看它的效果:

不错,效果杠杠的,它帮我抓取了 24 小时内的 AI 热点新闻,并且生成了一个简单的报告。

这个功能对于需要定期执行某些任务的小伙伴们来说非常实用,可以让 ArkClaw 帮我们自动执行这些任务了。

比如,如果你是程序员,你还可以让它帮你每天定时检查一下你的代码仓库,看看有没有新的 issue 或者 pull request 需要处理了,让 ArkClaw 帮我们自动执行这些重复性的任务。

3、生成飞书文档

使用 ArkClaw 最强大的功能之一就是它自带的飞书生态了,下面我演示下如何让 ArkClaw 将任务的结果保存为飞书文档,方便通过飞书查看、分享,比如:

帮我调研下 ClawHub 中下载量最多的前 10 个 Skill,将它们的功能、特点、安装方式等信息汇总为一个飞书文档。

在授权成功后,它就会自动创建一个飞书文档,并将调研结果保存到这个文档里了。

来查看这个文档:

很惊艳啊,这个功能真的太强大了。。。

学会这一招,我们就可以让 ArkClaw 直接在飞书里帮我们生成文档,有需要还可以分享出去,对于需要经常生成报告、总结的同学来说,这个功能简直就是神器了

总结

总的来说,火山引擎的 ArkClaw 真的是一个非常强的 OpenClaw 部署和使用工具,它不仅解决了 OpenClaw 部署的痛点,还提供了很多实用的功能,让我们能够更方便地使用 OpenClaw 来养虾。

谁不想要一个 7 * 24 小时的全能助手,来帮我们处理各种任务呢?

有了 ArkClaw,这一切都变得简单了,它能帮你安排日程、创建定时任务、生成飞书文档,甚至帮你写代码、调试代码,等等,使用场景非常多,一人就是一个小团队了。

更重要的是,你不需要再担心部署和运维了,让 ArkClaw 专注于帮你做更多有价值的事情吧

最后再奉上 ArkClaw 的体验入口链接:

https://v2ig.cn/cRm03IcFyUU/

一起来玩 ArkClaw 养虾吧,提升工作效率!

OpenClaw 部署过程中的问题可分为五大阶段:安装环境、网关启动、API 与模型配置、渠道消息、仪表板访问。本文整理官方文档记录的 15 个高频报错,每条给出具体命令和根本原因,配合 openclaw doctor 诊断工具,帮助快速定位并修复问题。


第一步:遇到任何问题先跑这 4 条命令

在查具体报错前,先运行官方诊断序列,输出结果能定位 80% 的问题:

openclaw status          # 整体状态概览(网关可达性、渠道认证状态、近期会话)
openclaw gateway status  # 网关运行时状态
openclaw doctor          # 配置自检 + 自动修复常见错误
openclaw logs --follow   # 实时日志流,最直观的问题追踪入口

openclaw doctor 不只是诊断,它会:自动修复旧版配置格式、检测端口冲突、验证 API Key 有效性、检查 systemd/launchd 守护进程配置,支持 --repair 参数自动应用修复。


一、安装阶段报错

问题 1:EBADENGINE — Node.js 版本不兼容

报错信息

npm warn EBADENGINE Unsupported engine {
  required: { node: '>=22' },
  current: { node: 'v18.x.x' }
}

根因:OpenClaw 要求 Node.js 22+,当前版本不满足。

修复

# macOS
brew install node@22 && brew link node@22 --force --overwrite

# Linux
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt-get install -y nodejs

# Windows PowerShell
winget install OpenJS.NodeJS.LTS

问题 2:command not found — PATH 未配置

报错信息

zsh: command not found: openclaw

根因:npm 全局 bin 目录不在 PATH 中。

修复

# 找到 npm 全局路径
npm prefix -g

# 写入 shell 配置(zsh 为例)
echo 'export PATH="$(npm prefix -g)/bin:$PATH"' >> ~/.zshrc
source ~/.zshrc

# 验证
openclaw --version

问题 3:sharp 构建错误(Windows 原生)

报错信息

npm ERR! sharp: Installation error: prebuild...

根因sharp 图像处理库在 Windows 原生环境编译失败。

修复

# 方案一:跳过 libvips 编译
$env:SHARP_IGNORE_GLOBAL_LIBVIPS=1; npm install -g openclaw@latest

# 方案二(根本解决):改用 WSL2 安装
# 在 WSL2 Ubuntu 终端执行:
curl -fsSL https://openclaw.ai/install.sh | bash

二、网关启动阶段报错

问题 4:Gateway start blocked: set gateway.mode=local

报错信息

Gateway start blocked: set gateway.mode=local

根因:网关模式未设置或被设为远程模式,阻止本地启动。

修复

# 交互式配置(推荐)
openclaw configure

# 或直接编辑配置文件 ~/.openclaw/openclaw.json
# 找到 gateway 节点,添加:
# "mode": "local"

问题 5:EADDRINUSE — 端口被占用

报错信息

Error: listen EADDRINUSE: address already in use :::18789
# 或
another gateway instance already listening

根因:OpenClaw 默认使用 18789 端口,已有进程占用。

修复

# 查找占用端口的进程
lsof -i :18789          # macOS / Linux
netstat -ano | findstr 18789  # Windows

# 杀掉旧进程(替换 PID 为实际进程号)
kill -9 <PID>           # macOS / Linux
taskkill /PID <PID> /F  # Windows

# 或更改 OpenClaw 端口(在 openclaw.json 中设置 gateway.port)
openclaw doctor --repair  # 自动检测并修复端口冲突

问题 6:守护进程启动后立即退出

症状openclaw gateway start 执行后进程消失,openclaw status 显示网关不可达。

排查步骤

# 查看完整错误日志
openclaw logs --follow

# 检查守护进程配置
openclaw doctor --deep

# Linux:检查 systemd linger(确保登出后服务继续运行)
loginctl enable-linger $USER

# 重装守护进程
openclaw gateway --install-daemon

三、API 与模型配置报错

问题 7:HTTP 429 — 长上下文速率限制

报错信息

HTTP 429: rate_limit_error: Extra usage is required for long context requests

根因:启用了 100 万 Token 上下文(context1m),但 API Key 对应账户等级不满足条件。

修复

// 在 openclaw.json 中,为该模型禁用 context1m
{
  "agents": {
    "defaults": {
      "model": "claude-3-5-sonnet-20241022",
      "modelSettings": {
        "context1m": false
      }
    }
  }
}

或配置备用模型实现自动故障转移,避免单一 API Key 限流影响服务。


问题 8:AUTH_TOKEN_MISMATCH — 令牌不匹配

报错信息

AUTH_TOKEN_MISMATCH

根因OPENCLAW_GATEWAY_TOKEN 环境变量与配置文件中的令牌不一致,或设备令牌已过期。

修复

# 检查当前配置的 token
openclaw doctor

# 重新生成并同步令牌
openclaw configure  # 重新设置 gateway token

# 云端部署(Railway/Fly.io):
# 确认环境变量 OPENCLAW_GATEWAY_TOKEN 与配置文件一致

问题 9:插件安装失败 — package.json missing openclaw.extensions

报错信息

package.json missing openclaw.extensions

根因:自定义插件的 package.json 未声明 openclaw.extensions 字段,无法找到编译后的入口文件。

修复:在插件的 package.json 中添加:

{
  "openclaw": {
    "extensions": ["dist/index.js"]
  }
}

四、渠道消息阶段报错

问题 10:发消息无回复 — 需要 @ 提及

日志信息

drop guild message (mention required)

根因:Discord/Slack 群组中启用了"提及门控",Bot 只响应 @mention 消息。

修复

# 方案一:在消息中 @提及 Bot
# 方案二:在配置中关闭提及要求
# 在 openclaw.json 的 channels.discord.groups 中:
# "requireMention": false

问题 11:发消息无回复 — 配对待审批

日志信息

pairing request from user xxx

根因:新用户首次 DM Bot,需要网关管理员审批配对请求。

修复

# 列出待审批请求
openclaw pairing list telegram   # 或 discord / whatsapp

# 批准指定配对码
openclaw pairing approve telegram <CODE>

# 或配置为开放模式(不推荐用于公开部署)
# "dmPolicy": "open"

问题 12:消息被过滤 — blocked / allowlist

日志信息

blocked: sender not in allowlist

根因:启用了 allowlist 策略,发送方用户 ID 未加入白名单。

修复

// 在 openclaw.json 中添加用户 ID 到白名单
{
  "channels": {
    "telegram": {
      "dmPolicy": "allowlist",
      "allowFrom": ["123456789", "987654321"]
    }
  }
}

五、仪表板与设备认证报错

问题 13:仪表板无法连接 — device identity required

报错信息

device identity required

根因:使用 HTTP(非 HTTPS)访问仪表板时,浏览器安全策略阻止设备认证所需的 WebCrypto API。

修复

  • 本地访问:始终使用 http://127.0.0.1:18789/(本地回环地址,浏览器视为安全上下文)
  • 远程访问:必须配置 HTTPS(Nginx 反代 + SSL 证书,或通过 Tailscale 加密隧道访问)
  • 不要使用 http://服务器IP:18789/ 直接访问远程网关

问题 14:device nonce mismatch — 设备握手失败

报错信息

device nonce mismatch

根因:设备认证握手过程中 nonce 不一致,通常由多次刷新页面或并发连接导致。

修复

# 清除浏览器缓存后重新访问
# 或重新审批设备
openclaw devices list
openclaw devices approve <deviceId>

# 若问题持续,重置设备认证
openclaw doctor --repair

问题 15:定时任务不触发 — cron scheduler disabled

报错信息

cron: scheduler disabled; jobs will not run automatically

或日志中出现:

heartbeat skipped: reason=quiet-hours

根因一:Cron 调度器被禁用。
根因二:当前时间在配置的"静默时段"内。

修复

# 检查 cron 状态
openclaw cron status

# 查看所有定时任务
openclaw cron list

# 启用调度器(在 openclaw.json 中):
# "cron": { "enabled": true }

# 如需禁用静默时段,移除 quietHours 配置块

快速排查索引

报错关键词问题编号所属阶段
EBADENGINE问题1安装
command not found问题2安装
sharp: Installation error问题3安装
Gateway start blocked问题4网关启动
EADDRINUSE问题5网关启动
网关启动后消失问题6网关启动
HTTP 429问题7API配置
AUTH_TOKEN_MISMATCH问题8API配置
openclaw.extensions问题9插件
mention required问题10渠道消息
pairing request问题11渠道消息
blocked / allowlist问题12渠道消息
device identity required问题13仪表板
device nonce mismatch问题14仪表板
cron scheduler disabled问题15定时任务


openclaw doctor 完整参数说明

openclaw doctor 是部署问题的第一响应工具,支持以下模式:

参数行为
(无参数)交互式检查,逐项确认修复
--repair自动应用所有修复,无需确认
--yes对所有提示选择默认值
--non-interactive仅执行安全迁移,不重启服务
--deep扫描额外网关安装,检测多实例冲突
--force包含激进修复(谨慎使用)

自动修复范围:旧版配置格式迁移、OAuth Token 刷新、端口冲突检测、systemd/launchd 守护进程配置验证、模型引用校验。


常见问题

Q:openclaw doctor 运行后说一切正常,但 Bot 还是没反应怎么办?
问题通常在渠道层面。依次检查:① openclaw channels status --probe 查看各渠道连接状态;② 确认发送者 ID 在 allowlist 或已完成配对;③ openclaw logs --follow 实时观察收到消息时的日志,定位消息在哪一层被丢弃。

Q:云端部署(Railway/Fly.io)和本地部署的问题排查有区别吗?
有。云端部署无法直接访问本地命令行,排查主要依赖:① 平台日志控制台(Railway Logs / Fly Logs);② https://<域名>/setup 的状态页面;③ 将 openclaw status --json 的结果通过 Bot 自身发送出来(添加一个 status 指令工具)。本地部署可以直接运行所有 openclaw * 命令行工具。

Q:更新 OpenClaw 后出现新问题怎么办?
先运行 openclaw doctor --repair 处理配置格式迁移问题。大版本升级后配置文件的 Schema 可能变化,doctor 会自动转换旧格式。如需回滚,使用 npm install -g openclaw@<旧版本号> 安装指定版本。


总结

OpenClaw 部署问题绝大多数集中在三个环节:Node.js 环境(版本和 PATH)、网关启动(端口和模式配置)、渠道配置(配对和白名单)。遇到问题时,先跑 openclaw doctor,再按本文的报错关键词索引表定位具体问题,多数情况下 5 分钟内可解决。

延伸资源:

本文基于 OpenClaw 2026 年 3 月官方文档,工具版本迭代较快,建议对照最新文档使用。

OpenClaw 的国产替代中,目前最值得关注的是七牛云推出的 Linclaw——一款无需 Node.js 环境、下载即用的桌面版 AI 助手,原生支持钉钉、飞书、QQ、微信四大国内平台,内置 Shell、文件操作、浏览器、截图等工具开箱即用。本文对比 OpenClaw 与 Linclaw 的核心差异,帮助国内用户找到最合适的方案。


OpenClaw 在国内用起来有哪些痛点?

OpenClaw 是优秀的开源 AI 助手框架,但对国内用户存在几个明显摩擦点:

  • 环境门槛高:需要 Node.js 22+、npm、命令行操作,非技术用户难以上手
  • 国内平台支持弱:官方渠道以 Telegram、Discord、WhatsApp 为主,钉钉、飞书、微信需自行配置
  • 网络依赖:安装脚本和部分依赖访问境外服务,国内网络不稳定时容易失败
  • 无 GUI:没有图形界面,全程命令行配置,学习成本集中在第一天

这些问题催生了国内开发者对"更易用的国产版本"的需求。


Linclaw 是什么?

Linclaw 是七牛云基于 OpenClaw 理念推出的桌面版 AI 助手,核心定位是零部署、国产平台优先、开箱即用

一句话描述:把 OpenClaw 的 AI Agent 能力打包成 Windows/macOS 安装包,国内用户下载即可使用,无需任何环境配置。

基本信息

  • 开源协议:MIT
  • 支持私有部署
  • 官网:linclaw.qnlinking.com
  • 技术底座:ReAct Agent 架构(基于 AgentScope)+ 七牛云 MaaS 驱动

Linclaw vs OpenClaw:核心对比

对比项OpenClawLinclaw
安装方式npm 命令行安装,需 Node.js 22+DMG / EXE 安装包,双击安装
环境要求Node.js 22+、npm无(开箱即用)
GUI 界面无,全命令行有桌面客户端
国内平台需手动配置钉钉、飞书、QQ、微信原生支持
国际平台Telegram、Discord、WhatsAppTelegram、Discord、Slack、iMessage
内置工具需配置插件Shell、文件、浏览器、截图开箱即用
AI 模型25+ 家提供商七牛云 MaaS(DeepSeek/Kimi/GLM 等)
定时任务支持支持(APScheduler + Cron)
MCP 协议支持支持
记忆能力短期 + 长期多轮记忆 + 智能压缩
适合人群技术开发者技术 + 非技术用户均可
开源协议MITMIT

Linclaw 支持的 9 大接入渠道

Linclaw 完整支持以下平台,国内用户最关心的四个均已原生支持:

渠道国内/海外状态
钉钉国内✅ 原生支持
飞书国内✅ 原生支持
QQ国内✅ 原生支持
微信国内✅ 原生支持
Telegram海外✅ 支持
Discord海外✅ 支持
Slack海外✅ 支持
iMessage苹果生态✅ 支持
Web浏览器✅ 内置

相比 OpenClaw 官方主推 Telegram/Discord/WhatsApp,Linclaw 的渠道覆盖对国内用户更友好。


安装 Linclaw:3 步完成

第一步:下载安装包

前往 linclaw.qnlinking.com,根据系统选择:

  • macOS(Apple Silicon):下载 ARM DMG
  • macOS(Intel):下载 x86 DMG
  • Windows 10/11 64位:下载 EXE 安装包

也可通过 pip 一步安装(适合已有 Python 环境的用户):

pip install linclaw

或从 GitHub 获取源码自行构建。

第二步:配置 AI 模型

首次启动后,在设置界面填入模型配置。Linclaw 默认接入七牛云 MaaS,内置 DeepSeek V3、Kimi K2.5、智谱 GLM、MiniMax 等国内主流模型,填入七牛云 API Key 即可启用。

也支持接入 Anthropic Claude、OpenAI 等国际模型(填入对应 API Key 和 Base URL)。

第三步:连接渠道

以飞书为例:

  1. 在飞书开放平台创建应用,获取 App ID 和 App Secret
  2. 在 Linclaw 设置中选择"飞书"渠道,填入上述凭证
  3. 将机器人添加到目标群组或开启单聊
  4. 发送消息测试,AI 响应即配置成功

钉钉配置流程类似:创建钉钉机器人 → 获取 Webhook 或 AppKey → 填入 Linclaw → 测试连通。


内置工具:开箱即用的 4 大能力

Linclaw 内置工具无需额外安装插件,AI 可直接调用:

工具功能描述典型用法
Shell执行系统命令"帮我查一下 /tmp 目录下最大的文件"
文件操作读写、搜索本地文件"把这份会议记录整理后保存到桌面"
浏览器网页访问、信息抓取"帮我查一下今天的 AI 新闻摘要"
截图屏幕截图并分析"帮我看一下当前屏幕上的报错是什么意思"

这四个工具覆盖了大多数日常 AI 助手场景,无需像 OpenClaw 那样逐一配置插件。


谁适合用 Linclaw?谁适合用 OpenClaw?

选 Linclaw,如果你是:

  • 企业员工,主要在钉钉/飞书工作,想接入 AI 助手
  • 非技术背景,不想折腾 Node.js 和命令行
  • 想用国产大模型(DeepSeek/Kimi/GLM),希望一站式配置
  • 对安装速度有要求,希望 10 分钟内完成配置

选 OpenClaw,如果你是:

  • 开发者,需要深度自定义工具和插件
  • 已有服务器,需要无头部署(无 GUI)
  • 需要接入 ClawHub 生态的 50+ 专业插件
  • 项目需要多 Agent 复杂路由配置

常见问题

Q:Linclaw 和 OpenClaw 的数据互通吗?
两者均基于 Agent 理念设计,但目前是独立的实现,配置和会话数据不直接互通。如果你同时使用两者,需要分别配置渠道和模型。

Q:Linclaw 是否完全免费?
Linclaw 本体 MIT 开源免费。调用 AI 模型会产生 API 费用——使用七牛云 MaaS 按 Token 计费,新用户有免费额度;使用 OpenAI/Anthropic 等则按各自定价收费。

Q:Linclaw 支持私有部署吗?
支持。MIT 协议允许完全私有化部署,企业可在内网服务器上运行,所有数据不经过第三方。

Q:微信接入是否稳定?
微信官方不开放机器人 API,国内所有 AI 助手工具的微信接入均依赖非官方方式,存在一定封号风险。建议企业场景优先使用钉钉或飞书(均有官方机器人 API),个人使用微信渠道需自行评估风险。

Q:Linclaw 的定时任务怎么配置?
Linclaw 使用 APScheduler 作为调度引擎,支持标准 Cron 表达式配置定时任务(如"每天早上 9 点发送日报摘要")。在设置界面的"定时任务"模块填写 Cron 表达式和任务描述即可,无需命令行操作。


总结

对于国内用户,Linclaw 是目前最省事的 OpenClaw 系 AI 助手方案:零环境依赖、原生支持钉钉/飞书/QQ/微信、内置核心工具、七牛云 MaaS 一键接入国产大模型。OpenClaw 适合需要深度定制的技术用户,Linclaw 适合希望快速落地的个人和企业用户。两者均 MIT 开源,按需选择。

延伸资源:

本文内容基于 2026 年 3 月 Linclaw 官网及 OpenClaw 官方文档,产品功能以各官网最新版本为准。

本文由云软件体验技术团队郑志超原创。

版本速览

v3.29.0 版本带来了:

  • 组件无障碍信息全面完善 - 组件智能化必备
  • 新增tag-input组件- 轻松管理多标签输入,灵活适配任意场景
  • 65+ Bug + 优化修复 - 稳定性大幅提升

详细的 Release Notes 请参考:https://github.com/opentiny/tiny-vue/releases/tag/v3.29.0

新贡献者

本次版本共有 13位贡献者参与开发,其中 Yujing613 / zhaoxiaofeng876 / ourcx 是新朋友,欢迎新朋友的加入👏

  1. @shenjunjian
  2. @kagol
  3. @zzcr
  4. @gimmyhehe
  5. @Yujing613 新增贡献者✨
  6. @Davont
  7. @GaoNeng-wWw
  8. @wuyiping0628
  9. @zhaoxiaofeng876 新增贡献者✨
  10. @James-9696
  11. @IKEYCY
  12. @ourcx 新增贡献者✨
  13. @discreted66

感谢新老朋友们对 TinyVue 的辛苦付出👏

反馈与支持

如果你在使用过程中遇到任何问题,或者有好的建议,欢迎:

升级指南

你可以更新 @opentiny/vue@3.29.0 进行体验!

# 安装最新版本

npm install @opentiny/vue@3.29.0

# 或使用 yarn

yarn add @opentiny/vue@3.29.0

如果遇到问题,可以:

  1. 查看 Issue - 在 GitHub 上搜索相关问题
  2. 提交 Issue - 如果问题未解决,提交新的 Issue

 

特性介绍

下面我们一起来看看都有哪些更新吧!

组件无障碍信息全面提升优化

为什么需要全面优化组件的无障碍信息?

  1. 增强组件语义化,提升代码可维护性和可读性:无障碍信息要求为元素提供清晰的语义角色、状态和名称,这强制开发者在编写代码时明确组件的意图和用途,使得代码结构更清晰、自文档化,便于团队成员理解和维护,降低技术债务。
  2. 优化AI驱动的前端测试与调试效率:通过Chrome DevTools MCP等工具,AI能够像人一样“检查”页面无障碍属性,自动识别缺失的ARIA标签、焦点管理问题,甚至模拟键盘导航,从而在开发早期发现深层次交互缺陷,减少人工回归测试成本。
  3. 提升搜索引擎对页面内容的理解和索引质量:无障碍信息中的标题层级、landmark角色、图片alt文本等语义标记,与SEO优化高度重合,有助于搜索引擎爬虫更准确地解析页面结构和关键内容,从而改善网站在搜索结果中的排名和展示效果。
  4. 支持未来多模态交互和智能助理的无缝集成:随着语音助手、读屏软件、AR/VR等新型交互方式普及,完备的无障碍信息成为应用与这些智能代理对话的基础,使得用户可以通过语音指令直接操作界面,实现更自然的“人-AI-应用”交互链条。
  5. 扩大组件库的用户基数和应用场景,增强市场竞争力:一个全面优化无障碍的组件库能同时服务于开发者构建合规的政府/企业项目、公益组织应用以及面向国际市场的产品,显著提升组件库的适用性和吸引力,形成差异化竞争优势。

优化后的效果:

    组件无障碍信息在完备的情况下,使用 opentiny 主推的 AI-Extension 浏览器插件可以轻松操控TinyVue搭建的业务页面,具体效果如下演示视频:

1.gif

新增tag-input组件: 轻松管理多标签输入,灵活适配任意场景

先来大体看下组件的基本外观感受一下:

2.png

主要特性:
  1. 禁用与只读 - 支持禁用状态和只读模式
  2. 最大标签数 - 可以限制最多可输入的标签数量
  3. 折叠标签 - 当标签过多时可以折叠显示
  4. 可清空标签 - 支持清空所有已输入的标签
  5. 分隔符输入标签 - 支持通过分隔符(如逗号、空格等)快速输入多个标签
  6. 自定义前后缀 - 可以自定义标签的前缀和后缀内容
  7. 可拖拽标签 - 支持通过拖拽重新排列标签顺序

结语

TinyVue v3.29.0 版本的发布,完成了两项重要升级: 全面增强优化组件库的无障碍信息、新增tag-input组件;同时修复了 65+ 个 Bug,整体稳定性大幅提升。通过这些改进,TinyVue 不仅在性能上实现了突破,也为开发者提供了更灵活、可维护的组件库,期待在未来的项目中为你带来更高效、更优雅的开发体验,让我们一起,让前端开发变得更简单、更高效!

联系我们

GitHub:https://github.com/opentiny/tiny-vue(欢迎 Star ⭐)
官网:https://opentiny.design/tiny-vue
关于我们:https://opentiny.design/opentiny-design/about

小助手微信:opentiny-official
公众号:OpenTiny

大家好,我是R哥。

2026 年,OpenClaw 引爆全网,到现在还没有看到要停歇的迹象,反而越来越火了,个人在玩一人公司,连大厂们都在卷,整个 AI 生态都在玩 OpenClaw,真的是热闹非凡啊。

全网都在积极地部署 OpenClaw 来养虾,甚至还有不少玩家已经养成了好几只虾了,你确定还要做一个旁观者吗??

如果你想上手 OpenClaw,还是有一定门槛的。。

说说几大痛点和共鸣:

  • 环境配置复杂,即使是技术人员,动辄几小时甚至一天的部署时间,折腾到怀疑人生。
  • Token 消耗如流水,一不小心就超预算,成本飙升,压力山大。
  • 模型响应不稳定,关键时刻掉链子。

难道就没有一个全家桶方案,能让我们真正实现零门槛安装和使用 OpenClaw,免去复杂配置、7 × 24 在线,同时实现 Token 自由吗

别急,火山引擎这次把门槛直接拆了,小白也能部署和玩转小龙虾了。。

最近,火山引擎推出了 Arkclaw,解决了上述所有痛点,可一键部署 OpenClaw、对接飞书机器人、玩转飞书生态等,好用、方便又便宜。

Arkclaw 介绍及优势

ArkClaw 是火山引擎提供的云端 AI 智能体(Agent)服务,能实现一键云端部署 OpenClaw,享有一对一专属 ECS 资源,免去复杂配置、7 × 24 在线,零门槛使用 OpenClaw,还能无缝使用订阅的火山方舟 Coding Plan,告别 Token 按量计费焦虑。

如果你以为 Arkclaw 只是一个 OpenClaw 部署工具,那你就错了。

说说使用 Arkclaw 的优势:

  • 更优的模型适配:支持 Doubao-Seed 2.0 Pro & Lite & Code / DeepSeek 3.2 / GLM 5.0 / MiniMax 2.5 / Kimi 2.5,高效协同 Doubao-Seed 2.0;
  • 更低的使用成本:自带 Token 节省和优化,支持端云存储协同,文件无缝直连,减少重复传输与计算,构建长期记忆;
  • 更亲和飞书生态:专属飞书插件(火山 ArkClaw 独家优势),轻松处理日程安排和提醒、会议总结预定、复杂文档/表格处理,一键接入飞书专属 Skills;并内置网盘长效存储,LUl & Terminal 兼容模式,灵活易用;
  • 更安全使用环境:全面保护数据与隐私安全,支持火山专属 Skills Hub,内置 Skills 安全扫描、数据防泄漏能力,确保 Skills 质量与能力,安全可信;
  • 生态兼容:兼容 GLM、Minimax、Kimi 等更多主流模型;
  • 多功能开箱即用:定时任务、人格设置、IM一键配置,0 门槛 Web 端直接使用,功能持续迭代,常用常新。

我还发现了一个更亮眼的功能,它具备傻瓜式运维能力,提供了 Terminal 登录、OpenClaw 自动修复、Skills Hub 白屏化接入等高级功能,让运维变得前所未有的简单,不再需要专业运维技能,人人都能轻松管理和维护 OpenClaw 实例

火山的 ArkClaw 是真的把门槛打下来,小白也能养虾了,下面咱们进入 ArkClaw 接入指南及初体验!

ArkClaw 一键部署 OpenClaw

ArkClaw 的部署过程非常简单,几步操作就能完成,接下来,让我带大家一起上火山养虾,轻松部署 OpenClaw!

ArkClaw 体验入口:

https://v2ig.cn/cRm03IcFyUU/

1、订阅方舟 Coding Plan

方舟 Coding Plan 是为开发者量身打造的 AI Coding 场景订阅服务,现已全面升级,支持主流 Code 模型(Doubao-Seed-2.0-Code & Lite & Pro、Doubao-Seed-Code、GLM、Kimi、DeepSeek 等最新版本)的使用和自由切换。

Coding Plan 服务还兼容主流 AI 编码工具,如:Trae、 Claude Code、veCLI、Cursor、Cline、Codex CLI 等,为开发者提供畅快、智能、稳定的编码体验,提升代码编写效率与质量。

Coding Plan 现在可以抢先体验 ArkClaw:

Lite & Pro Plan 订阅用户都可以免费使用 ArkClaw:

  • Coding Plan Lite 订阅用户,免费体验 7 天 ArkClaw 使用权益;
  • Coding Plan Pro 订阅用户,会话周期内 ArkClaw 可持续免费使用;

太爽了,新用户首购最低 9.9 元就能试玩,量大管饱性价比高,扫码订阅即可。

通过我的邀请注册订阅 Coding Plan,再享 9 折优惠价,首月 8.9 元 就能玩起来了,订阅越多越划算。

可以通过我的邀请链接注册:

https://volcengine.com/L/zBWUFWykf2w/

有了 Coding Plan 的加持,大幅度降低玩 OpenClaw 的成本,再也不用每天计算 tokens 使用量,减少预算管控成本,专注核心开发工作,Coding Plan 简直就是 OpenClaw 这样智能 Agent 的最佳搭档。

2、创建并使用 ArkClaw

订阅任意 Coding Plan 套餐后,就可以创建 ArkClaw 实例了:

点击 “立即创建” 按钮,等个 1 - 2 分钟,就能看到 ArkClaw 实例创建成功了:

3、与 ArkClaw 进行对话

我们可以直接在 ArkClaw 的对话页面与它进行对话了:

我这里问了它是什么模型,以及它是什么操作系统,它都能正确回答,说明它已经成功部署好了。

4、设置 ArkClaw

点击右上角的设置图标:

在这里,可以重启 ArkClaw、自动修复 ArkClaw 实例、打开终端、配置模型等,其中自动修复功能非常强大,如果 ArkClaw 实例出现异常,直接点击自动修复就能帮你修复实例了,不需要任何专业的运维技能了,真正实现了傻瓜式运维

如果你是开发者,还可以打开终端,直接在云端操作 ArkClaw 实例了,不需要再通过 SSH 连接服务器了,超级方便。

通过飞书与 ArkClaw 对话

上面我们已经成功部署了 ArkClaw,并且在 ArkClaw 的对话页面和它进行了对话,接下来,我来演示一下如何通过飞书来和 ArkClaw 进行对话

现在通过扫描二维码就能一键创建机器人,太方便了。

回到 ArkClaw 对话页面,点击 “飞书配对” 按钮:

等待终端命令执行完成,会展示创建飞书机器人二维码:

然后使用手机飞书 APP 扫描该二维码,并填写机器人名称,再点击 “创建” 按钮开始创建流程:

机器人创建成功后,ArkClaw 会自动配置新建机器人信息:

期间不要关闭终端,等显示 “所有任务执行成功!” 说明配对成功了,最后关掉终端窗口就好了。

完成机器人匹配后,我们就可以通过飞书机器人与 ArkClaw 进行对话了:

这里,我和 ArkClaw 问了个好,然后让它把 OpenClaw 更新到了最新版本。

之后,我们就可以通过飞书来和 ArkClaw 进行对话了,不用每次都要回到 ArkClaw 的对话页面了,手机、电脑都能随时指挥 ArkClaw,超级方便!

ArkClaw + 飞书高级玩法

使用 ArkClaw 和飞书结合的好处就是,可以让 ArkClaw 直接在飞书里帮我们处理一些事情,让 ArkClaw 直接在飞书里帮我们安排日程、创建定时任务、生成飞书文档等,大大提升了我们的工作效率。

接下来,我来演示这几个 ArkClaw 和飞书结合的高级玩法,看看 ArkClaw 在飞书机器人里面怎么玩。

1、安排日程

先演示一个让 ArkClaw 创建飞书日程的场景,比如:

帮我定一个明天早上 9 点的日程,主题是:写一篇 ArkClaw 的原创文章。

如果没有授权过,会要求授权,点击授权后会弹出飞书授权页面,完成授权后就可以看到日程已经创建成功了:

在日历中也可以看到这个日程:

这个场景对使用 ArkClaw 的小伙伴们非常实用,可以让 ArkClaw 帮我们安排日程,提醒我们按时完成任务。

所以,学会了这点,我们再也不用担心忘记重要的事情了,也不用手动去创建日程了,一句话 ArkClaw 就帮你搞定了

2、创建定时任务

这里我再演示一个让 ArkClaw 创建定时任务的场景,比如:

每天早上 9 点,抓取一下过去 24 小时内的 AI 领域的热点新闻并生成报告。

定时任务创建成功后,ArkClaw 就会每天早上 9 点自动执行这个任务了,我们就可以每天早上都收到一份 AI 领域的热点新闻报告了

也可以让它手动执行一下这个定时任务,看看它的效果:

不错,效果杠杠的,它帮我抓取了 24 小时内的 AI 热点新闻,并且生成了一个简单的报告。

这个功能对于需要定期执行某些任务的小伙伴们来说非常实用,可以让 ArkClaw 帮我们自动执行这些任务了。

比如,如果你是程序员,你还可以让它帮你每天定时检查一下你的代码仓库,看看有没有新的 issue 或者 pull request 需要处理了,让 ArkClaw 帮我们自动执行这些重复性的任务。

3、生成飞书文档

使用 ArkClaw 最强大的功能之一就是它自带的飞书生态了,下面我演示下如何让 ArkClaw 将任务的结果保存为飞书文档,方便通过飞书查看、分享,比如:

帮我调研下 ClawHub 中下载量最多的前 10 个 Skill,将它们的功能、特点、安装方式等信息汇总为一个飞书文档。

在授权成功后,它就会自动创建一个飞书文档,并将调研结果保存到这个文档里了。

来查看这个文档:

很惊艳啊,这个功能真的太强大了。。。

学会这一招,我们就可以让 ArkClaw 直接在飞书里帮我们生成文档,有需要还可以分享出去,对于需要经常生成报告、总结的同学来说,这个功能简直就是神器了

总结

总的来说,火山引擎的 ArkClaw 真的是一个非常强的 OpenClaw 部署和使用工具,它不仅解决了 OpenClaw 部署的痛点,还提供了很多实用的功能,让我们能够更方便地使用 OpenClaw 来养虾。

谁不想要一个 7 * 24 小时的全能助手,来帮我们处理各种任务呢?

有了 ArkClaw,这一切都变得简单了,它能帮你安排日程、创建定时任务、生成飞书文档,甚至帮你写代码、调试代码,等等,使用场景非常多,一人就是一个小团队了。

更重要的是,你不需要再担心部署和运维了,让 ArkClaw 专注于帮你做更多有价值的事情吧

最后再奉上 ArkClaw 的体验入口链接:

https://v2ig.cn/cRm03IcFyUU/

一起来玩 ArkClaw 养虾吧,提升工作效率!

谷歌发布首个原生多模态嵌入模型

 

昨夜,谷歌宣布推出全新的多模态嵌入模型 Gemini Embedding 2,这是首个基于 Gemini 架构构建的原生多模态嵌入模型。目前,该模型已经通过 Gemini API 和 Vertex AI 向开发者提供公开预览。

 

与此前仅支持文本向量化的嵌入模型不同,Gemini Embedding 2 可以将文本、图像、视频、音频以及文档等多种数据类型映射到同一个统一的嵌入空间,从而支持跨媒体语义理解与检索。这一能力意味着开发者可以在同一向量数据库中处理不同类型的数据,并基于语义相似度实现跨模态搜索、分类与聚类。

 

从应用层面来看,统一嵌入空间可以显著简化多模态 AI 系统的架构。以往,如果企业希望构建支持文本与图像检索的系统,通常需要分别使用不同模型生成向量,再通过额外的对齐或映射机制进行整合。而 Gemini Embedding 2 将不同模态的语义直接投射到同一向量空间,使得 检索增强生成(RAG)、语义搜索、情感分析、推荐系统以及数据聚类 等任务能够在统一框架下完成。

 

在能力规格上,Gemini Embedding 2 延续了 Gemini 系列模型的多模态处理优势,并对不同输入类型提供了明确的支持范围。

 

  • 文本:支持最多 8192 个输入标记的扩展上下文

  • 图像处理:每次请求最多可处理 6 张图像,支持 PNG 和 JPEG 格式

  • 视频:支持输入最长 120 秒的 MP4 和 MOV 格式视频

  • 音频:原生支持音频数据的导入和嵌入,无需中间文本转录。

  • 文档:直接嵌入最多 6 页的 PDF 文件

 

除了单模态处理能力之外,Gemini Embedding 2 还原生支持交错输入(interleaved input)。开发者可以在同一个请求中同时传入多种模态,例如“图片 + 文本描述”或“视频 + 文本提示”。模型会在生成向量表示时综合不同媒体之间的关系,从而捕捉更复杂的语义结构。例如,在电商或媒体分析场景中,系统可以同时理解商品图片与描述文本之间的关联。

 

在向量表示层面,Gemini Embedding 2 采用了Matryoshka Representation Learning(MRL)技术。这种表示学习方法通过“嵌套”信息结构,使模型能够在保持语义质量的前提下动态压缩向量维度。

 

默认情况下,模型输出 3072 维向量,但开发者可以根据需求缩减维度,以降低存储与检索成本。官方建议在 3072、1536 或 768 维三个级别之间进行选择,以在性能与资源消耗之间取得平衡。

 

那么,这款新模型性能如何?

多项基测排名第一

 

谷歌在官网介绍,Gemini Embedding 2 不仅仅是对传统模型的改进,它还为多模态深度建模树立了新的性能标杆,引入了强大的语音处理能力,并在文本、图像和视频任务中超越了领先的模型。这种可衡量的性能提升和独特的多模态覆盖范围,能够精准满足开发者多样化的嵌入需求。

 

具体而言,在 Text–Text(文本对文本)的语义匹配任务中,Gemini Embedding 2 的表现优于其他模型。在 MTEB 多语言基准(Mean Task)测试中

 

  • Gemini Embedding 2:69.9

  • Gemini-embedding-001:68.4

  • Amazon Nova 2:63.8

  • Voyage 3.5:58.5

 

这一指标反映模型在多语言语义理解任务中的平均能力。Gemini Embedding 2 比 Amazon Nova 2高出约 6 分,比 Voyage 3.5高出超过 11 分,说明其在跨语言语义对齐方面具有更好的泛化能力。

 

代码语义理解(MTEB Code)上,同样具有优势:

  • Gemini Embedding 2:84.0

  • Gemini-embedding-001:76.0

 

相比上一代 Google 文本嵌入模型,提升达到8 个点,表明新模型在技术文档、代码搜索、开发者 RAG 等场景中的表现显著增强。

在 Text–Image 与 Image–Text 任务上,Gemini Embedding 2 在主流数据集上几乎全面领先。在文本到图像检索中,在 TextCaps 数据集上,

 

  • Gemini Embedding 2:89.6

  • Amazon Nova 2:76.0

  • Voyage 3.5:79.4

  • multimodalembedding@001:74.0

 

Gemini Embedding 2 相比 Amazon Nova 2 提升约 13.6 分,说明其文本到图像语义映射更准确。

 

在图像到文本检索中,在 TextCaps 数据集上,

 

  • Gemini Embedding 2:97.4

  • Google multimodalembedding@001:88.1

  • Amazon Nova 2:88.9

  • Voyage 3.5:88.6

 

Gemini Embedding 2 接近 100 分水平,比其他模型 高出约 9 分。

 

谷歌强调,嵌入技术是许多谷歌产品体验的核心驱动力。从 RAG(嵌入技术在上下文工程中发挥关键作用)到大规模数据管理和经典搜索/分析,谷歌的一些早期合作伙伴已经在使用 Gemini Embedding 2 来解锁高价值的多模态应用。

 

Everlaw 公司 CTO Max Christoff 表示:“在诉讼取证(Discovery)这一高风险、高技术要求的环节中,寻找核心信息是一项巨大的挑战。我们之所以选择 Gemini 嵌入(embeddings)技术,正是因为其在这一领域的卓越表现。最新的测试结果显示,Gemini 的多模态嵌入模型在处理数百万条记录时,显著提升了搜索的准确率(Precision)与召回率(Recall),并成功解锁了针对图像和视频文件的强大搜索功能。对于法律专业人士而言,这些新能力为快速理解和掌握复杂大案的卷宗材料提供了全新的、前所未有的路径。”

 

 

Sparkonomy 联合创始人 Guneet Singh 表示:“Gemini Embedding 2 为 Sparkonomy 的‘创作者经济平等引擎’奠定了坚实基础。得益于其原生的多模态能力,我们通过省去大模型(LLM)推理环节,将延迟大幅降低了70%;同时,文本-图像及文本-视频对的语义相似度得分从 0.4 提升至 0.8,实现了近乎翻倍的飞跃。这为我们独有的‘创作者基因组(Creator Genome)’提供了强大动力,使其能够以前所未有的精度,对数百万分钟的视频以及海量图像和文本进行索引。这不仅解锁了更加公正客观的品牌合作,也让经济成功的红利普惠至每一位创作者。”

网友评价:多模态 RAG 新基准来了

 

在多模态大模型竞争进入白热化的今天,谷歌新一代嵌入模型的发布不仅打破了技术圈的宁静,更在开发者社区引发了一场关于“效率革命”的大讨论。

 

网友们的评价从工程架构的简化到行业范式的转移,无一不透露出对这一技术跃迁的震撼。

 

对于许多企业而言,维护一个庞大的数据管道是必不可少的成本。然而,新模型的出现正在彻底重写这一逻辑。

 

“一个能够同时嵌入文本、图像、视频、音频和文档的统一空间,其背后的意义极其深远。”

 

有网友犀利地指出,以往需要雇佣8 个人精心维护的整条“数据管道团队”,如今在这一新模型面前,竟然被压缩成了一个简单的API 调用。这种极致的“智能密度”让开发者感慨:一个曾经需要跨部门协作才能实现的复杂系统,现在仅凭一个终端指令即可完成。这不仅是技术的进步,更是企业工程效率的一次“降维打击”。

长期以来,AI 在处理不同模态的数据时,往往像是处于互不相通的“孤岛”中。而新模型对交错输入(Interleaved Input)的支持,被网友公认为最神奇的突破点。谷歌的新模型主要具备以下几点突破,首先是全场景融合: 用户可以将图像、长篇音频和 PDF 文档等异构数据“一股脑儿地扔进去”。此外还能跨模态共情: 模型不再只是生硬地提取关键词,而是能够真正理解内容的语气、氛围与内在逻辑。

 

网友评论称:“我们终于不用再忍受模态孤岛了。”这种全局理解能力,标志着 AI 从“分类机器”进化到了真正的“语境大师”。

如果说架构的简化和功能的增强是“面子”,那么合作伙伴给出的实测数据则是扎实的“里子”。Everlaw 和 Sparkonomy 等早期接入者的反馈,让业内人士感到震惊。

 

从合作伙伴给出的数据来看,有网友认为这绝非一次常规的小版本迭代,而是为多模态 RAG(检索增强生成)树立了全新的行业基准。

 

参考链接:

https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-embedding-2/

https://x.com/search?q=gemini%20embedding%202&src=typed_query

https://ai.google.dev/gemini-api/docs/models/gemini-embedding-2-preview?hl=zh-cn

近日,据 Axios 报道并经 TechCrunch 证实,Meta 完成了一项颇具实验色彩的收购:买下了 Moltbook。这是一个被戏称为“AI 版 Reddit”的神秘社交平台,在这个平台上,活跃的“用户”并非人类,而是基于 OpenClaw 协议相互交流的 AI Agent。

 

虽然收购条款尚未披露,但 Moltbook 的两位创始人 Matt Schlicht 和 Ben Parr 已确认入职 Meta,加入由前 Scale AI CEO Alexandr Wang 领导的 Meta Superintelligence Labs(MSL)。

 

Moltbook 的爆红,离不开底层技术栈OpenClaw的加持。

 

OpenClaw 最初是由知名开发者 Peter Steinberger(现已加入 OpenAI)创建的爆款开源项目。它本质上是一个 AI 模型的“万能封装器”,能将 Claude、ChatGPT、Gemini 或 Grok 等顶级大模型,无缝接入 iMessage、WhatsApp、Discord 等主流社交应用。

 

而 Moltbook 则在此基础上更进一步。它建立了一个“始终在线”的目录,让成千上万个 AI 代理在其中像人类一样发帖、评论、争论。

 

Meta 发言人对此表示:“Moltbook 团队的加入,为 AI 代理服务于个人和企业开辟了新路径。他们通过持续在线目录连接代理的方法是一项创新,我们期待以此带来更安全、创新的代理体验。”

 

尽管 Meta 官方说辞严谨,但公司高层对此类项目的态度却耐人寻味。上个月,Meta CTO Andrew Bosworth 在 Instagram 问答中直言,他并不觉得 AI 能像人类一样说话有多“有趣”,因为那只是基于海量人类数据的模仿。

 

相比于 AI 之间的聊天,Bosworth 表现出了某种更清醒的趣味:他更感兴趣人类是如何“入侵”这个社交网络的。 在他看来,那些人类冒充 AI 引发的混乱,比 AI 代理本身更像是一个值得研究的“大规模错误”。

为提升 Dropbox Dash 生成回复的相关性,Dropbox 工程师开始采用大语言模型辅助人工标注,这一做法在识别用于生成回复的文档方面发挥了关键作用。他们的方案也为各类基于检索增强生成(RAG)的系统提供了极具价值的参考。

正如 Dropbox 首席工程师 Dmitriy Meyerzon 所言,文档检索质量是 RAG 系统的瓶颈——这类系统需要从海量文档库中筛选出相关内容,再将其输入给大语言模型。

企业搜索索引中存在数百万份文档,超大型企业更是多达数十亿份,因此 Dash 只能将检索到的极少部分文档传给大语言模型。这使得搜索排序质量——以及用于训练排序的相关性标注数据——对最终答案的效果至关重要。

这意味着搜索排序模型的质量直接影响最终生成答案的质量。Dash 采用监督学习技术训练排序模型,会根据文档满足查询需求的程度,对查询-文档对进行标注。这种方法的主要难点,在于如何生成大量高质量的相关性标注数据。

为解决纯人工标注的局限(成本高、速度慢、一致性差),Dropbox 引入了一种补充方案:利用大语言模型大规模生成相关性判断。这种方法成本更低、一致性更强,且能轻松扩展到大型文档集。但大语言模型并非完美的评估者,因此在使用其判断结果进行训练前,必须先对其效果进行评估。

在实际应用中,利用大语言模型进行相关性评估需要一套自动化与人工监督相结合的标准化流程。

这种被称为“人工校准的大语言模型标注”的方法十分简洁:先由人工标注一小批高质量数据集,用于校准大语言模型评估器;再由大语言模型生成数十万乃至数百万条标注,将人工工作量放大约 100 倍。需要注意的是,大语言模型并不会取代排序系统——若在查询时直接用其进行排序,速度过慢且会受上下文长度限制。

评估步骤包括:将大语言模型生成的相关性评分与人工判断进行对比,测试对象为训练集中未出现的查询-文档对子集。评估还重点关注最难修正的错误——即大语言模型判断与用户行为不一致的情况,例如用户点击了模型评分较低的文档或跳过了模型评分较高的文档,这类错误能提供最强的学习信号。

还有一个重要的考量:上下文往往是判断相关性的关键。例如在 Dropbox 内部,“diet sprite”指的是一款内部性能工具,而非饮料。为解决这一问题,研究人员让大语言模型进行额外检索、获取上下文并理解内部术语,这显著提升了标注的准确性。

根据在 Dropbox Dash 上的实践经验,Meyerzon 表示,这种方法能够让大语言模型在大规模场景下持续放大人工判断,成为优化 RAG 系统的有效手段。

原文链接:

https://www.infoq.com/news/2026/03/dropbox-scaling-human-judgement/

一款现代、高性能且轻量级的 WSL (Windows Subsystem for Linux) 实例管理面板。基于 Rust 和 Slint 构建,提供高级的原生体验。

今天是 3 月 12 日植树节,在这个播种希望的节日里,愿您种下的所有美好愿望,都能随着春天生根、发芽、茁壮成长。

A、更新日志
1、优化 vscode 打开发行版的启动方式(VS Code 安装 WSL 插件后,基本上 100% 能正常打开)。
2、微软商店安装发行版卡顿问题修复。
3、移动,克隆发行版,同时处理厂商图标。

B、功能预告
网络功能开发中,预计三月底---四月底发布(网络功能及交互相对比较复杂,预留足够时间开发测试)

C、新功能提交
有什么新功能诉求,可以在下方评论 或者 提交 issues。

D、重要的事情
项目主页 : https://github.com/owu/wsl-dashboard

如果项目对您有帮助,请帮我加一个星标(大佬们,帮我助力一把,争取早日突破一千个星标)。

E、伙伴邀请
如果您对 Rust 及 开源 充满兴趣,可以沟通加入一起开发该工具。

今年 38 了,干计算机行业的,从今年 1 月份到现在,少说也投了 100 家公司了,接到的面试好像也就 3 个,其他的都是要么"送达"对方根本不看,要么就是“已读”不回。 而且我挑的都是 HR 最近 1 星期内在线的投的。

现在有工作,但是压力真的大,真的干不下去,995 ,怎么环境就这样了,心里很难受,心态也很不好,有房贷,有个刚出生的宝宝。真心很难受。

TLDR:

  • openclaw 新增 --uninstall 命令,彻底卸载不留残留
  • 新增 hotkey 模块,支持 Ctrl+X AI 命令补全和 fzf 系列快捷键
  • 新增 neo 模块,类 neofetch 系统信息展示工具
  • 新增 x ssh setup 命令,内网服务器一键部署 x-cmd

🚀 x-cmd v0.8.8 更新详情

openclaw 🧹

新增 --uninstall 命令 —— 彻底卸载不留残留。

之前不少朋友反馈,openclaw 自带的 uninstall 命令不会帮你删除二进制文件。
所以加了 --uninstall,帮你清理得干干净净。

# 卸载 OpenClaw,包括二进制文件、网关服务、配置文件和工作区
x openclaw --uninstall

hotkey ⌨️

新增 hotkey 模块 —— 两年前就写好了,然后我们就忘了。

那是 2023 年,ChatGPT 刚火起来。我们在 co 模块里做了 Ctrl+X 的 AI 命令补全,跑了一下账单,倒吸一口凉气。
然后... 就没有然后了。代码躺在那儿,谁也没再提起。

现在不一样了。我们把 Ctrl+X 改成了 AI agent 切换,同时还加上了 fzf 系列快捷键:

  • Ctrl+R 历史搜索
  • Ctrl+T 文件选择
  • Alt+C / Esc+C 目录跳转

先用 x hotkey try 试试,喜欢再用 x hotkey use 永久启用。

示例:

# 试用 co 部件(Ctrl+X 触发)
x hotkey try co

# 永久启用 fzf 系列快捷键
x hotkey use fzf-history fzf-file fzf-cd

neo 🖥️

新增 neo 模块 —— neofetch 的功能我们有了,但 "Neo" 不只是 "new" 的意思。

说实话,市面上类似的系统信息展示工具不少。但我们想的是:《黑客帝国》里的 Neo 是干什么的?
他是来觉醒的,来帮你看清系统的真实面貌。

所以现在的 x neo 先做了基础版——系统信息、内核、运行时间、CPU/GPU/内存,配上各种发行版的 ASCII 艺术 Logo。
支持多种显示模式(mini/std/all/llm/ui),Logo 也有标准和大尺寸可选。

但这只是开始。下一步 x neo chat 会让它变成真正的 AI 智能体,根据你的系统信息主动帮你管理和理解操作系统。

示例:

# 默认显示系统信息(带 Logo)
x neo

# 查看所有支持的发行版 Logo
x neo logo ls

# 显示大尺寸 Arch Logo
x neo logo large arch

# LLM 模式,纯文本输出适合喂给 AI
x neo fetch --llm

ssh 🌐

新增 x ssh setup 命令 —— 终于能给内网服务器一键部署 x-cmd 了。

之前内网环境装 x-cmd 挺头疼的,得下安装包、传进去、解压、改配置,步骤多还容易踩坑。现在只要你的机器能 SSH 连上,一条命令搞定:

x ssh setup user@hostname

装完之后,内网机器上这些功能都能直接用:

  • 主题和交互:theme 换肤、智能 Tab 补全、语法高亮、历史记录增强
  • 文件系统工具:增强版 ls、path 路径操作、ps 进程查看、df 磁盘分析
  • 开发辅助:git 增强、gitconfig 配置管理、githook 钩子管理、docker 快捷操作
  • 本地 AI:llmf 模块调用本地部署的开源大模型

详细的内网安装方案参考:https://cn.x-cmd.com/start/airgap

需要实时联网的功能目前在内网还不好使。env 装软件包这块我们也在研究方案,如果你有需求欢迎加群或提 issue 讨论。

⬆️ 如何升级

现有用户可以通过以下命令快速切换至最新版本进行体验:

x upgrade

如果你没有安装 x-cmd, 只需要打开你的终端:

eval "$(curl https://get.x-cmd.com)"

x-cmd 是一个一站式的命令行工具集,其强大的功能可以为人类用户和AI共同使用。它还简化了很多工具的安装方法。
马上安装,让 x-cmd 协同 AI 成为你的最强助手,实现生产力翻倍!

🤝 开发者反馈

如果您在自定义配置或代理设置中遇到任何疑问,欢迎前往 GitHub Issues 提交反馈,共同完善 X-CMD 生态。

很多企业在谈“企业资产”时,往往首先想到的是服务器、办公设备、电脑或者办公场地。这些确实属于企业资产,但如果只停留在这个层面,对软件企业来说显然是不够的。

在为软件企业客户提供服务的过程中,经常会发现一个问题:

企业内部每天都会产生大量数据、技术文档、项目资料、沟通记录以及系统数据,但这些信息往往分散在不同系统、不同员工电脑,甚至只存在于聊天记录中。

时间久了,也就会出现一些典型问题:

  • 项目经验无法沉淀
  • 技术资料难以复用
  • 信息分散导致沟通成本上升
  • 企业关键数据缺乏统一管理
  • 员工离职后经验流失

而这些问题本质上都指向一个核心问题:企业并没有真正理解软件企业的资产结构,也没有建立系统化的资产管理体系。

一个成熟的软件企业,通常至少拥有五类核心资产:数据资产、知识资产、软件系统资产、协作资产、技术资产

这五类资产共同构成了软件企业的核心竞争力。接下来我们结合实际企业情况,逐一分析。

第一类资产:数据资产

其实,数据资产是软件企业最基础、同时也是最容易被忽视的一类资产。很多企业每天都会产生大量数据,但真正能够被沉淀和利用的数据却非常有限。

从企业实际业务来看,软件企业的数据通常包括以下几类:

1、客户数据

例如:客户基本信息、客户需求记录、客户沟通记录、客户项目进度。

这些数据直接影响企业的销售策略和客户服务能力。如果这些数据分散在销售人员的聊天记录、邮件或个人电脑中,一旦人员变动,企业就会失去大量重要信息。

2、项目数据

软件企业的核心业务通常是项目或产品研发,因此会产生大量项目数据。

例如:项目需求文档、任务分配记录、项目进度数据、Bug 记录、版本迭代记录。

这些数据不仅是项目管理的依据,同时也是企业未来复盘和优化流程的重要依据。但现实情况是,很多团队的项目数据分散在 Excel、微信聊天记录、文档工具、个人电脑中——这种分散的数据结构会直接影响企业管理效率

3、产品数据

对于软件企业来说,产品本身也会不断产生数据。

例如:用户行为数据、使用日志、系统运行数据、功能使用统计。

这些数据对于产品迭代非常重要。如果企业缺乏统一的数据管理体系,产品团队就很难进行有效分析。

4、沟通数据

很多企业没有意识到一点:团队沟通记录本身也是重要的数据资产

例如:需求讨论、技术讨论、方案评审、项目决策。

这些信息如果只是存在于临时聊天工具中,就很难长期保存。而企业级即时通讯系统可以对这些沟通信息进行统一管理,从而形成可追溯的沟通记录。企业协同聊天软件 喧喧 就支持聊天数据存储,并且可以对消息进行加密管理,提高企业数据安全性。

第二类资产:知识资产

如果说数据资产是企业的信息基础,那么知识资产就是企业经验的沉淀

在软件企业中,大量经验其实存在于团队成员的头脑中。例如:

  • 技术解决方案
  • 项目实施经验
  • 客户需求处理方法
  • 运维经验

如果这些经验没有被记录下来,就很难形成企业的长期资产。我在实际项目中经常看到这样的情况:某个技术问题只有一位工程师能够解决,当这位工程师离职后,团队就必须重新摸索解决方法。这其实就是典型的知识资产流失

知识资产通常包括以下几类:技术文档、项目实施经验、解决方案库、技术规范、培训资料

企业如果希望长期发展,就必须建立系统化的知识管理机制。例如:技术文档库、经验总结机制、项目复盘机制、技术分享制度。

这样做的目的,是让知识从个人经验变成企业资产

第三类资产:软件系统资产

很多企业在资产管理时,往往忽视了一类非常重要的资产:企业内部的软件系统

在软件企业中,几乎所有业务流程都依赖系统运行。例如:

  • 项目管理系统
  • 代码管理系统
  • DevOps 系统
  • 持续集成系统
  • 企业即时通讯系统
  • OA 系统
  • ERP 系统

这些系统不仅是工具,同时也是企业的重要资产。因为企业的业务流程、管理方法和数据结构都沉淀在这些系统中。

一个成熟的软件研发团队通常会使用:项目管理系统管理需求与任务、代码仓库管理源码、CI/CD 系统管理构建流程、企业通讯系统进行团队协作。

这些系统之间如果能够形成统一平台,企业管理效率会明显提升。而喧喧便支持系统集成能力,可以将企业内部多个系统接入统一平台,从而减少系统切换带来的效率损失

在很多企业中,员工每天要在多个系统之间频繁切换,如果信息无法集中,就会出现信息遗漏的问题。通过统一协同平台,可以让企业的信息更加集中。

第四类资产:协作资产

这一类资产在传统管理理论中很少被提及,但在软件企业中却非常重要,可称为企业协作资产

所谓协作资产,其实指的是企业组织内部的信息流动效率。软件企业通常具有以下特点:

  • 项目协作密集
  • 技术沟通频繁
  • 跨部门合作多
  • 需求变更频繁

在这种环境下,如果企业协作效率低,就会直接影响研发效率。

常见协作问题包括:

1、信息传递慢

2、沟通渠道混乱

3、重要信息无法追溯

4、多系统沟通导致信息丢失

很多团队在早期使用普通聊天工具进行沟通,但随着团队规模扩大,这种方式往往难以满足企业需求。企业级协同工具的价值就在于此。

例如企业即时通讯系统可以提供:组织架构通讯录、团队群组、项目讨论、文件共享、音视频会议

喧喧 支持一对一聊天、群组沟通以及音视频会议,可以满足企业内部实时沟通需求。在大型团队中,高效协作能力本身就是企业的重要资产

第五类资产:技术资产

对于软件企业来说,技术能力本身就是核心竞争力。技术资产通常包括:

  • 源代码
  • 系统架构
  • 技术框架
  • 算法模型
  • 技术平台

这些资产决定了企业产品的技术能力。

例如,一个成熟的软件企业通常会拥有:自研技术框架、产品代码库、自动化测试体系、DevOps 平台。

这些技术资产会随着企业发展不断积累。如果企业缺乏系统化管理,这些资产同样会流失。例如:代码缺乏版本管理、技术文档不完整、技术架构缺乏维护。

这些问题都会影响企业长期发展。

为什么软件企业越来越重视资产管理

随着企业规模扩大,软件企业的资产结构会越来越复杂。很多企业在早期阶段依赖个人经验运作,但随着团队人数增加,就必须建立系统化管理体系。否则会出现以下问题:

  • 信息碎片化
  • 管理效率下降
  • 数据安全风险增加
  • 项目经验无法沉淀

因此越来越多的软件企业开始建设统一的信息平台。例如通过:

  • 项目管理系统
  • DevOps 平台
  • 企业协同系统
  • 即时通讯平台

将企业数据、知识和协作统一管理。

为什么很多企业选择私有化协同系统

在实际企业环境中,还有一个重要问题:信息安全

很多软件企业、政府机构和金融机构,对数据安全要求非常高。例如:

  • 不允许数据存储在公网
  • 不允许敏感信息外泄
  • 需要内部数据审计

在这种情况下,私有化部署的企业协同系统就非常重要。

喧喧作为企业即时通讯系统支持完全私有化部署,企业可以将系统部署在内部服务器,从而实现数据自主控制。同时系统还支持:

  • 数据加密
  • IP 登录限制
  • 国产信创适配

这些能力可以帮助企业进一步提升信息安全水平。

总结:软件企业真正的核心资产是什么

通过长期观察软件行业,我们进一步验证了:软件企业的资产不仅仅是硬件设备,更重要的是以下五类资产:

1、数据资产

2、知识资产

3、软件系统资产

4、协作资产

5、技术资产

这些资产共同构成企业的核心能力。如果企业能够通过统一的信息平台管理这些资产,就可以不断提升组织效率,并形成长期竞争优势。

未来的软件企业竞争,本质上也是企业资产管理能力的竞争。 谁能够更好地沉淀数据、知识和技术,谁就更有可能建立长期优势。

前几天,我突然收到消息,以前经常去的一家共享自习室要转让。印象里,这家自习室的条件还不错。于是,我联系了一下老板。老板很着急说房子的租约一周内到期,转让费只要 3w (含所有设备)。
于是和老板见了一面,自习室的基本情况:
位置在新一线省会城市的新区,租的写字楼 200 平米,90 个座位,装修在自习室行业里算高端,不过开业 3 年,还是有一定的使用痕迹。
成本:写字楼月租 1.1w ,物业费 4k/月含空调电力,水电网 600/月,保洁 500/月,自习室程序 1k/年,美团 5.8k/年,没有雇人。加上一些维修损耗,每年的硬性支出 20-22w 左右。
财务状况:看了最近 3 年的经营数据,自习室淡旺季明显,下半年考研考公高峰期,每个月流水 2w 以上,最高有 3w 多,每年总收入 27-30w 左右。
管理方面:老板说日常还是比较省心,他基本不过来,主要就是远程处理一些网络,空调等小问题,另外例如有时候有人不自觉没有手机关静音等小事需要他远程协调。
总体感觉,好像是还不错的生意?虽然房租成本在自习室行业属于绝对的高房租的类型,但是由于前期投入不太高,只有 3w 的转让费,按照之前的经营数据第一年就能收回成本。
而老板那边当时装修花了 10 几 w ,其实这三年也才勉勉强强收回成本,不知道他们为什么选择现在转手,所以心里还是有点犹豫。
由于当时是第一次见面,并没有马上给意向,想回去再研究一下,结果 2 个小时之后,老板说已经找到买家了。

Google 发布 Gemini Embedding 2 模型

3 月 11 日,Google 公司发布了全新的 Gemini Embedding 2 模型。这是 Google 的首个原生多模态嵌入模型,可以把文本、图像、视频和文档映射到同一个嵌入空间。

Gemini Embedding 2 支持文本、图像、视频、音频和文档,并能在 100 种语言中识别语义意图。新模型可以简化复杂的数据处理流程,同时增强多模态应用能力。应用场景包括检索增强生成(RAG)、语义搜索、情感分析以及数据聚类。Gemini Embedding 2 还可以在一次请求中同时接收「图像加文本」等类型的多种输入,从而分析不同媒体类型之间的关系。

目前,该模型已经通过 Gemini API 和 Vertex AI 提供公开预览。来源


联发科发布多个 IoT SoC 平台

3 月 9 日,联发科在德国纽伦堡 Embedded World 2026 嵌入式展会上发布了一系列 IoT SoC 芯片平台,包括高端解决方案 Genio Pro 和定位较低的 Genio 420、Genio 360。

Genio Pro 采用台积电 3nm 先进制程,拥有与移动端天玑 9400 类似的 CPU、GPU 规格,可承受工业宽温环境。其支持多达 16 颗摄像头和高达 3 组 4K 显示器,兼容一系列 Linux 发行版和开源 ROS 机器人操作系统。

Genio 420 则采用 6nm 制程,提供 7.2 TOPS 系统 AI 算力,整合 16GB LPDDR5X。其与现有 Genio 720、Genio 520 脚位兼容,方便用户迁移芯片型号。

定位更低的 Genio 360 与 Genio 360P 系统 AI 算力分别达到 6 TOPS 和 8.5 TOPS,支持 8GB LPDDR4X-3733 内存,能满足 2B 模型端侧运行的需求。来源


ComfyUI 支持 App 化工作流

3 月 10 日,ComfyUI 宣布推出 App Mode、App Builder 和 ComfyHub 三项新功能,目标是把原本面向专业用户的节点式工作流,直接转化为可分享、可运行的应用界面,让不熟悉节点图的用户也能使用 ComfyUI 工作流。

其中,App Mode 可将任意 ComfyUI 工作流一键切换为简化界面,隐藏底层节点图,仅保留终端用户需要操作的输入与输出;底层工作流本身并不改变,仍运行在同一个 ComfyUI 实例、同一后端与同一任务队列上,因此现有节点、模型更新和自定义扩展都可直接继承到应用模式中。

配套推出的 App Builder 则用于配置哪些节点参数对外开放。创作者可以自行决定哪些输入项和输出项展示给用户,其余复杂参数继续保留在节点图内部。ComfyUI 方面举例称,一个文生图工作流可能包含采样器、步数、CFG、调度器、LoRA 权重、种子和分辨率等大量参数,但实际应用中可能只需开放其中少数几个。

此外,ComfyUI 还同步上线了 ComfyHub 预览版,作为工作流与应用的公共分发入口,用户可直接浏览和运行社区作品。上述功能目前已在 Comfy Cloud 和 Comfy Local 上开放。 来源


罗德 RØDE 推出 Video Core

3 月 10 日,罗德 RØDE 推出 Caster Video Core 一体化音视频制作解决方案,主打直播、视频采集等场景。

这款产品搭载八核 CPU,最多可切换 4 路视频源、5 个自定义场景,具备 3 路 1080P HDMI 输入,支持自动切换帧率,带有两个 USB-C 接口,可连接视频或音频设备,配备 2 个 Neutrik 接口,可连接 XLR 麦克风、乐器或其他音频设备。

产品支持调整均衡器、压缩器、滤波、去齿音等音频参数,还可连接 Caster Pro II 或 Duo 等调音台,进而获得更多音视频输入输出。设备的 USB-C 接口还可以同时连接两台电脑,也可以选择连接移动硬盘,直接保存录制视频,支持双机位直播。来源

产品外观图,图片来自新闻源


掌阅发布 iReader Neo 3 Ultra

3 月 10 日,掌阅发布了旗下新一代旗舰级电纸书阅读器 iReader Neo 3 Ultra。该阅读器搭载 8 核处理器,新处理器相比 4 核处理器综合性能提升 200%。

存储方面,产品配备 4GB 运行内存及 64GB 的存储空间。iReader Neo 3 Ultra 采用了全新的超刷技术,可以实现帧率提升、功耗持平、视频无抖动的阅读体验。配合 iClean 2.0 技术,通过 AI 图像识别算法创新局部刷新机制,有效消除残影和闪烁问题,进一步提升阅读舒适度。

屏幕方面,Neo 3 Ultra 配备 Carta 1300 材质的 300PPI 凹屏,文字边缘更锐利,图片细节更清晰。机身薄至 7.5mm,重约 150g。阅读灯方面,该设备支持 30 级亮度与色温自由调节,搭载 ComfortLight Pro+ 技术,灯光均匀柔和,可根据不同环境光线和个人偏好进行精细调节。

产品内置 2000mAh 电池,标称续航为 53 小时阅读时长或 18 天待机。产品已在电商平台上架,售价 1499 元。来源

产品外观图,图片来自掌阅


少数派的近期动态

  • 产品团购加直播——少数派十四周年:一场特别的周年回馈活动即将开启。前排围观
  • 少数派年度征文投稿窗口最后一周!古法手搓大战人工智能,你会是哪条赛道的大赢家?参与一下

你可能错过的好文章

> 下载 少数派 2.0 客户端、关注 少数派公众号,解锁全新阅读体验 📰

> 实用、好用的 正版软件,少数派为你呈现 🚀

    asdfdas

    楼主 3 个碰 1 个杠

    然后手里没牌 加 不让摸牌

    每轮自动跳过 全程看戏

    直到别人胡 或者 平局

    谁来说说为什么会这样

    我的理解, 杠了之后应该补一牌

    然后单听这个摸的一牌啊

    原先是用了 5 年的 12mini ,3 个月前买的 iPhone 17 到货后前一两天明显感觉很耐用(客观观察),随着安装软件完成后,很快就感觉出,耗电明显的快,同样一上午使用情况差不多,估计有翻倍的耗电量。特别的情况是,一旦手机剩余 20%切换到省电模式下,手机会持续明显的轻微卡帧。夜间耗电量来看,基本正常。

    电池方面,我开了每次冲 80%,但感觉不太是这个原因造成的,耗电快的感觉和用了 5 年的 12mini 差不多的体验。苹果 ai 是关闭的,后台刷新、实时活动基本都是关闭的。


    安装的主要软件和服务:Quantumult X (规则模式),GG 的 eSIM 卡(处于开启状态),中国联通的信号基本只有 2 格。

    请大家帮忙看看会是什么原因造成的?大家在使用时的情况和体验如何呢?

    华住会、招商银行、HashPhotos 、HelloTalk 、Highlights 、Insta360 、坚果云、京东、九江银行、夸克、Kelivo 、KyBook 3 、LDOCE 、List 背单词、List 生词本、买火车票、摩羯星 GPS 、nPlayer 、QQ 、Quantumult X 、Quora 、Raycast 、Reader 、Readwise 、山姆会员商店、少数派、生日提醒、Scanner Pro 、Shazam 、Spark 、Speak 、Spokenly 、Spotify 、淘宝、铁路 12306 、同程旅行、图片标记助手、Tandem 、Telegram 、Termius 、Things 、UC 浏览器、Unsplash 、Voice 、VoiceTube 、网易爆米花、微信、WeightDrop 、WhatsApp 、Wyze 、闲鱼、小红书、小宇宙、携程旅行、熊猫吃短信、X 、英汉、预览、YouTube 、掌上生活、支付宝、知几计算、中国联通、中国移动、中国银行、Zeta 长截图、6mins 、阿里云盘、Ai Note Taker 、Anki 、Annotable 、白描、百度网盘、哔哩哔哩、彩云天气 Pro 、词根词缀字典、Cake 、Chrome 、Craft 、大众点评、滴滴出行、电子税务局、DAMA 、Diary 、Discord 、Documents 、Drafts 、Dropbox 、Due 、ELSA Speak 、Ever Play 、Fan·繁、flomo 、高德地图、Garmin Jr.、Gboard 、giffgaff 、Google 相册、Google Maps


    2025 年 12 月末,忽然就感觉微信服务号打开服务网页就慢了很多,主要慢在获取登录态到跳转回网页这段时间,这个过长有时候 5 秒甚至 10 秒都试过,一旦完成登录后,再开同服务号内其他页面就正常。

    一开始以为是偶发的服务号网页所在服务器繁忙,没理会,后面慢慢就习惯了,现在反应过来发现这个情况到现在已经持续 3 个多月。

    我不确定是否我手机问题,我手机华为 mate30 挺老的,但这个变化挺明显出现在 2025 年 12 月,感觉不像是手机性能跟不上问题。

    有其他 v 友和我一样感受的么?