标签 Agentic AI 下的文章

作者:江昱

阿里云函数计算 AgentRun 全新发布后,我们整理了“探秘 AgentRun”系列文章,本系列将梳理企业落地 Agent 常见难题,给出具体解法,助力 Agentic AI 快速走进生产级环境。欢迎加入“函数计算 AgentRun 客户群”与我们交流,钉钉群号: 134570017218

当你已经用 LangChain、AgentScope、LangGraph 等框架开发了 Agent 应用,如何让它们享受函数计算 AgentRun 提供的 Serverless 运行时、企业级 Sandbox、模型高可用、全链路可观测等能力?好消息是,你几乎不需要改动现有代码,只需要简单的适配就可以迁移到函数计算 AgentRun。

这篇文章将通过真实的代码示例,展示如何将不同框架的 Agent 应用部署到函数计算 AgentRun 上,以及如何充分利用函数计算 AgentRun 的各种能力。

为什么要部署到函数计算 AgentRun?

在讨论具体的集成方案前,让我们先明确一个问题:如果你的 Agent 应用已经在本地或自建服务器上运行良好,为什么还要迁移到函数计算 AgentRun?

答案很简单:从开发环境到生产环境,有一道巨大的鸿沟。  本地运行只需要考虑功能实现,但生产环境需要考虑性能、稳定性、成本、安全、可观测等一系列问题。函数计算 AgentRun 提供的不是又一个 Agent 框架,而是让你的 Agent 能够以企业级标准运行的完整基础设施。

具体来说,部署到函数计算 AgentRun 后,你能获得:零运维的 Serverless 运行时(自动扩缩容、按量付费),企业级的 Sandbox 环境(高性能、安全隔离),模型高可用保障(自动熔断、多模型 Fallback),全链路可观测(完整的 Trace、成本归因),以及统一的工具和 MCP 管理。

image

快速上手:5 分钟部署你的第一个 LangChain Agent

让我们从最流行的 LangChain 框架开始,通过一个完整的例子展示如何将 LangChain Agent 部署到函数计算 AgentRun。

第一步:安装 Serverless Devs

函数计算 AgentRun 使用 Serverless Devs 作为部署工具。如果你有 Node.js 环境,一行命令即可安装:

npm i -g @serverless-devs/s

第二步:创建项目

使用脚手架快速创建项目(注意:需要 Python 3.10 及以上版本):

# 初始化模板
s init agentrun-quick-start-langchain
# 进入代码目录
cd agentrun-quick-start-langchain/code
# 初始化虚拟环境并安装依赖
uv venv && uv pip install -r requirements.txt

第三步:配置认证信息

通过环境变量(建议使用 .env 文件)配置你的 AgentRun 访问凭证:

export AGENTRUN_ACCESS_KEY_ID="your-access-key-id"
export AGENTRUN_ACCESS_KEY_SECRET="your-access-key-secret"
export AGENTRUN_ACCOUNT_ID="your-account-id"
export AGENTRUN_REGION="cn-hangzhou"

第四步:理解集成方式

这是最关键的部分。打开生成的代码,你会看到集成非常简单:

from agentrun.integration.langchain import model, sandbox_toolset
from agentrun.server import AgentRunServer
# 使用 AgentRun 的模型(自动享受高可用、熔断等能力)
llm = model("<your-model-name>")
# 使用 AgentRun 的 Sandbox 工具
tools = sandbox_toolset(
    template_name="<your-sandbox-name>",
    template_type=TemplateType.CODE_INTERPRETER,
    sandbox_idle_timeout_seconds=300,
)
# 创建 LangChain Agent(和原来的代码完全一样)
agent = create_agent(
    model=llm,
    tools=tools,
    system_prompt="你是一个智能助手"
)
# 定义调用函数
def invoke_agent(request):
    result = agent.invoke({"messages": request.messages})
    return result["messages"][-1].content
# 启动 HTTP Server(提供 OpenAI 兼容的 API)
AgentRunServer(invoke_agent=invoke_agent).start()

核心要点:

  • model() 函数返回的是 LangChain 可以直接使用的模型对象
  • sandbox_toolset() 返回的是 LangChain Tools 列表
  • 你的 Agent 创建代码完全不需要改动
  • AgentRunServer 自动处理 HTTP 请求,提供标准的 OpenAI API

第五步:本地测试

启动服务后,可以通过 HTTP 请求测试:

curl 127.0.0.1:9000/v1/chat/completions \
  -X POST \
  -H "content-type: application/json" \
  -d '{"messages": [{"role": "user", "content": "通过代码查询现在是几点?"}], "stream":true}'

第六步:部署到生产环境

项目中已经包含了 s.yaml 配置文件。你只需要修改其中的 role 字段为你的阿里云角色:

role: acs:ram::{您的阿里云主账号 ID}:role/{您的阿里云角色名称}

配置部署密钥:

s config add
# 按照引导输入 Access Key ID 和 Secret,记住密钥对名称(如 agentrun-deploy)

执行部署:

s deploy -a agentrun-deploy

部署完成后,你会得到一个 HTTPS URL,就可以在生产环境调用你的 Agent 了。

不同框架的集成案例

函数计算 AgentRun 不仅支持 LangChain,还深度集成了主流的 Agent 开发框架。所有框架都遵循同样的理念:通过简单的适配层,让你的代码无缝迁移到函数计算 AgentRun,享受企业级能力。

LangGraph:工作流编排

LangGraph 是 LangChain 团队推出的工作流编排框架,适合构建复杂的多步骤 Agent。集成方式和 LangChain 类似:

from agentrun.integration.langgraph import model, tools
from langgraph.graph import StateGraph, MessagesState
from langgraph.prebuilt import ToolNode
# 使用 AgentRun 的模型和工具
llm = model("<your-model-name>").to_langgraph()
agent_tools = tools()
# 构建 LangGraph 工作流(和原来的代码一样)
def call_model(state: MessagesState):
    messages = state["messages"]
    response = llm.invoke(messages)
    return {"messages": [response]}
workflow = StateGraph(MessagesState)
workflow.add_node("agent", call_model)
workflow.add_node("tools", ToolNode(agent_tools))
workflow.set_entry_point("agent")
# 定义条件边...
app = workflow.compile()
# 调用
result = app.invoke({"messages": [HumanMessage(content="查询上海天气")]})

LangGraph 的优势是可以精确控制 Agent 的执行流程,比如条件分支、循环、并行执行等。部署到函数计算 AgentRun 后,这些复杂的工作流都能自动享受弹性伸缩和可观测能力。

AgentScope:多智能体协作

AgentScope 是阿里达摩院开源的多智能体框架,特别适合构建多 Agent 协作场景。集成方式:

from agentrun.integration.agentscope import model, tools
from agentscope.agent import ReActAgent
from agentscope.tool import Toolkit
# 使用 AgentRun 的模型和工具
llm = model("<your-model-name>").to_agentscope()
agent_tools = tools()
# 注册工具到 Toolkit
toolkit = Toolkit()
for tool in agent_tools:
    toolkit.register_tool_function(tool)
# 创建 Agent(和原来的代码一样)
agent = ReActAgent(
    name="assistant",
    sys_prompt="你是一个智能助手",
    model=llm,
    toolkit=toolkit,
)
# 调用
result = await agent.reply(Msg(name="user", content="查询上海天气", role="user"))

AgentScope 的优势是对多 Agent 系统的原生支持,包括 Agent 之间的通信、协调、记忆共享等。部署到函数计算 AgentRun 后,每个 Agent 都在独立的隔离环境中运行,确保安全性。

PydanticAI:类型安全的 Agent 框架

PydanticAI 是一个新兴框架,强调类型安全和结构化输出。集成方式:

from agentrun.integration.pydantic_ai import model, tools
from pydantic_ai import Agent
# 使用 AgentRun 的模型和工具
llm = model("<your-model-name>").to_pydantic_ai()
agent_tools = tools()
# 创建 Agent
agent = Agent(
    llm,
    instructions="Be concise, reply with one sentence.",
    tools=agent_tools,
)
# 同步调用
result = agent.run_sync("上海的天气如何?")
# 异步调用
result = await agent.run("上海的天气如何?")

PydanticAI 的优势是强类型和结构化输出,特别适合需要严格数据验证的企业场景。

充分利用函数计算 AgentRun 的核心能力

将 Agent 部署到函数计算 AgentRun 后,你不仅获得了 Serverless 运行环境,还可以深度利用平台提供的各种企业级能力。

模型高可用:告别单点故障(搭配 AI 网关)

部署到函数计算 AgentRun 后,你的 Agent 自动享受模型高可用能力。当你配置的主模型出现故障、限流或超时时,系统会自动切换到备用模型,整个过程对你的代码完全透明。
在函数计算 AgentRun 控制台配置模型时可以和 AI 网关进行联动,可以设置:主模型(如 GPT-4),备用模型列表(如 Claude-3、Qwen-Max),熔断策略(错误率阈值、超时时间),负载均衡策略(轮询、权重、最少连接)。
你的代码完全不需要改动,只需要在创建模型时使用函数计算 AgentRun 的模型名称,所有的容错、切换、负载均衡都由平台自动处理。

企业级 Sandbox:安全执行代码

函数计算 AgentRun 提供的 Sandbox 不是简单的代码执行环境,而是企业级的安全隔离沙箱。每个 Sandbox 实例都是独立隔离的,支持多种执行类型:

Code Interpreter 支持 Python、Node.js、Java、Bash 等语言,可以执行数据分析、文件处理等任务。Browser Tool 提供浏览器自动化能力,支持网页爬取、表单填写、截图等操作。All In One 集成了代码解释器和浏览器工具,提供更丰富的交互能力。

使用时,通过 sandbox_toolset() 函数就可以获取相应的工具集合,这些工具会自动转换为你使用的框架所需的格式。

工具和 MCP:标准化集成

函数计算 AgentRun 提供统一的工具管理和 MCP(Model Context Protocol)机制。你可以从工具市场选择现成的工具,也可以自定义工具并发布到市场。

更强大的是 MCP 的 Hook 机制。通过前置 Hook,可以在工具调用前自动注入用户凭证、记录请求日志、校验参数合法性。通过后置 Hook,可以对结果进行转换、记录审计日志、处理异常情况。这些通用逻辑不需要在每个工具中重复实现,大大提升了开发效率。

全链路可观测:不再是黑盒

这是函数计算 AgentRun 最强大的能力之一。你的代码不需要做任何改动,平台会自动记录 Agent 的完整执行链路

在可观测平台上,你可以看到:Agent 接收到用户请求的时间和内容,调用了哪个模型、使用了多少 Token、花费了多少钱,调用了哪些工具、每个工具的执行时间和结果,访问了哪些知识库、检索了多少数据,每个环节的耗时分布,完整的调用链 Trace。

这些能力都是平台自动提供的,通过探针注入实现,无论是高代码还是低代码创建的 Agent,都自动享受这些可观测能力。

记忆和知识库:数据不出域

函数计算 AgentRun 深度集成了 RAGFlow、Mem0 等开源项目,提供灵活的记忆和知识库管理。你可以选择一键托管模式,由平台统一管理部署运维,享受 Serverless 的弹性和按量付费优势。也可以选择绑定模式,将 Agent 连接到已经部署在企业 VPC 或 IDC 内的实例,数据完全不出企业内网

这种灵活性让你可以根据数据的敏感级别选择不同的策略:核心业务数据私有化部署,一般数据托管上云,在安全性和便利性之间找到最佳平衡。

立即体验函数计算 AgentRun

函数计算 AgentRun 的无代码到高代码演进能力,现已开放体验:

  1. 快速创建: 访问控制台( https://functionai.console.aliyun.com/cn-hangzhou/agent/explore ),60 秒创建你的第一个 Agent
  2. 深度定制: 当需要更复杂功能时,一键转换为高代码
  3. 持续演进: 利用函数计算 AgentRun 的基础设施能力,持续优化你的 Agent

从想法到上线,从原型到生产,函数计算 AgentRun 始终是你最好的伙伴。欢迎加入“函数计算 AgentRun 客户群”,钉钉群号:134570017218。

快速了解函数计算 AgentRun:

一句话介绍:函数计算 AgentRun 是一个以高代码为核心的一站式 Agentic AI 基础设施平台。秉持生态开放和灵活组装的理念,为企业级 Agent 应用提供从开发、部署到运维的全生命周期管理。

image

函数计算 AgentRun 架构图

AgentRun 运行时基于阿里云函数计算 FC 构建,继承了 Serverless 计算极致弹性、按量付费、零运维的核心优势。通过深度集成 AgentScope、LangChain、RAGFlow、Mem0 等主流开源生态。函数计算 AgentRun 将 Serverless 的极致弹性、零运维和按量付费的特性与 AI 原生应用场景深度融合,助力企业实现成本与效率的极致优化,平均 TCO 降低 60% 。 

开发者只需专注于 Agent 的业务逻辑创新,无需关心底层基础设施, 让 Agentic AI 真正进入企业生产环境。

2025 年,我们分别在北京上海举办了两场 QCon 全球软件开发大会。过去一年里,我们和大量一线技术团队、工程负责人、开发者持续交流,感受到一个很明显的变化:大家讨论的重点,正在从“AI 能做什么”,转向“AI 怎么在生产系统里稳定运行、可控交付、持续产生价值”。

这不是热度退去,而是行业进入了更难、也更关键的阶段——从演示走向长期运行,从能力展示走向工程兑现。

同时,越来越多团队开始回到同一个问题:当 AI 真正进入业务流程后,系统能不能“长期跑得住”?成本能不能算得清?质量、风险、合规能不能兜得住?组织的协作方式要不要跟着变?

在这样的背景下,智能体(Agentic AI) 成为不少团队正在尝试的新方向:它不只是一次回答或一次推理,而是把感知、工具调用、任务执行、反馈迭代串成一个可运营的流程,逐步嵌入研发、交付与业务链路。可以预期,进入 2026 年,这类探索会从局部试点走向更体系化的工程建设:不仅是“加一个 AI 功能”,而是软件系统、研发流程乃至组织协作方式都要随之调整。

软件工程正在发生的变化

我们看到的变化不只是工具升级,更像是一套工程范式在被重写:

  • 系统架构开始围绕「智能体协作」重新设计

  • 工程方法论从「确定性流程」迈向「人机协同闭环」

  • 研发组织面临角色重塑与能力重构

  • 产品与交互从“界面驱动”走向“意图与行动驱动”

从基础设施、推理与知识体系,到研发与交付流程,再到前端、客户端与应用体验——AI 正在以更工程化的方式进入软件生产。

QCon 北京 2026 的核心主线

基于这一判断,QCon 北京 2026 将以 「Agentic AI 时代的软件工程重塑」 作为大会核心主线,把讨论从 「AI For What」,走向真正可持续的 「Value From AI」

围绕这一主线,我们将从六个关键维度系统性展开探索:

前沿技术雷达(Future Tech)

关注未来 1–2 年最值得提前布局的方向:Agentic AI 的新形态、下一代模型、交互范式与系统架构演进。

架构设计与数据底座(系统可演进)

讨论如何构建可扩展、可演进、可复用的 AI 系统:Agent 架构、数据治理、知识体系与工程实践,回答“能不能长期跑”的问题。

效能与成本(拒绝盲目烧钱)

关注让 AI “跑得起、跑得快、跑得稳”的工程方法:在算力、推理、工程效率与 ROI 之间,寻找真正可持续的平衡点。

产品与交互(体验提升)

聚焦前端、客户端与产品层的 AI 原生改造:人机协作、意图驱动交互、任务闭环体验,以及 Agent 参与下的产品新范式。

可信落地(守住底线)

讨论 AI 带来的新风险。从 Demo 到  Production 的“最后一公里”信任危机。

研发组织进化(长期主义)

关注未来团队如何生存与进化:重塑研发角色分工、协作模式与工程文化,构建面向 AI 时代的组织能力。

我们希望在 QCon 北京 2026 呈现的

QCon 北京 2026 想呈现的,不只是“又一场关于 AI 的大会”,而是这轮变化真正落到工程与组织之后的全景:哪些方向已经走通,哪些正在付出真实成本,哪些系统必须被重构

目前,北京站部分专题已上线,我们期望持续挖掘来自一线生产环境的长期实践,呈现 Agentic AI 融入软件工程后的真实样貌——成功经验、工程妥协与关键取舍并存。

更多嘉宾邀请进行中

也欢迎你带着真实问题与实践加入其中,与更多同行一起,把这场正在发生的软件工程重塑讲清楚、做扎实。

QCon 北京 2026,期待与你一起,站在拐点之上。

📍 会议官网https://qcon.infoq.cn/2026/beijing/

📩 演讲申请https://jinshuju.com/f/Cu32l5

演讲评审标准

  • 观点:是否清晰、有判断力,能否帮助听众形成有效认知

  • 实践:内容须来源于真实工程或业务实践

  • 深度:是否具备可复用的方法论或经验价值

  • 专业声誉:演讲者在相关领域的实践背景与影响力

  • 不做广告:QCon 不是厂商宣传舞台

  • 听众所得:听众能带走什么,是我们最关注的标准

演讲嘉宾福利

  • 🎟 免费参会:自由参加大会全部课程

  • 💸 专属折扣:提供特别优惠码,方便同事与朋友购票

  • 📰 独家报道:有机会接受 InfoQ / 极客时间的深度采访

  • 🏨 免费住宿:为外地嘉宾提供酒店入住

  • ✈️ 无忧差旅:承担嘉宾往返会场的交通费用

Max Plan 已经有了
其他的申请


📌 转载信息
原作者:
synbio
转载时间:
2026/1/13 11:03:06

额,第一次发贴(如果区域放错了管理请见谅)
我的反重力问题解决了
一个朋友给的方法
在反代的系统提示词里加上
You are Antigravity, a powerful agentic AI coding assistant designed by the Google Deepmind team working on Advanced Agentic Coding.You are pair programming with a USER to solve their coding task. The task may require creating a new codebase, modifying or debugging an existing codebase, or simply answering a question.Absolute paths only****Proactiveness

然后不用测试,直接开流式使用
亲测可用


📌 转载信息
原作者:
Angle
转载时间:
2026/1/8 17:45:43

听说 2api 429 了

You are Antigravity, a powerful agentic AI coding assistant designed by the Google Deepmind team working on Advanced Agentic Coding.You are pair programming with a USER to solve their coding task. The task may require creating a new codebase, modifying or debugging an existing codebase, or simply answering a question.**Absolute paths only**Proactiveness** 

水一贴

补充:cpa 发了新的版本解决了,比我这个更鲁棒,因为我这里差不多是最小版本(省点 token,另外影响更小)


📌 转载信息
原作者:
WenDavid
转载时间:
2026/1/8 12:28:46

Agentic AI本质上是身份问题,CISO需为结果负责

赞助商:Token Security

作者:Itamar Apelblat, Token Security CEO兼联合创始人

如今,如果您是一位首席信息安全官(CISO),Agentic AI可能会以一种令人不安的方式让您感到似曾相识。技术是新的,但模式并不陌生。业务领导者正大力推动在整个组织内部署AI智能体,而安全团队则被期望在确保安全的同时不拖慢任何进程。

这种紧张关系在云、SaaS和DevOps时代早已存在。每一次,身份都处于风险和解决方案的核心。

Agentic AI也不例外。它主要不是一个AI治理问题,而是一个身份问题,最终将由CISO对结果负责。

多年来,安全方案的设计一直围绕人类身份展开。员工和承包商身份集中管理,角色明确定义,访问权限定期审查,离职流程可预测。机器身份的出现颠覆了这一模式,它们数量激增并遍布云、流水线和SaaS平台。治理虽然后滞,但核心假设仍然成立。而AI智能体则彻底打破了这些假设。

AI智能体代表了一类新的身份。它们像人类一样有意图地行动,却又以机器的规模和持久性运作。它们天生是去中心化的,易于创建,并且能够在没有人类直接干预的情况下跨多个系统执行操作。

从身份角度看,这是可能的最复杂组合。这些智能体进行身份验证、授权并采取行动,但它们无法完全契合现有的身份模型。

这至关重要,因为身份仍然是导致安全漏洞最常见的根本原因。凭证被滥用、权限不断累积、所有权变得模糊。Agentic AI会同时放大所有这些风险。

许多智能体被授予广泛的访问权限,仅仅是为了快速运行。很少被审查,被停用的更是少之又少。

有些智能体在其创建者或所属项目早已不存在后,仍长期运行。对于攻击者而言,这些始终在线、权限过大的身份是理想的目标,这一点可以从OWASP的最新报告中得到印证

传统的IAM和PAM工具并非为此现实而设计。它们假设用户是人,或者最多是可预测的工作负载。AI智能体不驻留在单一目录中,不遵循静态角色,也不局限于单一平台边界。

试图用传统的、以人为中心的控制措施来保护它们,会造成盲点和虚假的安全感。依赖AI平台供应商来解决这个问题同样危险。正如云提供商没有解决云安全问题一样,智能体平台也不会解决企业身份风险。

前进的方向不是限制创新,而是应用CISO们已经理解的准则:生命周期管理。只有当组织将身份视为一个从入职到离职的完整生命周期时,员工身份安全才变得可扩展。AI智能体需要同样的思路,并适应其速度和规模。

每个智能体都需要与身份提供商关联的明确所有权。其目的必须明确且可衡量。其访问权限应与实际行为相符,而非创建时的便利性。活动必须持续可见,以便及早发现权限漂移。当智能体闲置、项目结束或所有者离开时,访问权限必须自动撤销。没有这些控制措施,AI的采用最终将因其自身风险而崩溃。

CISO必须内化的一个关键转变是:智能体身份安全本质上是一个数据关联问题。您不能仅通过查看智能体本身来理解其风险。

真正的风险是由智能体能够触及的范围定义的。这包括它承担的云角色、访问的SaaS应用程序、可读取或修改的数据,以及它使用的下游身份。

保护Agentic AI需要跨智能体平台、身份提供商、基础设施、应用程序和数据层关联身份信号。

正是这种关联能力,使得CISO能够在审计、董事会审查和事件响应期间回答关键问题:谁有访问权限?为什么有?是否恰当?以及,是否还应继续存在?没有这种上下文,AI智能体将仍然不透明且难以治理。这里有一份CISO安全清单,有助于规划此类问题。

目前,许多组织正处于被动应对阶段,在智能体蔓延至生产环境后才开始发现。这个阶段将很快过去。下一阶段是预防。

身份管理必须前移到生命周期的更早阶段,即在智能体创建的时刻。构建者需要护栏,强制明确意图和范围,而不是为了方便而默认授予宽泛的权限。如果缺乏这种管理,CISO将继承风险并最终承担后果。

Agentic AI正成为企业运营方式中永久的一部分。问题不在于它是否会扩展,而在于它是否能安全地扩展。CISO将决定答案。如果智能体身份得不到管理,AI将引发安全漏洞、合规失败和高管的抵制,从而拖慢创新。

如果通过生命周期管理和可见性来治理智能体身份,AI将变得可持续、敏捷且安全。

成功的企业不会是那些对Agentic AI简单说“是”或“否”的企业。它们将是那些能够自信地说“是”的企业,因为它们很早就认识到,保护Agentic AI是身份管理的首要任务。

如果您已准备好自信地应对Agentic AI安全问题,Token可以为您提供帮助。

在此预约演示,我们将向您展示我们的平台在保障组织安全方面的独特之处。

本文由Token Security赞助并撰写。