标签 代理式 AI 下的文章

LangGrant推出了 LEDGE MCP 服务器,这是一个新的企业平台,旨在让大语言模型在复杂的数据库环境中进行推理,而无需直接访问或暴露底层数据。该版本旨在消除组织在将代理式 AI 应用于受受控生产数据时面临的一些最大障碍,即安全限制、失控的 token 成本和不可靠的分析结果。

 

该公司表示,LEDGE MCP 服务器允许 LLM 跨OracleSQL ServerPostgresSnowflake,等数据库生成准确、可执行的多步骤分析计划,同时将数据完全保留在企业边界内。通过依赖模式、元数据和关系而不是原始记录,该平台消除了将大型数据集推送到 LLM 的需要,从而大大减少了 token 的使用并防止敏感数据泄漏。根据 LangGrant 的说法,通常需要数周手工编写查询和验证的任务现在可以在几分钟内完成,并具有完全的人工审查和可审计性。

 

LangGrant 首席执行官、首席技术官兼联合创始人Ramesh Parameswaran表示:“LEDGE MCP 服务器消除了 LLM 和企业数据之间的摩擦。”他指出,企业现在可以安全、经济地将代理式 AI 直接应用于现有的数据库生态系统,而不会损害治理或监督。

 

在许多组织中,上下文工程和代理式 AI 正从实验阶段进入生产环境。许多企业已经接受了 AI 助手,但在操作数据库方面却停滞不前。安全策略通常禁止直接访问 LLM,在分析原始数据时 token 和计算成本会激增,开发人员和业务用户都在努力应对企业模式的规模和复杂性。即使使用 AI 辅助编码工具,工程师也经常花费数周时间手动将部分上下文输入模型,以生成可用的查询和管道。

 

LangGrant 将 LEDGE 定位为一个全面解决这些问题的编排和治理层。MCP 服务器管理 LLM 如何与企业数据交互,确保符合访问控制和策略。分析和推理使用数据库上下文而不是数据有效负载来执行,以降低成本并减少幻觉风险。该平台还可以自动创建可由人工团队检查、批准和执行的多阶段分析计划。

 

此外,LEDGE 支持按需克隆和容器化类似生产的数据库,为智能体开发人员提供安全、隔离的环境来构建和测试 AI 工作流。通过跨异构系统自动映射模式和关系,该平台使 LLM 能够跨多个数据库进行推理,而无需读取底层数据本身。

 

有了 LEDGE MCP 服务器,LangGrant 认为企业对 AI 的采用将更少地依赖于更大的模型,而更多地依赖于安全的编排、治理和成本控制。该公司认为,通过保持数据原位,同时为 LLM 提供全面的上下文理解,企业最终可以准确、安全、大规模地将 AI 应用于其最有价值的数据资产。

 

许多公司正在采用 MCP 风格的服务器,在不暴露原始数据的情况下为 AI 智能体提供安全、结构化的环境,但它们的重点领域有所不同。GitHub的 MCP 服务器以开发人员的工作流程为中心,允许 LLM 在执行访问控制的同时对存储库、问题、拉取请求和 CI 元数据进行推理。同样,微软的Azure DevOps MCP向 AI 智能体公开结构化项目和管道上下文,以支持规划、故障排除和交付自动化,而不是深度分析数据处理。

 

除了开发者平台,MCP 概念也出现在基础设施和运营中。Linkerd等服务网格项目正在探索 MCP 集成,为 AI 智能体提供对服务流量、遥测和策略执行的安全可见性。云提供商还通过他们的 AI 服务(如AWS谷歌云)提供类似 MCP 的上下文层,这些服务允许智能体查询基础设施元数据和操作信号,而无需将敏感数据直接传递给模型。这些方法侧重于操作意识,而不是数据分析。

 

与这些产品相比,LangGrant 的 LEDGE MCP 服务器以专注于企业数据库和分析而脱颖而出。总之,这些平台显示了 MCP 如何成为一种基础模式,每个实现都针对企业堆栈的特定层进行了定制。

 

原文链接:

https://www.infoq.com/news/2026/01/langgrant-ledge-mcp-server/