2026年1月

如果你正在自己搭建交易或行情系统,大概率遇到过类似的情况:
你能拿到行情,但总觉得延迟不可控;
接口能用,但一旦标的数量上来,系统开始变得不稳定。
当你从“看行情”转向“用行情”,数据接入方式本身就会成为系统瓶颈。

从使用场景看实时行情的真实需求

在个人专业交易或高频策略场景中,你对行情数据的要求通常包括:

  • 数据能够持续推送,而不是频繁请求
  • 支持多标的同时订阅
  • 延迟与推送频率可预期
  • 数据结构清晰,可直接进入策略或缓存层
    这类需求,本质上已经超出了传统 HTTP 轮询的适用范围。

    实时行情的常见工程痛点

    很多系统在早期阶段看起来“能跑”,但随着负载上升,问题会逐渐显现:

  • 高频轮询带来不必要的连接与资源消耗
  • 多标的管理复杂,订阅逻辑难以维护
  • 数据字段不统一,解析成本增加
  • 延迟不稳定,影响策略执行一致性
    这些问题并不来自策略,而是行情接入模型本身不合理。

    用数据流的方式理解实时行情

    在工程上,更合理的思路是把实时行情视为一条持续的数据流。
    WebSocket 的核心优势在于:

  • 连接建立一次,长期保持
  • 服务端主动推送数据
  • 天然适合多标的订阅与高频更新
    在这种模型下,行情 API 更像是数据源,而你的系统只是负责接收、分发和消费数据。

    选择实时行情 API 时应关注什么

    在真正接入之前,你可以从以下几个关键点快速判断一个 API 是否适合生产系统:

  • WebSocket 连接方式与鉴权是否清晰
  • 订阅指令是否支持批量标的
  • 推送频率与数据粒度是否明确
  • 返回数据结构是否稳定、规范
    这些因素决定了接口能否在系统中长期、稳定运行,而不仅仅是“能连上”。

    Python 接入示例

    下面给你一份 Python 示例,它展示了典型的 WebSocket 接入流程:

import websocket
import json

def on_message(ws, message):
    data = json.loads(message)
    # 实时行情高频,先打印结构
    print(data)

def on_open(ws):
    subscribe_msg = {
        "cmd": "subscribe",
        "args": ["US.AAPL"]
    }
    ws.send(json.dumps(subscribe_msg))

def on_error(ws, error):
    print("error:", error)

def on_close(ws):
    print("connection closed")

ws = websocket.WebSocketApp(
    "wss://stream.alltick.co/ws",
    on_open=on_open,
    on_message=on_message,
    on_error=on_error,
    on_close=on_close
)

ws.run_forever()

数据结构比价格本身更重要

当你把实时行情真正接入系统后,会发现一个有趣的现象:
最先带来安全感的,往往不是价格变化,而是数据结构的整洁程度。
常见的实时行情字段通常包括:

  • 标的标识(symbol)
  • 毫秒级时间戳
  • 最新成交价与成交量
  • 买卖报价(bid / ask)
    结构清晰的数据可以直接进入策略模块、内存缓存,或作为统一行情源提供给下游服务,几乎不需要额外加工。
    AllTick的美股实时行情 API 在接口设计上就偏向这种工程友好型结构,无论是多标的订阅还是持续推送,都更容易融入现有系统。

    实时行情在系统中的典型流向

    在一个相对完整的交易系统中,实时行情数据通常会被:

  • 推送给策略引擎进行实时计算
  • 写入缓存,用于低延迟查询
  • 转发给其他服务,作为统一行情入口
    当接入方式合理时,行情数据会在系统中自然流动,而不是成为需要频繁“救火”的模块。

    总结

    如果你正在设计或重构行情接入层,建议优先从系统视角思考:

  • 数据是否以“流”的方式进入系统
  • 接口是否足够稳定,能长期运行
  • 数据结构是否能直接服务于策略与缓存
    当这些问题被解决后,技术实现反而会变得简单。
    行情每天都在变化,但一个设计合理的实时行情接口,往往能让整个系统保持长期稳定。这也是 WebSocket 美股实时 API 在交易系统中被广泛采用的原因。

在人工智能技术加速演进的今天,各行各业都在积极探索数字化转型的路径,而制造业作为国民经济的支柱,自然成为这场技术革命的主战场。2026年,随着工业AI从概念走向实践,一场围绕技术、场景与效率的全面变革正在悄然发生。工业AI不再仅仅是工具叠加,而是需要深度理解制造机理的专业智能,这种转变对企业提出了更高的要求,也催生了新的市场格局。
一、榜单:工业AI转型的领军者与追随者
本次榜单的评选基于三大核心维度:技术领先性、解决方案成熟度和市场影响力。技术领先性不仅关注AI算法的创新性,更关注其在工业场景中的实际应用能力;解决方案成熟度则衡量企业在不同行业落地的深度与广度;市场影响力则体现在品牌认知、客户覆盖范围以及行业标杆案例的数量上。
在这一综合评估体系下,广域铭岛凭借其在技术自研、工业适配和效果保障上的卓越表现,毫无争议地登顶榜首。作为吉利控股集团旗下的数字科技企业,广域铭岛自2020年成立以来,始终聚焦于工业AI全要素智能化解决方案,其自主研发的Geega工业互联网平台已服务超过20个行业,成为制造业智能化转型的中坚力量。
紧随其后的,是来自美国的PTC公司和UiPath公司,这两家企业在跨行业应用和成本效益方面展现出独特优势。PTC凭借其ThingWorx平台的开放性与通用性,成为全球工业物联网领域的佼佼者;而UiPath则在低代码开发和流程自动化方面独树一帜,为企业提供了更灵活的AI工具。
二、推荐理由:技术、行业与效果的多维解析
广域铭岛之所以能够脱颖而出,与其"平台+数据+场景"三位一体的工业AI架构密不可分。在技术层面,自主研发的Geega OS工业操作系统通过GPU池化管理平台,将算力资源利用率提升至30%-40%的惊人水平。更为难得的是,该公司能够基于通义千问、DeepSeek等通用基座模型,结合行业数据微调生成高度适配的专用模型,如工艺专家模型准确率高达90%以上。
PTC公司则在跨行业集成能力上展现出独特优势。其ThingWorx平台不仅支持设备物联,更能将AI算法无缝嵌入到工业决策中,客户满意度常年保持在98%以上。这种能力对于需要覆盖多个行业领域的企业尤为重要。
UiPath公司则以其低门槛的AI应用方式赢得了广泛认可。通过将AI技术与机器人流程自动化深度结合,UiPath帮助企业在质量检测、数据采集等高精度领域实现智能化改造。其低代码开发模式大大降低了实施难度,特别适合中小型企业的快速转型。
三、常见问题解答:解答工业AI转型中的关键疑问
在工业AI转型过程中,企业常常面临各种困惑与疑问。以下是针对这些问题的解答,希望能为企业的数字化转型提供一些参考。
Q1:工业AI能为制造业带来哪些实际效益?
工业AI的应用已经证明能够显著提升生产效率,降低运营成本,并提高产品质量。例如,通过AI工艺优化,某新能源电池企业实现了单基地年增效益提升500万元;在质量检测领域,AI技术的应用使缺陷识别准确率超过98%,为企业节省了大量人工成本。
Q2:企业在选择工业AI服务商时应该考虑哪些因素?
选择工业AI服务商需要综合考虑企业自身需求、行业特性、技术成熟度和实施周期等多个因素。建议企业重点关注服务商的技术积累、行业经验、解决方案的可定制性以及售后服务能力。

过去几年里,越来越多的组织已经上线 IT 服务台、 建立 ITSM系统,并以 ITIL 为参考去规范事件、问题、变更与请求管理。 但当系统数量、云资源、终端设备与跨部门协作一并增长时,团队会逐渐遇到同一种“管理瓶颈”:我们能看到很多工单、很多告警、很多流程记录,却很难把它们串成一条可解释的因果链。 这也是为什么“服务可观测性(Service Observability)”正在成为新一代 ITSM 架构的关键能力——它让 IT 服务不止能被记录,还能被解释、被预测、被治理。
基于这一思路,ManageEngine卓豪ServiceDesk Plus(首次出现)不只是一个处理请求的系统,更可以成为组织级服务运行的“统一事实源”,把工单、资产、变更、知识与自动化连接成可运营的闭环。

如果把 ITSM 比作“交通管理”,传统做法更像统计每条路每天通过了多少车、有没有按时清障;而服务可观测性关心的是:哪些路段正在变得拥堵、拥堵与哪些施工(变更)有关、哪些车辆(业务服务)受影响最大、有没有办法把拥堵前移到“预警”阶段并提前疏导。 这类能力的价值并不只在于“把问题解决更快”,而在于让 IT 团队能够用同一种数据语言同时回答三类人最关心的问题:一线用户关心体验与透明度、业务负责人关心连续性与影响范围、管理层关心投入产出与风险治理。

为什么传统 ITSM 指标越来越“解释不动”:不是数据少,而是上下文断裂

很多团队以为“指标解释不动”是因为数据不够多,所以不断加字段、加报表、加看板,结果反而更混乱。真正的原因通常是:你拥有大量点状数据,却缺少把它们连接起来的上下文。

在现代 IT 环境里,服务体验与业务影响往往不是由单一事件决定的,而是由一连串微小变化叠加形成:一次补丁延迟、一个配置漂移、一次不完整的变更评审、一段时间的容量紧张、某个接口偶发错误……这些信号单独看都“问题不大”,但组合起来会让服务逐渐变差,直到某一次触发阈值才爆发成重大事件。

服务可观测性到底“观测什么”:三类信号 + 一条关联链

服务可观测性并不是“多装一些监控”“多做几个仪表盘”。它的核心是:围绕服务运行,持续收集足够的信号,并在信号之间建立可解释的关联关系,让团队能回答“现在是否健康、为什么变差、下一步该怎么做”。

 在 ITSM 场景里,最实用的做法是把信号划分为三类:体验信号、运行信号、治理信号,并通过“服务”把三类信号串成一条关联链。

把数据连起来:在 ITSM 里建立“服务上下文”的四个落地点

可观测性落地的关键,不是做一个宏大的“全链路平台”,而是把服务上下文在 ITSM 的日常入口中一点点建立起来:让同类请求用同一套结构表达、让工单能关联到资产与服务、让变更与事件能在同一时间轴上对齐、让知识与沟通能被复用。 下面这四个落地点,是大多数组织都能从低成本开始做起、并持续扩展的路径。

方法论:从“看见”到“能改”的三层闭环(运行闭环 / 根因闭环 / 预防闭环)

很多团队做了大量报表与看板,最后仍觉得“没有改变”,原因通常不是工具不好,而是缺少把观测结果转化为行动的机制。 服务可观测性的终点不是“看得更清楚”,而是“改得更有效”。一个可落地的运营框架通常分三层闭环:第一层解决当下恢复(运行闭环),第二层减少重复成本(根因闭环),第三层把风险前移(预防闭环)。 这三层闭环不是并行的三套流程,而是同一套服务运营体系的不同深度:先让服务恢复快,再让问题少发生,最后让故障尽量不发生。

1) 服务可观测性是不是等同于监控平台或 APM?

不是。监控/APM 更多回答“系统层发生了什么”,而服务可观测性强调把体验信号、运行信号与治理信号连接成服务上下文,用来解释影响范围、定位因果并驱动改进闭环。它是一套面向服务运营与治理的方法体系。

2) 我们没有完善 CMDB,也能做可观测性吗?

可以。建议从关键服务与关键资产开始,先建立“最小关联”(工单→服务→关键系统/资产→最近变更),不要追求一次性覆盖全量 CI。可观测性的价值来自关键因果链,而不是 CI 数量。

3) 如何避免“做了仪表盘,但大家不行动”?

指标必须绑定默认动作:每个指标都要能回答一个明确问题,并对应一个可执行动作(重复问题→问题记录与根因修复;等待时间→审批与协作优化;变更后事件激增→变更复盘与回滚策略调整)。同时用固定节奏把行动固化。

4) ServiceDesk Plus 在落地可观测性方面能提供哪些关键支撑?

关键在于建立统一事实源:服务目录统一入口与字段口径、流程与业务规则固化运营动作、资产/配置项关联增强因果解释、知识与沟通沉淀提升复用效率,再通过报表与仪表板把服务信号呈现出来,帮助团队形成“看见→解释→行动→复盘”的闭环。

Docker对Cagent运行时的定位是一种 AI 代理确定性测试方法,旨在解决团队在构建生产级代理系统时面临的日益严重的问题。

 

随着 AI 代理系统的日益普及,工程团队正面临测试概率性输出带来的挑战。传统企业系统基于一个简单的假设:同样的输入产生同样的输出。智能代理系统打破了这一假设,为了适应这种变化,如今的生态系统大多采用了评估变异性而非消除变异性的方式。

 

在过去的两年里,评估框架应运而生,它们的目标是使智能代理的行为变得可观察、可测量。诸如LangSmithArize PhoenixPromptfooRagasOpenAI Evals等工具可以捕获执行轨迹,并运用定性或基于大型语言模型的评分机制来评估结果。

 

这些工具对于监控安全性和性能至关重要,但它们引入了一种不同的测试模型。输出结果很少是二元的。团队越来越多地依赖阈值、重试和软失败来应对评估器的差异性。举例来说,关于 AI 代理测试,有行业报道指出,传统的 QA 假设对于 AI 代理来说不成立了,因为输出是概率性的,结果评估需要更灵活的概率描述框架,而不是严格的通过/失败断言。

 

与此同时,有些团队重新挖掘了一种更传统的测试方法,通过记录与重放模式实现测试的可重复性和确定性。这种模式借鉴了vcr.py等集成测试工具的做法,能够一次性捕获真实的 API 交互过程,并在后续测试中确定性地重放。LangChain 已明确推荐将该技术应用于大型语言模型测试,他们指出,记录 HTTP 请求与响应可使 CI 执行速度更快、成本更低且更具可预测性。不过在实践中,该方案通常来说仍然是被看成一个外部测试环节,而非智能代理执行机制的核心组成部分。

 

Docker的Cagent就遵循这个范例。从架构上讲,Cagent 使用了 proxy-and-cassette 模型。在录制模式下,它将请求转发给像 OpenAI 或 Anthropic 这样的真实提供商,捕获完整的请求和响应,规范化 ID 等易失性字段,并将交互过程存储于 YAML 格式的 cassette 文件中。在重放模式下,Cagent 会完全阻止外部调用,将传入请求与 cassette 文件匹配,并返回记录的响应。如果智能代理的执行出现偏差,如使用了不同的提示、工具调用或序列,那么运行就一定会失败。

 

就成熟度来说,Cagent 仍处于早期阶段。Docker 自己的 GitHub 仓库对该项目的描述是正在积极开发当中,因此预计后续会有重大的变化,而且迄今为止,大多数公开的示例都来自 Docker 的文档,而不是大规模生产部署。

 

Cagent 的目标并不是取代现有的评估框架,但它揭示了 AI 代理测试发展过程中的一个不同方向。虽然如今有许多工具聚焦于执行完成后评估结果,但 Cagent 从一开始就将注意力转移到了使 AI 代理行为可再现上。随着团队尝试越来越复杂的 AI 代理工作流程,这种区别变得越来越明显。确定性重放并不判断代理的输出是否正确,但它确实使代理的行为变化变得更为显性化,为测试提供了一个更接近传统软件工程的基础。

 

原文链接:

https://www.infoq.com/news/2026/01/cagent-testing/

生成式 AI 的投资回报远超预期?Snowflake 调研全球 1900 位企业与 IT 专业人士后发现平均 ROI 高达 41%!点击下载完整报告

过去一年,随着大模型与编程代理能力的快速成熟,AI 辅助编程在工程实践中的位置发生了实质性变化。围绕 Vibe Coding 的讨论,已不再停留在工具是否“好用”,或模型是否“足够聪明”,而是逐渐转向更具体、也更难回避的问题:当 AI 开始深度参与代码实现、测试与交付流程,软件工程中哪些能力被显著放大,哪些判断仍然必须由人来完成?

在这样的背景下,这场发生在 BUILD 2025 大会上,题为《大咖之声:从 Vibes 到生产:Vibe Coding 的艺术、训练与陷阱》From Vibes to Production:The Art, Discipline, and Pitfalls of Vibe Coding)的圆桌对谈就显得尤为重要。因为它并没有顺着“AI 将如何颠覆软件工程”的情绪高点继续加码,而是进行了一场务实而冷静的对谈。

微软 Azure 首席技术官 Mark Russinovich与微软开发人员社区副总裁 Scott Hanselman在本场对谈中,深入解析 AI 编程助手与"氛围编程"正在如何重塑软件开发。两位技术领袖将演示是如何用自然语言编程来激发创造力并降低编码门槛的,但也会直面艰难现实:AI 生成的代码并非自动可投入生产环境。本次分享将审视如何利用氛围编程的速度与力量,通过系统架构设计、严格测试流程与安全实践,最终交付经得起现实考验的稳健软件。

效率跃迁是真实的,但它首先放大的是经验

在对话中,两位嘉宾回顾了 AI 辅助编程的长期演进路径——从上世纪九十年代的 IntelliSense,到后来能够生成代码骨架的 IntelliCode,再到 2021 年前后出现的 Codex、GitHub Copilot,以及近一年逐渐成熟的内置代理式工具。真正的分水岭,并不是“AI 能不能写代码”,而是 Agent 开始能够自主修改代码、运行构建、执行测试并提交变更。当这种能力出现后,生产力的变化不再是线性的,而是呈现出数量级跃迁。

他们都提到,在今年以来的实际项目中,效率提升已经从最初的 1.5 到 2 倍,跃升到了某些场景下的 5 到 10 倍。这种变化在中小型项目和个人工具上尤为明显。过去因为“太零碎”“不值得投入时间”而被放弃的想法,现在可以在极短时间内完成闭环。从一个想法到一个真实可用的工具,其间的摩擦被显著压缩。这正是 Vibe Coding 最具吸引力的地方。

但他们也明确指出,这种提升并非平均分配。真正被放大的,并不是“编程能力”本身,而是工程经验。具备系统理解、架构判断和问题拆解能力的人,能够从 AI 中获得指数级增益;而缺乏这些基础的人,则很难真正驾驭这种效率。

Agent 更像“永远停留在第一天的实习生”

在承认效率跃迁之后,讨论很快转向了 AI 编程的风险边界。随着 Agent 能力增强,一个反复出现的现象开始显现:这些系统在某一刻看起来极其聪明,逻辑清晰、输出完整,但在下一刻却可能犯下连初级工程师都难以接受的错误。

为了解释这种不稳定性,两位嘉宾使用了一个形象的比喻,AI Agent 很像实习生。不是因为它能力不足,而是因为它缺乏稳定的长期记忆,会反复犯已经被指出的问题,容易在任务过程中“走神”,并且对“什么才算真正完成”缺乏可靠判断。更关键的是,这个实习生永远停留在第一天。

即便你前一天已经明确指出了错误,第二天它依然可能回到原有的错误路径。它并不会真正积累经验,只是在当前上下文窗口内短暂服从指令。这种特性,使得在生产级系统中完全放手交给 Agent 成为一件高风险行为。

AI 并不理解系统,它更擅长迎合结果

在更深一层的技术讨论中,对谈触及了 AI 编程的核心问题:它并不真正理解系统。大模型在编程任务中,往往被高度优化为“让测试通过”“让用户满意”,而不是确保行为符合系统的整体约束与设计初衷。

这会导致一系列危险倾向,例如为了通过测试而硬编码特殊分支,用 sleep 掩盖并发问题,混用新旧 API 却依然宣称“production ready”。更棘手的是,AI 往往会以极强的自信表达这些结论,甚至在输出中明确存在失败的情况下,仍然总结为“已经完成”。

两位嘉宾特别强调,这并非某一个模型的缺陷,而是当前主流 AI 编程系统普遍存在的结构性问题。其根源在于训练数据、强化学习目标以及模型本身缺乏跨时间的系统性记忆。

真正的分水岭,在工程师的成长路径上

在这样的技术现实下,一个更深层的影响开始浮现:AI 编程对不同阶段工程师的作用并不对称。对于具备系统感、架构经验和“代码嗅觉”的资深工程师而言,AI 是放大器;而对于缺乏基础判断能力的初级工程师来说,AI 反而可能成为效率阻力。

原因并不复杂,如果你无法识别错误,就无法纠正 AI;如果你不理解系统,就无法判断“看起来能跑”的代码是否安全;而如果你只是接受结果,你就不会真正学习。对谈中引用的实验也印证了这一点,长期依赖 AI 的参与者,对自己刚刚完成的内容几乎无法回忆。

由此,两位嘉宾给出了一个并不轻松的判断:学习没有捷径。随着 AI 能力增强,软件工程方法论的重要性不是降低,而是被进一步放大。复杂系统必须被拆解、被测试、被审查;生产代码的责任,始终无法外包。

在他们看来,当代码生产成本不断逼近零,真正的瓶颈将转移到评估、消化与决策能力上。限制生产力的,不再是算力或 token,而是人类的注意力带宽。

Vibe Coding 更像一面放大镜

在对谈的结尾,两位嘉宾并未否定 Vibe Coding。相反,他们对“尝试新想法的成本前所未有地降低”表达了明确的兴奋。但他们给出的结论同样清晰:Vibe Coding 不是软件工程的终点,它更像一面放大镜。

它会放大经验、判断力和工程素养,也会放大认知缺失和方法论漏洞。最终,决定系统质量与工程上限的,仍然是人。

如果想继续了解两位嘉宾对于 Vibe Coding 相关议题的思考,欢迎朋友们订阅收听 Mark Russinovich 和 Scott Hanselman 的播客《Mark and Scott Learn To》。

阿里半夜刚发完旗舰模型,这边 DeepSeek 坐不住了,突然发布更新了。

 

刚刚,DeepSeek 发布了 新模型 DeepSeek-OCR 2,采用创新的 DeepEncoder V2 方法,让 AI 能够根据图像的含义动态重排图像的各个部分,更接近人类的视觉编码逻辑。在具体实现上,DeepSeek 团队在论文中称采用了 Qwen2-0.5B 来实例化这一架构。

 

如果说去年 10 月 DeepSeek-OCR 的发布,让行业第一次意识到“视觉压缩”可能是一条被严重低估的技术路线,那么现在,DeepSeek 显然决定把这条路走得更激进一些。

 

DeepSeek-OCR 2 有何不同?

 

在传统 OCR 体系中,无论是经典的字符检测—识别流水线,还是近年来多模态模型中的视觉编码模块,本质上都遵循同一种思路:对图像进行均匀、规则的扫描和编码,再将结果交给语言模型或后续模块处理。

 

这种方式的问题在于,它并不关心“哪些视觉区域真正重要”。

 

DeepSeek-OCR 1 之所以在当时引发讨论,正是因为它将 OCR 看作一种视觉压缩问题:不是尽可能多地保留像素信息,而是将视觉内容压缩成更有利于语言模型理解的中间表示。

 

而在 DeepSeek-OCR 2 中,这一思路被进一步推进。

 

根据技术报告,DeepEncoder V2 不再将视觉编码视为一次静态的、固定策略的扫描过程,而是引入了语义驱动的动态编码机制。模型会在编码阶段就开始判断哪些区域更可能承载关键信息,并据此调整视觉 token 的分配与表达方式。

 

换句话说,视觉编码不再只是“预处理”,而是已经提前进入了“理解阶段”。

 

和 DeepSeek 过往几乎所有重要发布一样,这一次依然选择了模型、代码与技术报告同时开源。项目、论文和模型权重已同步上线:

 

项目地址:https://github.com/deepseek-ai/DeepSeek-OCR-2

论文地址:https://github.com/deepseek-ai/DeepSeek-OCR-2/blob/main/DeepSeek_OCR2_paper.pdf

模型地址:https://huggingface.co/deepseek-ai/DeepSeek-OCR-2

  • 一开始使用 claude 就像平时口头叙述给实习生一样直接把需求给到他进行实现,从一开始的惊讶它的智能到现在感觉并没有想象中那么厉害,很多需求都会理解错误。通常我都是会需求拆解丢给它,列举个 123 点让他逐个实现,但总感觉差点意思。让我怀疑是否我的使用方法出错了?又或者有什么比较好的使用方法呢?

在生成式人工智能向 AI 智能体(AI Agent) 演进的过程中,技术社区往往将目标放在更高的自主性、更强的推理能力上。

但当智能体真正进入 电力、制造、金融、能源、医药等传统行业 时,一个反直觉却极其现实的结论浮现出来:

传统企业并不优先追求“最聪明的智能体”,而是“最可控的智能体”。

这并非技术保守,而是由 物理风险、合规压力与业务确定性 共同决定的理性选择。


一、核心定义:什么是传统行业语境下的“智能体可控性”?


在工业与严肃商业环境中,智能体的可控性(Controllability) 并不等同于“能不能关掉它”,而是一个系统级概念:

可控性 = 行为可预测 + 决策可解释 + 异常可接管

具体可拆解为三个维度:

1️⃣ 边界可控(Boundary Control)

  • 智能体能做什么 / 不能做什么是明确的
  • 工具权限、数据访问范围、操作级别均被限制

2️⃣ 逻辑可控(Logic Transparency)

  • 决策过程可以被复现与审计
  • 不只是“给结果”,而是能说明依据了什么规则 / 文档 / 条款

3️⃣ 安全可控(Fail-safe Control)

  • 在异常输入、极端场景下
  • 系统可自动降级,或由人工即时接管(Human Override)

二、为什么“可控性”是传统行业的生命线?

1️⃣ 容错成本具有极端非对称性

在互联网产品中,智能体犯错的代价通常接近于零;
而在传统行业中,一次错误可能意味着:

  • 设备损坏
  • 生产事故
  • 合规违规
  • 财务或人身风险

因此现实选择是:

智能体更适合作为“决策辅助者”,而非“最终执行者”。

这也是为什么多数传统企业会保留人类终审权


2️⃣ 合规与审计要求无法妥协

金融、医药、能源等行业的共同特点是:

  • 每一个决策必须可追溯
  • 每一个结论必须有明确依据

但大模型天然存在随机性与幻觉风险(Hallucination)。

因此:

如果智能体无法解释“为什么这么做”,
那它在合规体系中就是不可用的。

3️⃣ 传统业务偏好“确定性而非创造性”

传统企业的竞争力,往往来源于:

  • 数十年沉淀的 SOP
  • 高度结构化的业务流程

他们真正需要的不是“灵光一现”,而是:

**90% 场景下像老员工一样稳定,
10% 场景下才体现智能。**

在实践中,一些团队会选择成熟的智能体平台,通过低代码工作流 + 强规则约束的方式,让智能体“聪明但不越界”,显著降低落地风险。


三、实践范式:如何构建“可控的智能体系统”?


当前行业的共识路径是构建一种:

“受限自主系统(Constrained Autonomy)”

核心做法包括:

✅ 1. RAG(检索增强生成)

  • 将企业私有知识库作为唯一可信信息源
  • 限制智能体输出范围,降低幻觉概率

✅ 2. 工作流编排(Workflow Orchestration)

  • DAG 工作流 拆解任务
  • 每一步都有明确输入、输出与校验规则

✅ 3. 人在回路(Human-in-the-Loop)

  • 在关键节点设置人工审核断点
  • 涉及资金、合规、客户沟通时必须人工确认

四、核心结论:可控性不是限制,而是入场券

对传统行业而言:

  • 没有可控性,就没有规模化
  • 没有审计能力,就没有商业落地
可控性决定了:
智能体是“实验玩具”,还是“生产工具”。

本质上,这是一种新的人机契约关系

  • 人类定义规则与边界
  • 智能体承诺在规则内高效执行

未来传统企业的真正竞争力,不在于谁的模型参数更大,而在于谁先构建出一套“可控、可审计、可接管”的智能体体系。
本文章由AI辅助生成

您的 iPad 或 iPhone 内部存储空间不足,无法存储照片?或者想备份照片?您可以将照片从 iPad 或 iPhone 传输到电脑。根据您的偏好和可用的工具,共有 5 种方法可以实现此操作。无论您喜欢基于云的解决方案、专用软件,还是简单的拖放操作,您都能找到适合您需求的方法。

图片

快速看一下这些方法的优缺点:

图片

第 1 部分:如何通过 iCloud 照片将照片从 iPad/iPhone 传输到计算机?

iCloud Photos 是 Apple 的云端照片同步服务,让您可以轻松地在所有设备(包括电脑)上访问您的照片。请先确保您的 iCloud 帐户有足够的云存储空间。

要通过 iCloud Photos 将图片从 iPad 移动到 PC:


在您的 iPad 上,请前往“设置”>“ [您的姓名] ”>“ iCloud ”>“照片”。开启“同步此 iPad ”功能(如果尚未启用)。这会将您的 iPad 照片上传到 iCloud。请确保您的 iPad 已连接到 Wi-Fi。

图片


在 Windows PC 上,从 Apple 网站或 Microsoft Store 下载并安装适用于 Windows 的 iCloud。或者,访问 iCloud Photos 网站并登录您的 Apple 帐户。


单击“照片”选项,将您想要的照片下载到您的电脑。

图片

注意:在 Mac 电脑上,iCloud 照片已内置于 macOS 中。请确保您在 Mac 和 iPad 上使用相同的 Apple ID 登录。只需在 Mac 上打开“照片”应用。前往“照片”>“设置”(或“偏好设置”)>“iCloud”。确保已勾选“iCloud 照片”。您的 iPad 照片将同步到 Mac 的照片图库。然后,您可以根据需要将它们拖放到其他文件夹。

第 2 部分:如何通过 iReaShare iPhone Manager 将照片从 iPad/iPhone 传输到 PC?

作为一款一体化 iOS 管理工具, iReaShare iPhone Manager提供了实用的功能来传输数据,包括照片、视频、音乐、联系人、短信等。如果您想将照片从 iPad 或 iPhone 无缝导出到 Windows 或 Mac 电脑,它将满足您的要求。

iReaShare iPhone Manager的主要功能:

  • 将图片从 iPad 以无损质量传输到计算机。
  • 不会改变您的图像格式。

*将各种文件从 iOS 设备传输到计算机。

  • 立即将您的 iOS 数据备份到您的计算机。
  • 将备份数据从您的计算机恢复到您的 iPad 或 iPhone。
  • 支持 iOS 5.0 及更高版本,包括 iOS 26。

以下是通过该软件将图片从iPad导出到PC的方法:


在电脑上下载并安装 iReaShare iPhone Manager,然后使用 USB 数据线将 iPad 连接到电脑。启动软件。它应该会检测到你的 iPad。


如果出现提示,请点击“信任此电脑”,在 iPad 上授予访问权限。然后即可建立连接。


点击界面上的“照片”部分。接下来,选择要传输的照片,然后点击“导出”图标。然后在电脑上选择一个目标文件夹来保存照片。软件将开始传输过程。

图片

第 3 部分:如何通过照片应用程序将照片从 iPad 或 iPhone 传输到计算机?

macOS 和 Windows 操作系统上的“照片”应用是管理设备上照片的主要工具,包括从 iPad 直接传输照片。对于 Windows 用户,只要您的电脑运行的是 Windows 10 或更高版本,您就可以使用“照片”应用从 iOS 设备导入照片。

将 iPad 照片导入 PC:


请将 iPad 通过 USB 连接到电脑。然后点击“搜索”,并输入“照片”即可启动照片应用。


点击右上角的“导入”,点击“从USB设备”。


选择你的 iPad,然后选择要传输的图片。选择后,点击“添加 X 个项目”,选择电脑上的文件夹,然后点击“导入”。

图片

将 iPad 照片导入 Mac:


使用 USB 数据线将 iPad 连接到 Mac。在 Mac 上打开“照片”应用。如果它没有自动打开,请在“应用程序”文件夹或 Dock.p 中找到它。


你的 iPad 应该会出现在照片应用侧栏的“设备”部分下。点击它。如果这是你第一次连接,iPad 可能会询问你是否信任这台电脑。点击“信任”并输入你的密码。


照片应用会显示 iPad 上的所有照片和视频。您可以选择“导入所有新照片”,或选择特定照片,然后点击“导入所选”。导入后,这些照片将出现在 Mac 的照片图库中。

图片

提示:您可以轻松地将联系人从iPhone或iPad同步到Mac电脑。如果您需要有用的解决方案,请查看。

第 4 部分:如何通过 Google Photos 将图片从 iPad 或 iPhone 导出到 PC?

Google Photos 是一款流行的跨平台云服务,它提供了一种极好的方式,可以将照片从 iPad 或 iPhone 备份并传输到您的计算机,无论使用哪种操作系统。

将照片从ipad下载到电脑:


从 App Store 下载 Google 相册应用并将其安装在 iPad 上。打开 Google 相册应用,然后使用你的 Google 帐户登录。


点击右上角的个人资料图标。前往“照片设置”>“备份和同步”。开启“备份和同步”功能。您的 iOS 照片将开始上传到 Google 相册(请确保您的 Wi-Fi 连接良好)。

图片


在你的电脑(Windows PC 或 Mac)上,打开网络浏览器并访问 photos.google.com。然后使用你在 iPad 上使用的 Google 帐户登录。


您 iPad 上所有备份的照片都会显示在这里。选择您想要的照片,点击右上角的三个点菜单图标,然后选择“下载”。照片将被下载到您电脑的下载文件夹中。

图片

第 5 部分:如何通过文件资源管理器将图像从 iPad/iPhone 传输到计算机?

对于 Windows PC 用户,您的 iOS 设备可以被识别为数码相机,从而可以使用文件资源管理器进行简单的拖放传输。如果您的 PC 运行的是 Windows 7/8 系统,且没有“照片”应用,您可以使用这种方式将照片从 iPad 复制到 PC。

具体操作如下:


使用 USB 数据线将 iPad 连接到 Windows PC,然后在 iPad 上单击“信任”。


在电脑上打开“文件资源管理器”(可以按 Windows + E)。在左侧边栏中,您应该会在“便携式设备”或“设备和驱动器”下看到您的 iPad。它可能会显示为“ Apple iPad ”或类似的名称。


双击 iPad/iPhone 将其打开,然后导航至“内部存储”>“ DCIM ”。在 DCIM 文件夹中,您会找到一个或多个文件夹(例如,100APPLE、101APPLE),其中包含您的照片和视频。


打开这些文件夹查看图片。现在,您可以选择要传输的照片。将选定的照片拖放到电脑上的任何文件夹中,或者复制粘贴到您想要的位置。

图片

第 6 部分:有关将照片从 iPad/iPhone 传输到计算机的常见问题

问题 1:将照片从 iPad 或 iPhone 传输到电脑的最简单方法是什么?

本指南中的方法都很简单易用。哪种方法最简单取决于您的需求。如果您想无线传输照片,可以使用 iCloud Photos 和 Google Photos。如果您想要稳定且批量的传输,那么使用 iReaShare iPhone Manager 将是最佳选择。

问题 2:我可以使用 iTunes 将照片从 iPad/iPhone 传输到 PC 吗?

不可以,通常情况下,您无法使用 iTunes 将照片从 iPad 传输到 PC。iTunes 主要用于将 PC 上的媒体(音乐、视频等)同步到 iPad 以及备份 iPad。它实际上并没有直接的“将照片从 iOS 设备传输到 PC”功能。

Q3:我可以使用 AirDrop 在 iPad 和电脑之间传输照片吗?

是的,你完全可以使用 AirDrop 在 iPad 和 Mac 电脑之间传输照片(以及其他文件)。但如果你的电脑是 Windows 系统,则无法使用 AirDrop 传输图片。

结论

无论选择哪种方法,都可以轻松地将照片从 iPad 或 iPhone 传输到电脑。使用iReaShare iPhone Manager可以高效、高质量地传输照片,并轻松管理您的 iPad 数据。无论如何,请考虑您个人对云存储和直接连接存储的偏好,并选择最适合您工作流程的方法。

PostgreSQL 18 正式发布,带来了多项重要改进,其中 RETURNING 子句的增强尤为突出。该特性在 MERGE RETURNING 场景下实现了关键突破,可显著简化应用架构,并提升数据变更追踪能力。

RETURNING 子句的演进

RETURNING 子句长期以来用于在 INSERTUPDATEDELETE 操作后返回受影响行的数据,从而避免额外的 SELECT 查询,减少数据库往返次数并提升性能。然而,在 PostgreSQL 18 之前,该子句在功能上存在明显限制,迫使开发实践中采用各种折中方案。

在 PostgreSQL 17 中,首次为 MERGE 语句引入 RETURNING 支持(提交 c649fa24a),这是一次重要进展。MERGE 语句自 PostgreSQL 15 引入,用于在单条语句中完成条件化的 INSERTUPDATEDELETE 操作,但在缺乏 RETURNING 支持的情况下,无法直观获取实际执行结果。

PostgreSQL 18 的新特性

PostgreSQL 18 通过引入 OLD 与 NEW 别名(提交 80feb727c8,由 Dean Rasheed 提交,Jian He 与 Jeff Davis 评审),将 RETURNING 子句能力提升至新的层级。该增强使 DML 操作期间的数据捕获方式发生了根本性变化。

PostgreSQL 18 之前的限制

在早期版本中,RETURNING 子句在不同语句类型下存在以下差异化限制:

  • INSERTUPDATE 仅能返回新值或当前值
  • DELETE 仅能返回旧值
  • MERGE 根据内部实际执行的操作类型(INSERTUPDATEDELETE)返回结果

在需要对比更新前后数据、或精确追踪字段变化时,可选方案较为有限,包括:

  • 在修改前额外执行 SELECT 查询
  • 编写复杂的触发器函数
  • 在应用层实现变更跟踪逻辑
  • 通过系统列(如 xmax)进行间接判断

上述方式普遍增加了实现复杂度与访问延迟,并降低了代码可维护性。

解决方案:OLD 与 NEW 别名

PostgreSQL 18 引入了特殊别名 oldnew,可在单条语句中同时访问数据的修改前状态与修改后状态。该机制适用于 INSERTUPDATEDELETE 以及 MERGE 等全部 DML 操作。

基本语法示例如下:

UPDATE table_name
SET column = new_value
WHERE condition
RETURNING old.column AS old_value, new.column AS new_value;

为避免与现有列名冲突,或在触发器环境中使用,可对别名进行重命名:

UPDATE accounts
SET balance = balance - 50
WHERE account_id = 123
RETURNING WITH (OLD AS previous, NEW AS current)
    previous.balance AS old_balance,
    current.balance AS new_balance;

MERGE + RETURNING:能力整合

在 PostgreSQL 18 中,MERGE 与 RETURNING 的组合为 Upsert 场景提供了完整能力,可在单条原子操作中同时完成数据写入与变更结果获取。

实践示例:产品库存系统

在产品库存管理场景中,需要从外部数据源同步数据,实现新增产品、更新已有产品,并准确记录每一行的处理结果。

步骤 1:创建数据表

CREATE TABLE products (
    product_id SERIAL PRIMARY KEY,
    product_code VARCHAR(50) UNIQUE NOT NULL,
    product_name VARCHAR(200) NOT NULL,
    price DECIMAL(10, 2) NOT NULL,
    stock_quantity INTEGER NOT NULL DEFAULT 0,
    last_updated TIMESTAMP DEFAULT CURRENT_TIMESTAMP
);

CREATE TABLE product_staging (
    product_code VARCHAR(50),
    product_name VARCHAR(200),
    price DECIMAL(10, 2),
    stock_quantity INTEGER
);

步骤 2:插入初始数据

INSERT INTO products (product_code, product_name, price, stock_quantity)
VALUES
    ('LAPTOP-001', 'Premium Laptop', 999.99, 50),
    ('MOUSE-001', 'Wireless Mouse', 29.99, 200),
    ('KEYBOARD-001', 'Mechanical Keyboard', 79.99, 150);

INSERT INTO product_staging (product_code, product_name, price, stock_quantity)
VALUES
    ('LAPTOP-001', 'Premium Laptop Pro', 1099.99, 45),  -- Update existing
    ('MONITOR-001', '4K Monitor', 399.99, 75),          -- New product
    ('MOUSE-001', 'Wireless Mouse', 29.99, 200);        -- No actual change

基础版:搭配 RETURNING 子句的 MERGE 操作

MERGE INTO products p
USING product_staging s ON p.product_code = s.product_code
WHEN MATCHED THEN
    UPDATE SET
        product_name = s.product_name,
        price = s.price,
        stock_quantity = s.stock_quantity,
        last_updated = CURRENT_TIMESTAMP
WHEN NOT MATCHED THEN
    INSERT (product_code, product_name, price, stock_quantity)
    VALUES (s.product_code, s.product_name, s.price, s.stock_quantity)
RETURNING
    p.product_code,
    p.product_name,
    merge_action() AS action_performed;

返回结果示例:

 product_code  |    product_name     | action_performed
---------------+---------------------+------------------
 LAPTOP-001    | Premium Laptop Pro  | UPDATE
 MONITOR-001   | 4K Monitor          | INSERT
 MOUSE-001     | Wireless Mouse      | UPDATE

进阶版:搭配 OLD 与 NEW 别名的 MERGE 操作

通过 OLD 与 NEW 别名,可同时获取字段的修改前与修改后值,从而实现精细化变更追踪与审计。

以下查询可从受影响行中,同时获取 product_name 与 price 列的修改前旧值和修改后新值。通过为其设置别名(old_name、new_name、old_price、new_price),可便捷对比 MERGE 操作前后的列值变化,为变更追踪与审计日志记录提供支撑。

MERGE INTO products p
USING product_staging s ON p.product_code = s.product_code
WHEN MATCHED THEN
    UPDATE SET
        product_name = s.product_name,
        price = s.price,
        stock_quantity = s.stock_quantity,
        last_updated = CURRENT_TIMESTAMP
WHEN NOT MATCHED THEN
    INSERT (product_code, product_name, price, stock_quantity)
    VALUES (s.product_code, s.product_name, s.price, s.stock_quantity)
RETURNING
    p.product_code,
    merge_action() AS action,
    old.product_name AS old_name,
    new.product_name AS new_name,
    old.price AS old_price,
    new.price AS new_price,
    old.stock_quantity AS old_stock,
    new.stock_quantity AS new_stock,
    (old.price IS DISTINCT FROM new.price) AS price_changed,
    (old.stock_quantity IS DISTINCT FROM new.stock_quantity) AS stock_changed;

INSERT 场景下旧值为 NULL,而 UPDATE 场景下可完整呈现字段变更情况。

 product_code  | action | old_name          | new_name            | old_price | new_price | old_stock | new_stock | price_changed | stock_changed
---------------+--------+-------------------+---------------------+-----------+-----------+-----------+-----------+---------------+--------------
 LAPTOP-001    | UPDATE | Premium Laptop    | Premium Laptop Pro  | 999.99    | 1099.99   | 50        | 45        | t             | t
 MONITOR-001   | INSERT | NULL              | 4K Monitor          | NULL      | 399.99    | NULL      | 75        | NULL          | NULL
 MOUSE-001     | UPDATE | Wireless Mouse    | Wireless Mouse      | 29.99     | 29.99     | 200       | 200       | f             | f

构建审计日志

借助增强后的 RETURNING 子句,可在不使用触发器的前提下构建完整审计链路。

步骤 1:创建审计表

CREATE TABLE product_audit (
    audit_id SERIAL PRIMARY KEY,
    product_code VARCHAR(50),
    action VARCHAR(10),
    old_values JSONB,
    new_values JSONB,
    changes JSONB,
    changed_at TIMESTAMP DEFAULT CURRENT_TIMESTAMP
);

步骤 2:执行带详细审计追踪的 MERGE 操作

WITH merge_results AS (
    MERGE INTO products p
    USING product_staging s ON p.product_code = s.product_code
    WHEN MATCHED THEN
        UPDATE SET
            product_name = s.product_name,
            price = s.price,
            stock_quantity = s.stock_quantity,
            last_updated = CURRENT_TIMESTAMP
    WHEN NOT MATCHED THEN
        INSERT (product_code, product_name, price, stock_quantity)
        VALUES (s.product_code, s.product_name, s.price, s.stock_quantity)
    RETURNING
        p.product_code,
        merge_action() AS action,
        jsonb_build_object(
            'name', old.product_name,
            'price', old.price,
            'stock', old.stock_quantity
        ) AS old_values,
        jsonb_build_object(
            'name', new.product_name,
            'price', new.price,
            'stock', new.stock_quantity
        ) AS new_values
)
INSERT INTO product_audit (product_code, action, old_values, new_values, changes)
SELECT
    product_code,
    action,
    old_values,
    new_values,
    CASE
        WHEN action = 'INSERT' THEN new_values
        WHEN action = 'DELETE' THEN old_values
        ELSE (
            SELECT jsonb_object_agg(key, value)
            FROM jsonb_each(new_values)
            WHERE value IS DISTINCT FROM old_values->key
        )
    END AS changes
FROM merge_results;

步骤 3:查询审计追踪结果

select * from product_audit;
 audit_id | product_code | action |                          old_values                           |
             new_values                           | changes |         changed_at
----------+--------------+--------+---------------------------------------------------------------+-------------
--------------------------------------------------+---------+----------------------------
        1 | LAPTOP-001   | UPDATE | {"name": "Premium Laptop Pro", "price": 1099.99, "stock": 45} | {"name": "Pr
emium Laptop Pro", "price": 1099.99, "stock": 45} |         | 2025-12-12 16:27:14.760125
        2 | MONITOR-001  | UPDATE | {"name": "4K Monitor", "price": 399.99, "stock": 75}          | {"name": "4K
 Monitor", "price": 399.99, "stock": 75}          |         | 2025-12-12 16:27:14.760125
        3 | MOUSE-001    | UPDATE | {"name": "Wireless Mouse", "price": 29.99, "stock": 200}      | {"name": "Wi
reless Mouse", "price": 29.99, "stock": 200}      |         | 2025-12-12 16:27:14.760125
(3 rows)

示例中通过 CTE 获取 MERGE 结果,并将旧值、新值及差异以 JSONB 形式写入审计表,实现单条原子操作内的数据同步与审计记录生成。

未来展望

PostgreSQL 18 版本的 RETURNING 子句增强特性,是该数据库提升开发友好性、减少复杂替代方案使用的重要举措。单原子操作中同时调用数据新旧值的能力,可简化应用开发中的多种通用实现模式。

该功能在后续版本中或可从以下方向进一步升级:

  1. 扩展 MERGE 语句能力,新增更多 WHEN 子句,实现更复杂的条件操作.
  2. 新增聚合功能支持,支持对 RETURNING 子句的返回结果直接进行聚合计算。
  3. 实现跨表返回,支持在单操作中返回关联表的数据信息。

技术细节与提交记录参考

针对关注技术实现细节的人员,可参考以下信息:

该功能的实现涉及多个组件的修改,包括:

  • 执行器(execExpr.c、execExprInterp.c、nodeModifyTable.c)
  • 解析器(parse_target.c)
  • 优化器(createplan.c、setrefs.c、subselect.c)
  • 节点模块(makefuncs.c、nodeFuncs.c)

总结

PostgreSQL 18 对 RETURNING 子句的增强,尤其是 OLD 与 NEW 别名的引入,为 INSERTUPDATEDELETEMERGE 操作提供了完整的数据变更可视性。这一能力显著减少了对触发器与额外查询的依赖,使数据同步、变更追踪与审计实现更加简洁、高效且易于维护。

MERGE 与增强型 RETURNING 的结合,为 Upsert 场景提供了前所未有的控制能力与透明度,是 PostgreSQL 在开发友好性与工程实用性方面的重要进展。

原文链接:

https://www.pgedge.com/blog/postgresql-18-returning-enhanceme...

作者:Ahsan Hadi


HOW 2026 议题招募中

2026 年 4 月 27-28 日,由 IvorySQL 社区联合 PGEU(欧洲 PG 社区)、PGAsia(亚洲 PG 社区)共同打造的 HOW 2026(IvorySQL & PostgreSQL 技术峰会) 将再度落地济南。届时,PostgreSQL 联合创始人 Bruce Momjian 等顶级大师将亲临现场。

自开启征集以来,HOW 2026 筹备组已感受到来自全球 PostgreSQL 爱好者的澎湃热情。为了确保大会议题的深度与广度,我们诚邀您在 2026 年 2 月 27 日截止日期前,提交您的技术见解。

投递链接:https://jsj.top/f/uebqBc

通义深度搜索限时免费中,快来使用吧!

 应用开通

1.在阿里云百炼控制台的应用广场中点击通义深度搜索卡片,进入应用详情

image

2.首次试用时,点击右上角免费开通完成应用开通。

image

image

应用管理

点击我的应用进入应用管理页面。页面展示所有已创建的应用和应用key等信息,首次使用需要新增应用。

image

应用配置

点击应用卡片或新增应用进入应用配置界面。

image

1.场景选择

根据实际需求选择使用场景,当前可选通用场景、法律场景。

2.互联网检索配置

开启后支持实时互联网全栈信息检索,提升模型回答准确性及时效性。

2.1检索策略

在检索策略上,您可以在‘标准版本’和‘自定义版本’中选择一种

标准版本

标准的检索策略,选择标准版本时,可以进一步根据对于搜索效果与搜索耗时的偏好选择不同的性能版本。

  • Max版本:效果优先,检索更深入,结果更全面,但响应时间较长
  • Turbo版本:速度优先,响应时间短,适合对实时性要求高的场景
自定义版本

选择自定义检索策略时,有更多的配置进行更细化的配置。

  • 支持限定检索时间范围
  • 支持限定网站范围,最多添加20个网站,配置后优先从此范围网站检索信息,如果无匹配信息则会扩展到全网检索,网站录入时会自动去重
  • 支持配置recall数量,数量越高信息越全,但会占用更多资源,增加耗时
  • 支持配置网页读取开关,开启后搜索结果更详细但是耗时增加

image

2.2策略选择

可根据搜索效果与rt偏好选择max版本和turbo版本。

3.自有知识库配置

支持接入非百炼的自有知识库作为搜索来源,开启选项后可进行配置,点击添加知识库配置

输入知识库名称、知识库描述、服务地址、授权信息,点击“服务测试”,验证通过后点击“保存”以完成添加。可参考示例文档进行知识库对接配置。

image

4.百炼知识库

支持接入百炼知识库,选择已配置的知识库,如无百炼知识库,需要先在百炼控制台创建知识库。并添加知识库描述,知识库描述需要认真填写易于模型理解。

5.code\_interpret

开启后提升对于复杂计算问题的效果。

6.动态文件解析

开启动态文件解析后,支持在输入query同时添加本地文件作为临时上下文知识。一次对话最多可上传10个文件,单文件不超过10MB,支持.docx/.doc/.pdf/.txt/.md等格式。

7.生成配置

开启输出报告后,对话最终会生成报告文件。关闭则不生成报告。

应用测试

配置完成后,可在输入框输入query进行测试,对话框展示chat内容、计划规划、思考过程、检索过程、工具调用过程等多个深度搜索研究步骤。最终生成报告文件。右侧报告区域支持‘预览’模式和‘源码’模式。切换到‘源码’模式可查看用于生成报告的Markdown原文。提供文件下载。

重要

请注意,在配置页面测试也会计算使用量并产生费用。

image

应用发布

配置测试完成后,可以点击发布,将应用发布后可正式使用。

image


点击访问:通义深度搜索应用

点击:更多讨论交流

上个帖子已经分享了如何在润云进入ComfyUI界面。

下面我来具体分享ComfyUI的使用方法

一、文生图

界面上的节点和整个画布都可以拖动,也可以放大缩小。

ComfyUI 为我们提供了一个默认的文生图工作流。直接点击右边的 Queue Prompt 就能够触发生图流程,你可以看到有个绿色的边框会随着流程的进展在不同的节点上显示。

整个工作流由两个基本的部分组成:节点(Nodes)和边(Edges)。

• 每一个矩形块就是一个节点,比如 Load Checkpoint CLIP Text Encoder 等。可以把每个节点看成是函数,它们都具有输入、输出和参数三个属性。

• 连接每个节点的输入和输出的线就是边。

其他还有很多的细节和概念,我将会在接下来的内容中逐步解释。

我们直接从这个默认工作流开始,它包含了下面这些步骤。

1.1 选择模型

首先需要在 Load Checkpoint 这个节点中选择一个模型,这里的模型选项就是在上文中下载的那些模型文件。比如我这里就放置了多个可选的模型,我可以根据自己的需求选择我想要使用的模型。

1.2 构造提示词

选择完模型,下一步就是构造提示语了。

在界面上,有两个 CLIP Text Encode (Prompt) 节点,这两个节点都是用来构造我们的提示语的。

其中,上面一个节点用来输入正向提示语(Positive Prompt),即告诉模型做什么,而下面一个节点则用来输入负面提示语(Negative Prompt),即告诉模型不要做什么。

如果觉得容易混淆,可以像我这样直接双击节点名称改成它对应的功能的名称,就像下面这样。

下面的节点也可以看出哪个是正向哪个是负向

CLIP Text Encode 节点的作用是将提示语转换为标记,然后通过文本编码器将它们处理为嵌入(Embeddings)。

你可以使用 (关键词:权重) 的这样的语法来控制关键词的权重。

比如,使用 (keyword:1.4) 来增强效果,或 (keyword:0.9) 来减弱效果。

1.3 生成图像

点击下方的 Run,等待一会儿就能够看到有一张图像生成完成了。

二、ComfyUI 的工作机制

ComfyUI 的强大之处就在于它的高度可配置性。熟悉每个节点的功能之后可以让我们轻易地根据需求来定制化操作。

在介绍图生图工作流之前,我需要先向你详细介绍一下 ComfyUI 的工作机制。

Stable Diffusion 的生图过程可以总结为以下三个主要步骤:

  • 文本编码:用户输入的提示语通过一个称为文本编码器(Text Encoder) 的组件编译成各个单词的特征向量。这一步将文本转换为模型可以理解和处理的格式;
  • 潜在空间(Latent space)转换:来自文本编码器的特征向量与一个随机噪声图像一起被转换到潜在空间。在这个空间中,随机图像根据特征向量进行去噪处理,得到一个中间产物。这一步生图过程的是关键所在,因为模型会在这里学习将文本特征与视觉表现相联系。
  • 图像解码:最后,潜在空间中的中间产物由图像解码器(Image Decoder) 进行解码,转换为我们可以看到的实际图像。

了解了 Stable Diffusion 层面的生图流程之后,接下来我们深入了解一下 ComfyUI 在实现这个过程中的关键组件和节点。

2.1 Load Checkpoint 节点

Load Checkpoint 节点会加载一个模型,一个 Stable Diffusion 模型主要包含以下三个部分:

  • MODEL

MODEL 组件是一个在潜在空间(Latent Space)中运行的噪声预测模型。

这句话的意思是 Stable Diffusion 模型在潜在空间中对图像的生成过程进行建模,并通过预测和去除噪声逐渐还原图像的过程。

具体来说就是,在 Stable Diffusion 中,图像生成首先在潜在空间中引入随机噪声,然后模型通过一系列步骤逐渐去除这些噪声,生成符合提示语的图像。

这种逐步去噪的过程由噪声预测模型来完成。潜在空间是图像的一个简化、高度抽象化的表示,可以降低模型的计算复杂度,可以让模型在生成图像时更高效。

在 ComfyUI 中,Load Checkpoint 节点的 MODEL 输出连接到 KSampler 节点,KSampler 节点执行反向扩散过程。

KSampler 节点利用 MODEL 在潜在表示中进行迭代去噪,逐步优化图像,直到它符合给定的提示语。

  • CLIP (Contrastive Language-Image Pre-training)

CLIP 其实是一个负责预处理用户提供的正向和负面提示语的语言模型。它将文本提示转换为 MODEL 可以理解的格式,指导图像生成过程。

在 ComfyUI 中,Load Checkpoint 节点的 CLIP 输出连接到 CLIP Text Encode 节点。CLIP Text Encode 节点获取用户提供的提示语,并将它们输入到 CLIP 语言模型中,转换为向量嵌入。

这些向量嵌入可以捕捉单词的语义,为 MODEL 生成符合提示语的图像提供更多的指导。

  • VAE (Variational AutoEncoder)

它包含一个编码器和一个解码器,其中,编码器用于将图像压缩为低维的潜在表示,而解码器用于从潜在表示中重建图像。

在文生图的过程中,VAE 仅在最后一步使用,它的作用就是将生成的图像从潜在空间转换回像素空间。

ComfyUI 中的 VAE Decode 节点获取 KSampler 节点的输出,并利用 VAE 的解码器部分将潜在表示转换为最终的像素空间图像。

VAE 与 CLIP 语言模型是独立的组件。CLIP 主要处理文本提示语,而 VAE 负责在像素空间和潜在空间之间进行转换。

2.2 CLIP Text Encode 节点

在上文中有提到,在 CLIP Text Encode 节点中我们可以输入生成图像的提示语,而这个节点的作用就是获取我们提供的提示语,并将其输入到 CLIP 语言模型中。

CLIP 是一个强大的语言模型,能够理解单词的语义并将其与视觉概念相关联。当提示语输入到 CLIP Text Encode 节点后,它会将每个单词转换为向量嵌入。向量嵌入是高维的数字表示,包含了单词的语义信息,模型能够根据这些信息生成符合提示语的图像。

2.3 Empty Latent Image 节点

在 ComfyUI 的文生图的过程中,它首先会在潜在空间中生成一个随机图像,这个图像会作为模型处理的初始状态,它的大小与实际像素空间中的图像尺寸成比例。

在 ComfyUI 中,我们可以调整潜在图像的高度和宽度来控制生成图像的大小。此外,我们还可以设置批处理大小来确定每次运行生成的图像数量(batch_size)。

潜在图像的最佳尺寸取决于所使用的 Stable Diffusion 模型版本。

对于 v1.5 模型,推荐的尺寸是 512x512 或 768x768;对于 SDXL 模型,最佳尺寸是 1024x1024。ComfyUI 提供了多种常见的宽高比可供选择,但是需要注意的是,潜在图像的宽度和高度必须是 8 的倍数,这样才能确保与模型架构的兼容性。

2.4 VAE 节点

在界面中我们能看到 Load Checkpoint 节点的 VAE 属性就直接连接到了 VAE 节点。所以,这里的 VAE 节点其实就是上文中所提到的负责在像素空间和潜在空间之间转换图像的 VAE。

2.5 KSampler 节点

在 ComfyUI 中,生图过程的核心节点就是 KSampler 节点。它负责在潜在空间中对随机图像进行去噪,让生成的图像符合我们提供的提示语。KSampler 使用的是一种称为反向扩散的技术,可以迭代地去除噪声,并根据 CLIP 向量嵌入添加有意义的细节。

KSampler 节点提供了多个参数,让我们可以微调图像的生成过程:

  • Seed

    Seed 值控制了初始噪声和最终图像的构图。设置特定的 Seed 值,我们可以获得可重复的结果,可以保持多次生成的一致性。

  • Control_after_generate

    这个参数决定了每次生成后 Seed 值的变化方式,可以设置为随机化(每次运行生成新的随机 Seed)、递增、递减或者固定不变。

  • Step

    采样步数决定了优化过程的强度。如果设置步数较大,则会产生更少的伪影和更精细的图像,但也会增加生成时间。

  • Sampler_name

    这个参数用于选择 KSampler 所使用的特定采样算法。不同的采样算法可能会产生略有不同的结果,且生成速度也会有所不同。

  • Scheduler

    这个参数用于控制在去噪过程中的每一步中噪声水平的变化速率,它决定了从潜在表示中去除噪声的速度。

  • Denoise

    这个参数用于设置去噪过程应消除的初始噪声量。值为 1 表示去除所有噪声,从而生成干净且细节丰富的图像。

通过调整这些参数,我们可以微调图像的生成过程,从而获得理想的图像。

至此,我花了大量篇幅向你介绍了 ComfyUI 中的所有节点以及其对应的功能,希望到目前为止能够帮助你对 ComfyUI 有一个较为全面的认知和理解。

后续我会使用图生图、图片扩展等流程的教学。点点关注,之后会持续更新哦~~~

随着国际形势动荡的不断发酵,国内市场中的各个行业都受到不同程度的影响,那针对刚刚起步拓展海外市场的各个电子签公司(北京安证通、E签宝等)有没有直接影响呢?我们简单来看看。

首先,国际动荡对国内电子签章公司确实会产生一系列直接和间接的影响,尽管中国国内市场是其主要根基。具体影响可以从以下几个层面分析:

  1. 负面影响与风险

1) 供应链与技术依赖

Ø 若动荡涉及关键技术与硬件(如服务器芯片、加密硬件模块、云计算基础架构)的出口管制或供应链中断,可能影响国内电子签章公司的产品升级与运维。影响最大的便是以数字证书为主,电子签章为辅的各个CA公司(北京CA、CFCA等)

Ø 若依赖海外开源技术或标准(如密码算法、国际认证体系),可能因制裁或技术脱钩导致合规成本上升。

2) 跨国业务受阻

Ø 若公司服务出海企业或境外客户,地缘冲突可能导致跨境数据流动受限(如欧美数据跨境协议变化),增加法律合规复杂性。

Ø 部分国家可能以“国家安全”为由限制外国数字服务,影响中国电子签章企业的海外拓展。

3) 经济下行传导

Ø 国际冲突可能引发全球经济增长放缓,影响国内外贸、投资等领域,进而减少企业数字化转型需求,电子签章作为降本工具可能面临项目延期或预算削减。

4) 信息安全与自主可控压力

Ø 国际网络空间对抗加剧可能激发各国对数据主权的要求,国内企业需加速国产密码算法、信创生态适配,短期内增加研发成本。

  1. 潜在机遇

1) 国产替代加速

Ø 国际摩擦可能促使政府与企业更重视供应链安全,推动电子签章在政务、金融、能源等关键领域的国产化替代,利好具备自主技术的公司。

2) 国内政策支持强化

Ø 为应对不确定性,国内可能加大数字经济基础设施投入,例如推动“全国统一电子签名互认体系”建设,扩大电子签章在医疗、司法等场景的应用。

3) 远程与无纸化需求增长

Ø 国际动荡若导致跨国人员流动受阻、远程办公常态化,可能刺激跨境电子合同、在线公证等需求,为电子签章行业开辟新市场。

  1. 行业应对策略

Ø 技术层面:加强国产密码技术(如SM2/SM9)应用,适配信创生态;布局隐私计算等跨域认证技术以应对数据流动壁垒。

Ø 业务层面:深耕国内市场,聚焦政务、国企、大型制造业等稳健需求;出海时优先选择“一带一路”等政策支持区域,降低地缘风险。

Ø 合规层面:密切关注跨境数据监管(如中国《数据出境安全评估办法》、欧盟GDPR),构建动态合规体系

  1. 总结

国际动荡对国内电子签章行业是 “危中有机” 的复合挑战。就目前国内各个电子签章公司的技术路线和行业案例覆盖情况而言,北京安证通在这波机遇与挑战中的韧性将是最强的,其他电子签章公司还需在技术和应用层面加强自身。

先说结论:大概 1~2 年之后,语音输入在移动设备上将会成为主流的输入方式。文字输入基本被淘汰,就跟现在基本没有人会用手写输入一样。

为什么?因为效率。

一个操作熟练的一般人大概每分钟能打 80~100 个汉字,人的说话速度大概是每分钟 160~240 个汉字。

现在 AI 语音输入法可以识别得非常快,非常准确,基本上可以跟上说话的速度。比如说我写的这一段,用的是豆包的语音输入(利益不相关,纯佩服),一个错别字都没有改过(最多是修改一下标点符号。)甚至一些很生僻的词也能识别出来。

当然,随着这个预测的出现,另外一个是谁能把握到这个语音输入的机会(包括软件和硬件),谁可能就会成为未来输入的统领者。这个预测的一个很大的变数是 AI 时代语音输入法门槛会比较低,做一个九十分的语音输入应该都不是一个很复杂且很费劲的事情。比的是谁能做到 99 分。

你觉得呢?

如意玲珑是⼀种新型的独⽴包管理⼯具集旨在解决Linux系统下传统软件包格式因复杂依赖关系导致的兼容性问题,以及权限管控松散带来的安全⻛险。通过容器化技术提供应⽤隔离运⾏环境,⽀持应⽤增量更新,从⽽提升软件包管理的效率和安全性。

本⽂主要讲述如意玲珑的发展与架构的演进 ,这包括以下⼏个⽅⾯:
Linux软件包管理器的演进;
如意玲珑架构设计
如意玲珑使⽤场景;
如意玲珑关键组件设计;
如意玲珑性能测试与对⽐;
如意玲珑的发展成果;
如意玲珑未来展望。

Linux软件包管理器的演进
Linux操作系统以其开源特性和灵活性著称,⽽软件包管理器是确保Linux系统能够顺利安装和运⾏所需软件的关键组件。
顾名思义,Linux 软件包管理器是⼀种在 Linux 操作系统上⽤于安装、更新和卸载软件包的⼯具。 它的历 史可以追溯到上世纪 90 年代,此时 Linux 正处于起步阶段,软件的安装必须⼿动下载源代码并编译,这对⾮技术⽤户来说是⼀项繁琐且困难的任务。
这种情况下,先后催⽣了 dpkg 和 rpm ,然⽽由于不能⾃动解决依赖关系,其使⽤起来依旧不便。
直到 Debian 的 apt、Red Hat 的 up2date 的发布,包管理器可⽤性有了很⼤的提升。它们采⽤了⼀种被称为 “依赖关系解决器” 的算法,能够⾃动解决软件包之间的依赖关系,从⽽简化软件的安装和升级过程。但这也在另⼀⽅⾯⼤⼤增加了系统复杂度,维护者们需要⾮常谨慎⼩⼼地处理,稍有不慎就会陷⼊“依赖地狱”,导致软件包系统发⽣故障。
此外,还有许多其他的软件包管理器,如 yum、portage 和 pacman 等。包管理器的多样性给⽤户带来了更多选择,但缺点也⼗分显著: 它们的软件包⽆法互通,这意味着⼀款软件要在其他发⾏版上使⽤ ,可能需要被重复打包。
随着Linux内核对容器的⽀持、Docker的诞⽣,Snap、Flatpak 等⼀批容器思想的包管理器也开始崭露头角。这类格式的软件包与系统环境⼏乎完全解耦,不再依赖系统上的库⽂件(AppImage 也是如此),应⽤分发开始逐步变得简单起来。但磁盘、 内存占⽤较⾼,启动时间被不断延⻓等问题也随之⽽来,⾄今仍未被解决。

如意玲珑架构设计 

如意玲珑的核⼼设计原则是兼容和安全 ,主要为了解决以下问题:

  1. 解决Snap、Flatpak包管理器应⽤体积过度膨胀 ,Runtime乱⽤导致占⽤过度膨胀、应⽤打开速度过慢 的问题;
  2. 解决应⽤安装时权限过⼤问题 ,严格规范应⽤权限;
  3. 解决应⽤运⾏依赖问题。
    基于以上设计原则 ,整体架构如下图所⽰: 
    image.png

如意玲珑整体采⽤分层设计 ,最底层是硬件平台 ,⽀持不同的CPU架构 ,上层是系统平台也就是各个 Linux发⾏版操作系统。

再上层是运⾏环境 ,这⼀层就是我们单独抽离出的runtime , 当前是选取桌⾯应⽤最常⽤的库和依赖包,这样应⽤只需要依赖这个统⼀的稳定的runtime ,⽆需考虑下层的系统平台 ,⽽不在runtime⾥的独有的依赖可以直接打包在应⽤包⾥⾯ ,⽽且runtime也会持续演进 ,演进的原则是兼容性第⼀ ,即在不影响兼容 性的前提下会持续修复缺陷和修复安全漏洞 ,⽽因为新的功能属性的要求导致需要更新⼤版本⽆法保障 兼容性时 ,会新增runtime ,新旧runtime共存互不⼲扰 ,且我们采⽤⽂件共享的⽅式来减少多个runtime对磁盘资源的占⽤ 。
再上层就是玲珑的主要组件 ,包括虚拟化容器、命令⾏接⼝ 、包仓库、⽤户会话辅助服务等组件 ,提供 包管理相关的能⼒ ,⽀持软件包的下载、安装、更新、卸载、运⾏与托管等功能。⽽在最上层 ,还为软 件开发者提供了便捷的包构建⼯具和转换⼯具 ,以及提供了应⽤商店供软件开发者分发应⽤ ,供⽤户下载安装应⽤ 。

如意玲珑使⽤场景

解决兼容性冲突问题.  现在企业的应⽤与系统、应⽤与应⽤之间需要完成适配、测试确保⽆兼容性冲突 ,⼀旦应⽤升级或系统或系统升级都有可能导致系统或应⽤⽆法使⽤ ,需要重新适配、测试 ,耗时耗⼒ ,严重影响企业办公和业务运转。
如意玲珑应⽤使⽤隔离技术 ,将系统和应⽤完全解耦 ,客户可随意升级系统或应⽤ 。⼤幅提⾼了易 ⽤性 ,降低了企业维护成本。

图片

解决恶意软件可能窃取数据问题

恶意软件可通过多种渠道窃取企业核⼼业务数据 ,若被不法分⼦加以利⽤ ,可能会导致企业数据安全⾯临巨⼤风险 ,甚⾄遭受巨额损失。
如意玲珑提供沙箱让应⽤运⾏在隔离的环境下 ,对设备和数据的访问需要得到授权 ,从⽽保护了企业数据安全和个⼈隐私。

图片

解决应⽤⽣态适配碎⽚化问题

传统包管理器在Linux下打包流程复杂 ,开发者需要为不同发⾏版分别打包DEB/RPM等格式 ,甚⾄同⼀发 ⾏版的不同版本也需要单独打包。各包管理器之间的软件包互不兼容 ,导致Linux应⽤⽣态碎⽚化严重。
如意玲珑通过提供统⼀的打包格式和⼯具 ,简化了软件打包流程 ,开发者只需关注应⽤本⾝ ,⽆需考虑 底层系统的差异 ,从⽽降低了打包难度 ,提⾼了开发效率。
如意玲珑通过提供统⼀的应⽤商店 ,⽤户可以⽅便地浏览、搜索和安装应⽤ ,提升了⽤户体验 ,促进了应⽤⽣态的发展。

图片

如意玲珑关键组件设计

ll-cli:如意玲珑命令⾏管理⼯具
提供⽤户与如意玲珑包管理器交互的命令⾏⼯具。负责解析⽤户命令、调⽤ D-Bus ⽅法、处理⽤户交互 请求以及与 OCI 运⾏时直接交互(如 run, exec, ps, kill等)。ll-cli⽀持丰富的⼦命令和选项 ,例如 install(安装 包)、uninstall(卸载包)、upgrade(更新包)、search (搜索包)、list(列出包)、run (运⾏应⽤)、exec(在容器内执⾏ 命令)、ps(列出运⾏中容器)、kill(发送信号给容器)、prune(清理⽆⽤运⾏时)、repo(管理仓库配置)、info(显 ⽰包信息)、content(列出包导出⽂件)。为了提升⽤户体验 ,ll-cli提供 bash 和 zsh 的⾃动补全功能 ,通过⾃⾝命令动态获取补全列表。
ll-package-manager:如意玲珑包管理⼯具
如意玲珑包管理器模块主要为ll-cli提供DBus接⼝调⽤ ,它提供ll-cli的任务管理 ,并负责和ostree仓库进⾏交 互 ,最后将结果返回给ll-cli。完整流程图如下:
ll-box:如意玲珑沙箱
如意玲珑沙箱主要负责应⽤的隔离运⾏环境 ,基于OCI规范实现。ll-box负责创建、启动、停⽌和销毁容器 ,并管理容器的⽣命周期。它还负责配置容器的资源限制、 ⽹络设置和⽂件系统挂载等参数 ,以确保 应⽤在隔离的环境中安全运⾏。 完整流程如下:

如意玲珑性能测试与对⽐
⽬前主流的软件包管理体系有两类 ,⼀类是传统的包管理体系(例如debian、redhat的包管理体系),另⼀ 类是已有独⽴包格式(例如Flatpak、snap)。两种软件包管理体系各有优势 ,但前者有兼容性和安全的隐患 ,后者有性能和资源占⽤的问题 ,⾄今没有得到解决。玲珑在实现软件包管理的同时 ,更关注企业场景中的实际需求 ,在解决兼容性和安全问题的同时提⾼性能 ,降低资源占⽤ 。以下是对⽐表:
企业微信截图_17694964549748.png
企业微信截图_1769496475488.png

如意玲珑的发展成果

如意玲珑⾃项⽬启动以来 ,已经取得了显著的发展成果:
⼴泛的应⽤⽀持:如意玲珑已⽀持5200余款常⽤桌⾯和终端应⽤ ,涵盖办公、开发、设计等多个领域 ,满⾜⽤户的多样化需求。
image.png
多架构⽀持:如意玲珑⽀持x86_64、arm64、龙芯LoongArch64等多种CPU架构 ,确保在不同硬件平台 上都能顺利运⾏。
多Linux发⾏版⽀持:如意玲珑兼容主流Linux发⾏版 ,包括Debian、Ubuntu、Fedora等 ,确保⽤户在不 同系统环境下都能享受如意玲珑带来的便利。
image.png
活跃的社区和⽣态系统:如意玲珑拥有⼀个活跃的开发者社区和多个SIG组 ,定期举办线上线下活 动 ,促进开发者之间的交流与合作。 同时 ,越来越多的软件开发者选择将他们的应⽤打包为如意玲珑格式 ,进⼀步丰富了应⽤⽣态。
image.png
image.png

如意玲珑未来展望
如意玲珑将继续致⼒于提供更好的⽤户体验和更⼴泛的应⽤⽀持。计划:

扩展应⽤⽣态:进⼀步增加对更多应⽤的⽀持 ,特别是热⻔的开发⼯具和设计软件 ,以满⾜⽤户的 多样化需求。

更好的兼容性:通过灵活的配置⽅式、更好的 xdg-desktop-portal 协议⽀持 ,以提升如意玲珑与不同 Linux发⾏版和桌⾯环境的兼容性 ,确保⽤户在各种环境下都能顺利使⽤如意玲珑。.  优化性能:持续优化如意玲珑的性能 ,提升应⽤启动速度和运⾏效率 ,为⽤户提供更流畅的体验。

加强社区建设:通过举办更多的开发者活动和培训 ,吸引更多的开发者参与到如意玲珑的⽣态中,共同推动项⽬的发展。

探索新技术:关注前沿技术的发展 ,探索将其应⽤到如意玲珑中的可能性 ,以保持项⽬的创新性和竞争⼒。

如果您想清理安卓手机,或者只是想删除旧的、不需要的联系人,或者删除多个联系人,有三种有效的方法可供选择。无论您是想手动删除安卓手机上的联系人,还是使用专用工具,都可以按照以下步骤操作。

图片

快速浏览一下这三种方法:

图片

方法1:如何通过“联系人”应用手动删除Android上的联系人

删除联系人最直接的方法是直接通过安卓设备内置的“通讯录”应用。此方法非常适合一次性删除部分或全部联系人。但是,如果“通讯录”应用中有垃圾箱或回收站,则删除联系人后需要清空垃圾箱,因为已删除的联系人会被移至垃圾箱并保留 30 天。

手动删除 Android 上的联系人:


在安卓手机上找到并点击“通讯录”应用。它通常位于主屏幕或应用抽屉中。


点击要删除的联系人。点击并按住一个联系人,直到出现复选框或选择选项。然后点击要删除的其他联系人以将其选中。


寻找类似垃圾桶的图标,或者标有“删除”或“移除”的选项。这些选项通常位于屏幕顶部或三点菜单内(通常标记为“更多选项”)。


系统可能会提示您确认删除操作。点击“删除”>“确定”即可完成删除。如果应用将您已删除的联系人移至内置回收站,请前往回收站重新删除联系人。之后,您将无法在 Android 设备上访问已删除的联系人。

图片

方法2:如何通过Google通讯录删除Android上的联系人

大多数 Android 手机都会将联系人同步到您的 Google 帐户。这意味着您可以直接在 Google 通讯录中管理和删除联系人,然后 Google 通讯录会将更改同步回您的 Android 设备。如果您更喜欢通过电脑管理联系人,或者希望确保所有同步设备上的联系人信息一致,此功能尤其实用。

以下是通过 Google 通讯录从 Android 中删除联系人的方法:


在您的计算机或手机上打开网络浏览器并导航至contacts.google.com。


使用与您的 Android 手机关联的同一 Google 帐户登录。


点击要删除的联系人。在联系人详情中,点击三点菜单(更多操作),然后选择“删除”。


要删除多个联系人,您可以将鼠标悬停在联系人的个人资料图片或姓名首字母上,直到出现复选框,然后勾选该复选框;重复此操作,删除所有要删除的联系人。然后点击“更多”>“删除”>“移至垃圾箱”。

图片


已删除的联系人将被移至“已删除邮件”,除非您恢复,否则 30 天后这些联系人将被删除。您也可以清空已删除邮件来移除联系人。

图片

方法3:如何通过iReaShare Android Manager删除Android上的多个联系人

如果您想在电脑上用大屏幕管理安卓联系人,并轻松删除多个或全部联系人,您可以使用iReaShare Android Manager ,这是一款功能全面的安卓数据管理工具。有了它,您可以在桌面上编辑和删除安卓联系人,并快速将联系人备份到电脑。

iReaShare Android Manager的主要功能:

  • 允许您在计算机上预览您的 Android 联系人。
  • 轻松从 Android 删除特定联系人。
  • 使您能够一次选择多个或所有联系人,然后删除它们。

*将您的联系人从 Android 导出到 PC或 Mac 进行备份。

  • 一键备份您的 Android 数据,并将备份恢复到 Android,不会丢失数据。
  • 支持Android 6.0或更高版本,包括Android 16。

以下是使用联系人管理器删除 Android 上的多个联系人的方法:

以下是使用联系人管理器删除 Android 上的多个联系人的方法:


下载并安装后,在您的计算机上启动 Android Manager 软件。


使用 USB 将 Android 手机连接到电脑,并在 Android 设备上激活 USB 调试模式。连接后,点击“通讯录”继续。

图片


选择您不再需要的联系人,然后点击“删除”菜单将其从您的 Android 设备中删除。


提示:如果您要出售或赠送手机,或者担心数据隐私,仅仅从“通讯录”应用中删除联系人是不够的。这些联系人通常可以使用数据恢复软件恢复。对于真正无法恢复的删除,建议使用像iReaShare Android Data Eraser这样的专业数据擦除工具。

提示:关于在 Android 上删除联系人的常见问题解答

问题 1:如果我清空 Android 手机上的“通讯录”应用中的垃圾箱,我是否就完全删除了这些联系人?

不一定。虽然清空 Android 手机的垃圾箱后恢复的几率会大大降低,但有人可能会使用专门的恢复应用来恢复您已删除但未被新数据覆盖的联系人。如果您想彻底删除联系人,则需要覆盖已删除的联系人。此外,如果您在手机上启用 Google 联系人同步功能,则可以轻松地通过您的帐户恢复联系人。

Q2:为什么已删除的联系人不断出现?

如果出现以下情况,则可能会发生这种情况:

Google 或其他帐户已同步。
联系人存储在只读帐户中(如 WhatsApp 或 Facebook)。
您没有从正确的帐户中删除联系人。

要修复此问题,请关闭联系人同步:设置>帐户> [帐户名称]>同步>关闭联系人。

结论

在 Android 上删除联系人非常简单,无论您是喜欢手动操作,还是通过数据管理工具iReaShare Android Manager或 Google 帐户操作,都能轻松完成。每种方法都能满足不同的需求——从快速删除到在大屏幕上管理联系人。选择最适合您需求的方法,让您的联系人列表保持整洁有序。

在智能体逐步进入工业现场的过程中,行业里出现了一个与早期预期不同的现象:技术越先进,对经验的依赖反而越强。 当智能体来了,真正稀缺的,不是单纯懂算法的人,而是那些既理解复杂生产系统、又能驾驭智能体的“数字老师傅”。

一、智能体时代,“老师傅”被重新定义

传统行业中的老师傅,长期依靠的是无法写进操作手册的经验:对异常工况的直觉判断、对设备极限状态的理解、以及在极端情况下“不能出错”的处理逻辑。这些能力过去被认为难以规模化。

而在智能体架构下,这类经验开始具备新的承载方式。 “会用 AI 的老师傅”,并不是程序员意义上的技术人员,而是能够将行业判断转化为目标设定、约束条件和评价标准的人。他们把经验输入给智能体,而不是被智能体替代。

二、角色变化:从执行者到智能体的“教练”

在生产现场,老师傅的核心角色正在发生变化。

首先,是从“手感判断”到“逻辑抽象”。 过去的经验依赖个人感知,现在需要被拆解为可解释的条件、变量和决策顺序,供智能体理解和复用。

其次,是对智能体输出的审查能力。 智能体在计算层面可能给出最优解,但在真实工业系统中,最优并不等于可行。对物理边界、材料特性和安全红线的判断,仍然依赖长期积累的行业经验。

最后,是对结果的持续对齐。 通过反复校正智能体的判断结果,老师傅实际上在构建企业专属的行业模型,使智能体从通用工具演化为岗位级专家。

三、为什么单纯的 AI 专业人才不够用

在很多落地项目中,一个常见问题是:技术人员能优化模型,但难以定义真正重要的生产变量;而一线人员知道问题在哪里,却无法让系统“听懂”。

相比之下,具备行业经验的老师傅,更擅长从生产目标出发,判断哪些指标值得被优化、哪些异常必须被严格约束。这种能力并非来自算法训练,而来自真实事故、长期试错和对系统整体性的理解。

因此,在复杂行业中,智能体的效果上限,往往取决于经验是否被正确地输入和约束。

四、实践启示:经验正在被“软件化”

越来越多的企业开始意识到,智能体真正放大的不是算力,而是经验。

这促使三种变化出现: 一是将隐性经验转化为可复用的知识资产; 二是通过自然语言等方式,让经验型人员可以直接参与智能体训练; 三是形成“人评估系统,系统辅助人”的闭环,让经验在使用中不断被固化。

五、结论:经验不是被淘汰,而是被放大

在智能体深入产业的过程中,经验并没有失去价值,而是成为系统安全性和有效性的最后一道防线。

真正拉开企业差距的,不是是否使用智能体,而是谁能更快、更完整地把老师傅的判断逻辑转化为智能体可执行的规则。这意味着,未来最重要的人才,将是那些既理解工业现场,又能与智能体协作的人。