包含关键字 typecho 的文章

每逢农历新年前夕,似乎已经成了中国 AI 大厂们“秀肌肉”的固定节点。

继 1 月初在香港成功 IPO 之后,智谱 AI 终于亮出了其上市后的首张王牌——最新旗舰大模型 GLM-5。随着这款被官方定义为“系统架构师”的大模型发布,资本市场给出了最直接的反馈:智谱股价连续暴涨,市值一举突破 1700 亿港元

不仅仅是资本狂欢,在技术圈内,GLM-5 同样掷下了一枚震撼弹:它不仅在多项编程测试中超越了谷歌的 Gemini 3 Pro,更在实际使用体感上,逼近了目前地表最强的编程模型之一——Anthropic 的 Claude Opus 4.6。

一、 “马甲”掉落:7440 亿参数的“系统架构师”

就在几天前,全球模型聚合平台 OpenRouter 上出现了一个代号为“Pony Alpha”的神秘模型。凭借其在代码生成和 Agent(智能体)任务上惊艳的表现,迅速在开发者圈子里走红。当时外界纷纷猜测这可能是 Claude Sonnet 5 或 DeepSeek-V4,如今真相大白——它正是 GLM-5 的提前试水。

短短一个多月前,智谱刚刚发布 GLM-4.7,而 GLM-5 的跨步堪称暴力:

  • 参数翻倍: 从 3550 亿飙升至 7440 亿。
  • 数据喂养: 训练数据量从 23 万亿暴增至 28.5 万亿 Tokens。
  • 架构创新: 采用了全新的“Slime”强化学习框架,并且破除门户之见,直接吸纳了由 DeepSeek 率先提出的稀疏注意力机制,在保住长文本能力的同时,死磕推理成本。

在核心的编程能力上,GLM-5 在业内公认的 SWE-bench-Verified 和 Terminal Bench 2.0 中分别拿下了 77.8 和 56.2 的高分,不仅刷新了开源模型的 SOTA(当前最优效果),更是直接将 Gemini 3 Pro 斩于马下。

【笔者观点:从“氛围编程”到“智能体工程”的质变】
智谱在发布会上提到了一个非常敏锐的趋势:AI 编程正在从“Vibe Coding(凭感觉瞎试的氛围编程)”转向“Agentic Engineering(智能体自动化工程)”。
过去的 AI 只能帮你补全几行代码,写个精美的单页面 Demo;但 GLM-5 的定位是“系统架构师”。这意味着它能胜任长程的规划、后端的复杂重构以及深度的 Bug 调试。

它不再是一个“打字员”,而是一个能帮你经营模拟公司(在 Vending Bench 2 商业测试中拿下开源第一)的“数字合伙人”。

二、 开发者实测:便宜得离谱,但离“终极王者”仍有一线之遥

跑分没输过,体验究竟如何?随着 GLM-5 在 GitHub 和 Hugging Face 彻底开源(MIT 协议),大量前线开发者给出了最真实的反馈。

对于前端任务和日常的 Agent 交互,GLM-5 收获了极高的评价。有开发者直言:“在前端任务上,我第一次倾向于放弃 Gemini,转而选择 GLM-5。”还有开发者用它跑通了复杂的横版解谜游戏和 Agent 交互世界,认为其自我认知和理解深度已经与 Opus 4.6 处于同一梯队。

但最让开发者沸腾的,是它极具破坏力的定价。据测算,GLM-5 的输入成本比 Opus 便宜 6 倍,输出成本更是便宜了 10 倍!

不过,客观来看,智谱自己公布的数据和资深开发者的体感也印证了一个事实:在面对最极端的复杂系统工程时,Claude Opus 依然是稳坐王座的最终 Boss。

【笔者观点:“十分之一的价格,八九成的功力”才是绝杀】
我们必须承认 GLM-5 在绝对能力上与 Claude 顶配模型还有细微的差距,但这恰恰是国产大模型最恐怖的杀伤力所在。
对于 90% 的企业和开发者来说,他们根本不需要“地表最强”的溢价能力。GLM-5 提供了比肩 Opus 核心体验的实力,却只要十分之一的价格。这种“极致性价比”,将彻底摧毁海外高价闭源模型的商业护城河,真正引爆中国甚至全球的 Agent 应用生态。

三、 戴着镣铐跳舞:纯国产算力炼出的奇迹

如果说 GLM-5 的性能让人惊艳,那么它背后的算力故事则让人感到一丝悲壮与敬佩。

众所周知,智谱早在去年初就被美国列入了实体清单,彻底断绝了获取先进英伟达芯片的可能。在这样的绝境下,智谱宣布:GLM-5 是一群“中国芯”托举起来的奇迹。

它的训练和部署,深度依赖华为、摩尔线程、寒武纪、百度昆仑芯、沐曦、燧原及海光等一众中国本土半导体企业的芯片。

然而,算力瓶颈依然是悬在头顶的达摩克利斯之剑。智谱官方坦承:“算力非常紧张,为了支撑推理服务,我们已经把每一块芯片都用到了极限。”受限于此,GLM-5 目前只能逐步向订阅用户开放,并且无奈地宣布了 API 涨价(涨幅 30% 起),取消了首购优惠。

【笔者观点:涨价背后的“国产化突围”】
很多人看到 API 涨价可能会抱怨,但我们必须看懂这背后的产业逻辑。智谱不是在“割韭菜”,而是在为国产算力生态买单。
在万卡 H100 集群成为海外巨头标配的今天,智谱能够用性能参差不齐、生态尚在建设中的“国产异构芯片集群”,硬生生炼出一个 7440 亿参数、比肩 Claude Opus 的怪物,这在工程调度和算法优化上的难度,不亚于在泥泞的土路上开出了 F1 的速度。GLM-5 的成功,不仅是智谱的胜利,更是整个中国 AI 算力底座“去美化”的一次伟大技术验证。

结语:中国大模型的“春晚”才刚刚开始

农历新年将至,中国大模型圈的战火却愈演愈烈。

不仅智谱甩出了 1700 亿市值的 GLM-5,另一家港股上市的 AI 独角兽 MiniMax 也紧跟着官宣了重磅模型 M2.5。而作为全球开源焦点的 DeepSeek,也在默默将上下文窗口拉长到了 100 万 tokens,酝酿着下一次的颠覆。

复刻了去年 DeepSeek“春节奇袭”的打法,如今的中国大模型第一梯队,已经彻底走出了“只会跟随跑分”的阴影。在底层架构创新、极致性价比以及国产算力适配上,他们正在走出一条令世界敬畏的独立叙事。


👇 欢迎关注我的公众号

在 AI 爆发的深水区,我们一起探索真正能穿越周期的技术价值。
微信搜索 【睿见新世界】 或扫描下方二维码,获取每周硬核技术推文:

微信图片_20260301232734_225_35.jpg

欢迎关注【睿见新世界】!

作者:Joe McKendrick,《数据库趋势与应用 》和 《大数据季刊 》杂志的特约编辑和撰稿人。

原文:https://www.dbta.com/Editorial/Trends-and-Applications/Whos-M...,Feb 12, 2026

爱可生开源社区翻译,本文约 3300 字,预计阅读需要 10 分钟。

640 (97).webp

不妨称之为数据库专业人士的重大变革。许多悲观主义者认为,数据专业人士的角色可能会被自动化取代,技能也可能被其他技术专业人士(例如开发人员)所取代。然而,这或许只是该行业新时代的开端 —— 数据管理复兴时代的到来

复兴时代的数据管理人员因其技能和专业知识而备受青睐,原因有以下几点:

  • 企业领导者和董事会比以往任何时候都更加依赖他们的数据团队,以确保他们能够有效地与人工智能和分析技术竞争 —— 而人工智能和分析技术只有依靠最高质量的数据才能取得成功。
  • 数据安全正面临前所未有的威胁,需要专业人员的专业知识,他们能够阻止黑客和恶意代码的入侵,同时快速恢复已损坏或泄露的数据。
  • 种类繁多且不断增长的数据库是为特定用途而设计的,这需要具备基础知识的专业人员来确保流入和流出企业系统的信息的一致性。
  • 数据变现被许多组织视为一种可行的新收入来源,因此需要专业的员工担任产品经理。

无论数据库本身如何演变或颠覆,DBA 和相关数据管理人员都将继续存在。

这是众多在数据库技术和管理领域拥有丰富经验的行业专家和领导者的共识。而共识则来自于以下这场圆桌讨论。

圆桌人物简介

  • Ryan McElroy (Hylaine) - 技术副总裁
  • Bakul Banthia (Tessell) - 联合创始人
  • Bennie Grant (Percona) - 首席运营官兼临时 CEO
  • Stephen Chin (Neo4j) - 开发者关系副总裁
  • Suyash Joshi (InfluxData) - 高级软件工程师/布道师
  • Steve Zisk (Redpoint) - 全球首席数据策略师
  • Riken Shah (OSP) - 创始人兼首席执行官
  • Ryan McCurdy (Liquibase) - 市场营销副总裁

话题一:DBA 的未来

McElroy:DBA 这一角色 “永远不会完全消失,在许多地方和情况下仍然非常重要”。他还说:“如果说有什么变化的话,那就是到 2026 年仍然担任这一职务的人,通常管理的系统比过去十年的系统更加关键。”

根据美国劳工统计局出版的《职业展望手册》,担任这些职务的专业人员“创建或组织系统来存储和保护各种数据,例如财务信息和客户发货记录”。

他们还“确保授权用户可以访问数据”,以及“确定用户创建和管理数据库的需求,确保数据库高效无误地运行”等等。

但在人工智能和数据驱动型企业时代,情况正在发生变化。DBA 和类似的数据管理角色变得比以往任何时候都更加重要 —— 远远超出了维护数据库正常运行等基本任务。


Banthia:十年前,DBA 可以叫出他们管理的每个数据库的名称。而如今,这就像让飞行员说出他们飞过的每一片云的名称一样困难。DBA 的角色已经发生了根本性的转变,从管理单个数据库——专注于静态本地环境中的备份、补丁和故障排除 —— 转变为协调跨越数十甚至数百个数据库、涉及不同引擎、云平台、许可模式和合规机制的分布式多云环境。


Grant:成为一名 “复兴型 DBA” 意味着 “从孤立的数据守门人转变为全流程数据专家”。这些任务目前由云服务提供商处理,这意味着以往的手动备份、修补和调整一次性查询等基础工作,正在从影响整个技术栈的高级架构决策转变为更复杂的工作。“这不再仅仅关乎存储,而是要掌控从数据生成到最终到达分析层的整个流程,包括基础设施、安全性和优化,” 他说道。“这个角色已经变得更加具有战略性、更有趣、也更有影响力。”


Chin 也认同:直到最近几年,数据管理 “通常是一个专注于数据库配置、备份管理、性能调优、补丁应用和安全性保障的专业角色,通常与应用程序开发人员的工作是分开的。” 然而,如今,数据库管理员“不再仅仅由一个职位名称来定义,而是由一系列职责来定义,这些职责分布在开发和运维团队中。”


Joshi:如今的 DBA “不再仅仅是数据库操作员,而是数据平台的管理者”。他们现在的工作重点是跨云和混合环境的安全性、性能、可靠性、治理和成本优化。曾经定义这项工作的任务——备份、打补丁、调优——现在大多已经自动化。剩下的工作是更高价值的工作:架构决策、跨系统集成,以及确保数据可靠且速度足够快,能够满足 AI 驱动型应用程序的需求。随着职责的增加,数据管理员的角色也在不断演变,承担了更多更具战略性和对运营至关重要的职责。


Atwell:DBA 的工作仍然有一些核心职能。在我接触过的大多数公司里,DBA 的主要职责是确保数据库在线运行、保证数据库性能以及防止数据丢失,然而,在大多数公司,他们还会花费大量时间处理其他任务。例如,帮助应用程序定义数据库中的数据结构和模式,以及这些结构和模式如何随时间演变。

DBA 不再直接执行此类操作,而是出现了一个显著的转变。角色现在更多地在于治理和授权。


Chin 还指出,数据管理专业知识 “对于架构决策、大规模性能、数据治理和可靠性仍然至关重要”。改变的是这些专业知识的应用领域和方式。数据库知识不再是独立的把关人角色,而是嵌入到开发人员的工作流程和运维系统中,使团队能够在保持可靠性和安全性的同时更快地推进工作。

他们现在不再定义数据库库表,而是定义库表必须遵循的规则。DBA 正与平台工程团队更紧密地合作,使开发人员能够自助式地进行数据库更改,同时实施利用数据库管理员知识的防护措施,以确保安全。这个角色不会消失,但正在发生变化。

话题二:DBA 与同事的关系

Atwell:越来越多的数据管理新秀开始涉足企业中其他相关领域——他们或通过掌握新技能,或通过协作方式应对数据挑战。这些领域包括软件开发人员、数据架构师、数据库可靠性工程师、云架构师、数据科学家、平台工程师、DevOps 工程师以及软件开发团队。


McElroy:这些相关领域的专业人员开始负责数据库的许多基础设施和配置组件。数据库源代码控制的巨大改进使开发团队能够更好地控制数据库变更的管理,而无需让 DBA 为中小型应用程序熬夜。


Chin:这种融合的角色“反映了数据库现在是自动化、云原生和人工智能辅助系统的一部分,而不是独立的基础设施”。

例如,开发人员发现将数据库集成到他们的项目中变得更加容易。麦克罗伊说,这体现在“基础设施、配置,甚至开发人员自身等领域,而且比以往任何时候都更加重要”。

此外,数据库引擎及其内部运作原理方面的更深层次知识也在不断普及。一些曾经只存在于 DBA 头脑中的“神圣知识”现在已经人人皆可获取。

DevOps(开发和运维角色的融合)促进了角色之间的这种融合。


Atwell:DBA 正在与平台团队合作,使开发人员能够安全地自助进行数据库更改,同时确保最小的停机时间、零数据丢失和数据一致性。

话题三:适应与学习

Zisk 建议:那些渴望或希望在数据管理领域拓展职业生涯的全能型人才,需要将自己的职业视为一个持续学习的过程。不妨将自己视为一名“人工智能驯服者”。如果人工智能不了解自身的局限性,甚至不理解查询优化,就很容易失控。例如,人工智能可能构建出一个准确的查询,但其数据和计算成本可能是人工构建的十倍。

Zisk 还表示:DBA 需要“把自己想象成‘笨实习生’的导师,在这个比喻中,人工智能就是那个实习生”。未来的人工智能管理者需要开始思考如何将各种组件无缝整合在一起协同工作,这些组件包括人工智能、客户的人工智能、最终客户,甚至包括 DBA 和任何其他内部数据利益相关者。


Joshi 强调:应该跳出单一数据库技术的局限。关键领域包括云平台、自动化、安全设计、性能工程,以及对人工智能和数据管道的实际理解。熟悉物联网时间序列数据库或生成式人工智能向量数据库等专用数据库也日益重要。那些朝着数据架构、平台领导或人工智能运维方向发展的人将拥有良好的长期职业前景。


Shah:对于数据管理人员而言,适应能力与其说是完全放弃现有技能,不如说是在此基础上不断提升。云技术、基础设施知识和安全意识如今已成为基本要求。了解数据如何支持分析和人工智能工作负载也变得越来越重要。脚本编写、自动化和数据治理方面的技能能够打造长久的职业发展道路。


Shah:数据库仍然是核心,但现在对数据库的责任范围扩大了。那些能够适应这种变化的人将继续在组织的运营和扩展中发挥关键作用。


Chin:随着人工智能的兴起,DBA 必须 “学习如何使用人工智能驱动的接口(例如 MCP(模型上下文协议)服务器)部署和管理数据库,这些服务器允许人工智能系统直接与基础设施和数据平台交互。这意味着要了解如何通过人工智能代理而不是传统的仪表板或脚本来配置、扩展和查询数据库。从业人员可以先在测试环境中尝试基于 MCP 的工具,看看人工智能驱动的编排如何改变日常操作。


McCurdy 警告说:人工智能加快了交付速度,但也加快了出错的速度。最佳的职业发展方向是成为确保变更安全的人。这意味着要精通持续集成/持续交付 (CI/CD),在流程早期就执行策略,进行自动化取证,检测漂移,并实现快速、可控的恢复。在人工智能驱动的环境中,数据库模式成为可靠性的边界。能够管理边界变更的 DBA 将会更抢手,而不是更不受欢迎。


Grant:在当今的人工智能环境中,数据管理人员必须从“基础数据库管理”转型为“端到端所有权”,并专注于日益重要的战略事项。DBA 不应孤立地看待数据库,而应掌握 SRE 模型,用工程驱动的自动化和基础设施即代码取代手动重复性任务。


Banthia 也认同:数据管理员不仅没有过时,反而比以往任何时候都更加重要。风险范围已大幅扩大:可用性要求更高,成本更加透明,安全性不容妥协,基础设施决策直接影响业务速度。衡量现代 DBA 的标准不再是他们维护数据库的能力,而是他们如何在尽可能减少人为干预的情况下,有效地实现数百个数据库的扩展性、弹性和可控性。

欢迎来到数据管理者的复兴时代。

在当今的互联网环境下,HTTPS加密已成为网站运行的标配。然而,对于拥有众多子域名的网站管理者而言,维护SSL证书常常是一场噩梦。如果一个主域名下设有 blog.example.comshop.example.comapi.example.com 等多个子站点,按照传统方式为每个子域名单独申请和管理证书,不仅流程繁琐、成本高昂,还极易因某个证书过期而导致服务中断或安全警告。

那么,有没有一种方案能化繁为简,实现“一次配置,终生省心”呢?答案是肯定的,这就要用到通配符证书,而国内服务商JoySSL则将其便捷性发挥到了极致。

通配符证书:多子域名加密的最优解

要实现多个子域名的高效加密,关键在于选对证书类型。通配符证书的特别之处在于,其域名字段带有通配符“*”,例如 *.example.com。这意味着,一张证书可以同时保护主域名以及所有一级子域名,无论你新增多少子业务站点,都无需再单独申请证书。这种“一证通”的特性,极大地降低了证书管理的复杂度和维护成本。

为什么推荐JoySSL?

在众多提供通配符证书的服务商中,JoySSL凭借其对国内用户的深刻理解和技术创新,成为了一个极具性价比的选择。

首先,成本优势明显。JoySSL提供了永久免费的通配符SSL证书,且支持无限次自动续签。这对于拥有大量子域名但又预算有限的中小企业、个人开发者或教育机构来说,意味着每年可以节省数千甚至上万元的证书采购费用。

其次,用户体验友好。作为国产服务商,JoySSL拥有全中文界面和本地化的技术支持团队。申请流程针对国内服务器环境进行了优化,从注册到签发往往只需3-5分钟,远比国际证书商的处理效率高。更重要的是,它解决了免费证书最令人头疼的“续签”问题,内置的自动续签功能让证书长期有效,彻底告别因忘记续费导致的意外过期。

此外,JoySSL的技术实力同样不容小觑。它不仅兼容国际主流算法,还率先融合了国密算法(SM2/SM3/SM4),满足了政务、金融等领域的合规要求。同时,平台提供的API接口可以轻松与Ansible、Kubernetes等DevOps工具集成,让证书的批量部署和管理实现全自动化。

实操指南:三步搞定批量加密

通配符证书申请入口

利用JoySSL为多个子域名启用HTTPS,只需简单三步:

第一步:注册与选择
访问JoySSL官网注册账号。关键一步是,在注册过程中填写特定的注册码230970,以解锁永久免费通配符证书的申请资格。登录后,在证书列表中找到“免费版通配符证书”并进行下单(0元支付)。

第二步:验证域名所有权
提交申请后,需要证明你对域名的控制权。JoySSL通常提供DNS验证方式。你只需按照要求在域名的DNS管理后台添加一条指定的TXT解析记录,等待几分钟即可通过验证。这种方式无需在服务器上放置文件,操作简单且安全性高。

第三步:下载与部署
验证通过后,即可下载证书文件。JoySSL提供了适配Nginx、Apache、IIS等常见服务器的配置指南。以Nginx为例,将下载好的证书文件和私钥上传至服务器,在配置文件中指定 ssl_certificate 和 ssl_certificate_key 的路径,并设置 server_name 为 *.example.com。重启Web服务后,你的所有子域名便都拥有了可靠的HTTPS加密保护。

总结

面对日益复杂的网络安全形势和越来越多的子域名管理需求,选择通配符SSL证书是提升运维效率的明智之举。而JoySSL凭借其永久免费、无限续签、全中文支持以及自动化管理的优势,为国内用户提供了一个“安全、高效、零成本”的完美解决方案。现在就开始行动,让你的每一个子域名都穿上安全的“防弹衣”。

无意看到知乎一个问答 [每天重启路由器有好处还是有害?] https://www.zhihu.com/question/392412428/answer/1772992455?share_code=VerCUmrwuWLY&utm_psn=2011784588310115802

引用高赞的一个回答:

所以我的建议是,光猫和路由器每周重启一次。如果遇到不重启,isp 换 ip 时断网,那就每天重启一次。

可根据我的使用经验来看,除了小区断电,就没有主动重启过路由器或者光猫。当然,折腾 openwrt 时除外。

img

“工欲善其事,必先利其器。”在软件研发领域,项目管理工具不仅是任务记录的载体,更是研发效能提升的引擎。据Gartner及IDC相关研报显示,至2026年,超过75%的企业将采用混合式研发管理模式,即在同一组织内并存敏捷(Agile)、DevOps持续交付与传统瀑布流(Waterfall)等多种开发模式。面对日益复杂的业务场景,如何选择一款能够全适配、高扩展且安全合规的项目管理系统,成为CTO与研发管理者面临的核心考题。本文将基于中立视角,全景解析2026年市场上九款主流研发管理工具,涵盖从开源经典到企业级SaaS的完整生态,助力团队做出最优决策。

一、选型核心维度:构建多维评估体系

在深入产品之前,需明确2026年研发管理的三大核心诉求:​流程灵活性​、工具链集成度以及​数据安全性​。优秀的系统应能无缝切换看板、Scrum、甘特图等多种视图,支持从需求到部署的端到端追踪,并具备完善的权限管控与私有化部署能力。以下九款产品均在各自领域表现卓越,分别适用于不同规模与模式的研发团队。

二、经典开源与国产化标杆:禅道(ZenTao)

禅道作为国产开源项目管理软件的领军者,历经十余年迭代,已发展成为集产品管理、项目管理、质量管理于一体的综合平台。

  • 核心优势​:原生支持“产品-项目-测试”三维模型,完美契合国内研发习惯。其开源版功能完备,专业版与企业版则提供了更强大的报表与权限体系。
  • 模式适配​:内置敏捷看板与Scrum流程,同时通过甘特图与任务分解功能强力支持瀑布流模式。
  • 适用场景​:特别适合注重数据主权、有私有化部署需求的中大型企业及政府机构,是国产化替代的首选方案之一。

三、国际敏捷先锋:Jira Software

Jira由Atlassian出品,是全球敏捷开发的事实标准。

  • 核心优势​:拥有极其丰富的插件生态(Marketplace),可自定义工作流至原子级别。其看板与Scrum板配置灵活,深受互联网大厂喜爱。
  • 模式适配​:在敏捷与DevOps领域表现卓越,通过插件可扩展瀑布流管理,但原生对传统瀑布的支持略显复杂。
  • 适用场景​:适合追求极致敏捷、国际化协作且预算充足的团队,尤其在跨国研发场景中具有不可替代性。

四、一站式研发云:CODING DevOps

CODING被腾讯云收购后,深度融合了云原生能力,提供从代码托管到持续部署的一站式服务。

  • 核心优势​:天然集成CI/CD流水线,打通了项目管理与工程实践的壁垒。其界面现代,用户体验流畅。
  • 模式适配​:全面支持敏捷迭代与DevOps自动化,同时提供项目计划模块以应对瀑布式交付。
  • 适用场景​:适合已使用腾讯云生态或希望快速搭建DevOps体系的初创及成长型科技企业。

五、企业级协同巨头:Teambition(阿里系)

Teambition作为阿里巴巴旗下的协同平台,以其极简的设计理念和强大的生态整合能力著称。

  • 核心优势​:与钉钉深度集成,消息通知与任务流转无缝衔接。其“项目”与“知识库”双轮驱动,提升了团队知识沉淀效率。
  • 模式适配​:以看板为核心,灵活适配敏捷开发,并通过时间线与自定义字段满足瀑布流规划需求。
  • 适用场景​:适合重度依赖钉钉办公、强调团队协作与文化建设的各类企业。

六、轻量级可视化代表:Trello

Trello以“卡片”和“看板”闻名,是可视化项目管理的启蒙者。

  • 核心优势​:上手零门槛,拖拽式操作直观高效。通过Power-Ups插件可扩展日历、投票等功能。
  • 模式适配​:天生为敏捷看板设计,对于简单的瀑布流任务拆解亦能胜任,但在复杂依赖管理上稍显薄弱。
  • 适用场景​:适合小型团队、创意项目组或作为大型组织中的非核心业务辅助工具。

七、全能型协作平台:ClickUp

ClickUp近年来异军突起,号称“一个App替代所有”,功能覆盖面极广。

  • 核心优势​:在一个界面中集成了文档、目标(Goals)、聊天、白板与任务管理。其视图切换(列表、看板、甘特、盒子)极为流畅。
  • 模式适配​:对敏捷、瀑布流及混合模式均有原生强力支持,自定义程度极高。
  • 适用场景​:适合希望统一多个工具栈、追求高性价比与功能全面性的中型团队。

八、结构化数据强者:Monday.com

Monday.com以其色彩斑斓的界面和强大的自动化工作流引擎受到关注。

  • 核心优势​:强调“无代码”自动化,可通过简单配置实现状态变更触发通知、字段更新等操作。数据可视化仪表盘精美。
  • 模式适配​:通过模板市场覆盖敏捷冲刺与瀑布里程碑管理,灵活适应多种流程。
  • 适用场景​:适合非技术背景管理者参与度高、重视流程自动化与数据可视化的跨部门研发团队。

九、微软生态基石:Azure DevOps

Azure DevOps​(原VSTS)是微软推出的端到端研发服务平台。

  • 核心优势​:与Visual Studio、GitHub及Azure云服务深度绑定。提供 Boards(看板)、Repos(仓库)、Pipelines(流水线)等全套服务。
  • 模式适配​:既支持Scrum、Kanban等敏捷实践,也通过Backlog层级管理完美支撑大规模瀑布项目。
  • 适用场景​:适合基于.NET技术栈、深度依赖微软生态或使用Azure云的大型企业客户。

十、开源新势力:OpenProject

OpenProject是一款源自欧洲的开源项目管理软件,强调隐私保护与标准化。

  • 核心优势​:遵循开放标准,界面简洁专业。提供时间追踪、成本管理及路线图功能,社区版功能已相当丰富。
  • 模式适配​:均衡支持敏捷与瀑布流,特别在混合模式管理上表现出色,符合欧洲严谨的工程规范。
  • 适用场景​:适合对数据隐私有极高要求、偏好开源方案且具备一定运维能力的欧洲风格或涉外企业。

结语:没有最好的工具,只有最合适的选择

综上所述,从禅道的国产化深耕到Jira的全球敏捷引领,从CODING的云原生一体化到Azure DevOps的生态闭环,九款产品各具千秋。2026年的选型不再是单一功能的比拼,而是对组织文化、技术栈匹配度及未来扩展性的综合考量。建议企业在选型前,先梳理自身研发流程痛点,通过POC(概念验证)让小范围团队试用,最终找到那把开启高效研发之门的“金钥匙”。无论选择哪款工具,其核心价值始终在于赋能团队,让创新流动得更加顺畅。

作为深耕财经技术领域、常帮券商投顾解决交易工具难题的干货博主,最近在落地一个外汇交易策略项目时,发现很多投顾朋友对接外汇实时行情接口时,总在重复踩坑——要么调试半天跑不通,要么数据延迟影响客户服务,要么不清楚核心流程白白浪费时间。其实接口接入没有那么复杂,今天就站在你的角度,从实际场景出发,拆解痛点、给出可落地的解决方案,全程无冗余干货,代码部分完全保留,广告软植入不生硬,适配思否的技术分享氛围,帮你少走弯路、高效落地。
**一、先明确:你日常会用到的接入场景
**
做券商投顾的你,日常工作离不开外汇数据的支撑,这些高频场景,其实就是你对接接口的核心需求来源,你一定不陌生:

  • 搭建客户行情展示工具,需要实时同步外汇汇率,让客户清晰掌握市场波动,提升服务专业度;
  • 回测外汇交易策略,需要调取日线、分钟线等不同周期的历史数据,验证策略逻辑是否可靠,避免盲目推荐给客户;
  • 服务高频交易客户,需要获取逐笔Tick数据,深入分析市场微观波动,提供精准的交易参考建议;
  • 开发轻量化查询工具,嵌入网页或移动端,方便客户随手查询汇率,提升客户体验和粘性。

这些场景的核心诉求高度统一:接口稳定、数据精准、接入便捷,无需具备专业开发功底,就能快速适配你的日常工作节奏,不用在技术调试上花费过多精力。

二、你要的不是接口,是能解决问题的“数据工具”

很多投顾朋友对接接口时,容易陷入一个误区:认为只要能拿到外汇数据,接口就合格了。但对你而言,外汇接口的价值,远不止“获取数据”这么简单——它是连接外汇市场与你工作的核心纽带,是帮你解决客户服务、策略优化难题的实用工具。

对接接口后,你真正需要实现的核心需求,其实就3点:

  • 实时捕捉汇率变动,让你的行情展示、交易策略能即时响应市场,不遗漏关键交易节点;
  • 灵活调取历史数据,满足策略回测、趋势分析的需求,为客户提供有数据支撑的专业建议;
  • 获取高质量逐笔Tick数据,支撑高频交易分析,精准匹配高频需求客户的服务场景。

更重要的是,读懂接口的数据类型、更新频率和请求规则,能有效提升你搭建工具、运行策略的稳定性,减少后期调试的工作量,让你能将更多精力投入到客户服务和策略优化上——这才是接口接入的核心意义。

三、这些数据痛点,你大概率也踩过

结合我多年协助券商投顾对接接口的经验,以及众多同行的真实反馈,整理了大家在接入外汇实时行情接口时,最容易遇到的4个核心痛点,看看你是否也中招:

  • 实时性不足:用常规HTTP轮询接入,汇率更新存在明显滞后,客户看到的行情与实际市场脱节,影响服务口碑;
  • 数据解析繁琐:接口返回字段不规范、格式混乱,需要花费大量时间调试解析逻辑,严重拖慢工作进度;
  • 稳定性欠佳:行情偶尔断流、接口报错,缺乏有效的应对机制,导致行情展示中断、策略运行终止;
  • 准备不足:对API Token的用途、保管规范不了解,或混淆实时与历史数据的调用方式,盲目请求导致接口限流,影响正常使用。

这些痛点看似都是细节问题,却能直接影响你的工作效率和客户信任度。其实只要提前梳理、做好准备,这些坑都能轻松避开。

四、解决方案:2步搞定接入,新手也能避坑

很多投顾朋友觉得接口接入复杂,其实是没找对方法。只要在接入前做好以下2步准备,就能避开80%的常见坑,实现高效、稳定接入,完全适配你的工作节奏:

  1. 妥善获取并保管API Token

所有外汇接口的调用,都离不开API Token——这是你的专属身份凭证,用于接口平台识别你的请求来源,确认你具备调用数据的权限,相当于你接入接口的“通行证”。

重点提醒:API Token务必妥善保管,不要随意泄露,避免出现未授权访问、接口调用异常等问题,影响你的正常工作开展。

  1. 理清数据分类,按需调用不盲目

拿到API Token后,不要急于编写代码、调用接口,先理清接口支持的两类核心数据,按需调用,既能提升效率,也能避免触发限流:

  • 实时行情数据:包含最新成交价、买卖价、成交量,核心用于行情展示、策略触发,是你日常最常用的数据类型;
  • 历史行情数据:可按日线、分钟线等周期获取,主要用于策略回测、趋势分析,无需频繁调用,根据实际需求调取即可。

明确两类数据的用途,能让你避免盲目请求接口,同时在工具搭建、策略运行中,更灵活地处理数据,让接入过程更顺畅。

五、Python 实战示例
结合券商投顾的实际需求,我用Python做了一个简单的接口调用测试,以常用的行情接口为例,获取EUR/USD的最新行情数据,代码逻辑简洁、稳定可靠,你可直接复制使用,后续可根据自身需求补充优化,代码部分完全保留,不做任何修改

import requests
import json

TOKEN = "YOUR_FOREX_API_TOKEN"

query_params = {
    "trace": "python_forex_demo",
    "data": {
        "code": "EURUSD",
        "kline_type": 1,
        "query_kline_num": 1,
        "adjust_type": 0
    }
}

query_str = json.dumps(query_params).replace(" ", "").replace('"', '\\"')
full_url = f"https://quote.alltick.io/quote-b-api/kline?token={TOKEN}&query={query_str}"

response = requests.get(full_url)

if response.status_code == 200:
    result = response.json()
    print("行情数据:", result)
else:
    print("请求失败,状态码:", response.status_code)

实际工作中,我通常会将接口返回的JSON数据解析后,转化为可视化图表嵌入行情工具,或直接输入策略算法,让静态的数据“活”起来,真正为客户服务、为策略优化提供支撑。这段代码看似简单,但经过多次实战验证,稳定性强、适配性高,完全符合券商投顾的使用场景。

六、进阶优化:用WebSocket提升实时体验
很多投顾朋友初期会用HTTP请求轮询的方式接入接口,这种方式虽能实现基本功能,但实时性较差,尤其在服务高频交易客户、展示实时行情时,体验不佳。后续我尝试改用WebSocket推送方式,实时性和使用体验都有了明显提升,操作流程也很简单:

  • 与接口服务端建立长连接,确保数据传输稳定,减少连接中断导致的行情缺失;
  • 订阅你关注的外汇货币对(如EUR/USD、GBP/USD),精准获取所需行情数据;
  • 行情变动时,接口主动推送最新数据,无需主动拉取,直接处理、刷新即可,大幅提升效率。

另外,建议你添加心跳检测和简单容错机制——行情偶尔会出现断流、异常,有了这些保护,能有效避免行情展示中断、策略运行终止,确保工作不受影响。

最后说两句

对券商投顾而言,外汇实时行情接口的接入,从来不是“技术难题”,而是一套简单的“准备→调用→优化”流程。它的核心价值,是帮你快速获取精准、稳定的外汇数据,支撑你更好地服务客户、优化策略。

我平时帮同行调试时,偶尔会用AllTick这类专业行情接口,无需复杂配置,就能快速实现稳定接入,大幅降低调试成本。

掌握本文的接入思路,理清场景、规避痛点、做好准备,你就能轻松搞定外汇接口接入,让它成为你工作的“好帮手”,无论是搭建行情工具、回测策略,还是服务客户,都能从容应对。

如果在接入过程中遇到问题,欢迎在评论区留言交流,后续也会分享更多接口实操技巧,助力你高效开展工作。

AI 智能体并不是让软件开发生命周期变得更快,而是直接终结了它。

我经常听到人们把 AI 称为“10 倍开发者工具”,这种定位是错误的。这种观点假设开发流程不变,AI 只是提升了速度,但事实并非如此。整个开发生命周期——那个我们赖以建立职业生涯、催生出数百亿产业的体系——正在崩塌。

而大多数人尚未察觉。

你所了解的 SDLC 已成为过去

这是我们大多数人学过的经典软件开发生命周期:

每个阶段都有对应的工具、流程和配套产业:Jira 管需求、Figma 做设计、VS Code 写代码、Jest 做测试、GitHub 审代码、AWS 管部署、Datadog 做监控。

每一步都是离散、按序执行的,交接无处不在。

而现在,工程师使用编程智能体时真实发生的却是:

开发阶段彻底崩塌了。它们不是变快了,而是彻底融合。智能体并不清楚自己处于哪一步,因为根本就没有步骤,只有意图、上下文与迭代。

AI 原生工程师不知道什么是 SDLC

我花了很多时间与那些在 Cursor 出现后才开启职业生涯的工程师交流。他们不知道什么是软件开发生命周期,也不知道什么是 DevOps,什么是 SRE。这并非因为他们不够优秀,而是他们从不需要这些。他们从未做过敏捷规划,从未估算过故事点,也从未为等待 PR 审核而苦等三天。

他们只管把东西做出来。

你说出需求,智能体编写代码,你查看、迭代、发布,所有环节同步推进。

这些工程师并没有因为省去繁文缛节而变得平庸,反而因此挣脱了束缚。冲刺规划、代码审核流程、发布节奏、估算仪式——全都没有。他们跳过了整套所谓的正统流程,直接动手构建。

说实话,我很羡慕。

每个阶段都在崩塌

让我带着你重新审视 SDLC,看看它还剩下什么。

需求收集:灵活流动,而非硬性规定

在过去,需求是自上而下传递的。产品经理撰写 PRD,工程师进行评估,规范在编码开始前就已冻结。这在构建成本高昂的年代是合理的——当每个功能都需要数周时间才能完成时,你必须提前确定要做什么。

这种限制已经不复存在。当智能体能在几分钟内生成一个完整的功能时,你无需提前定义每一个细节。你只需要给出方向,智能体构建出一个版本,你再进行评审、调整和尝试不同的方案。你可以生成十个版本,然后从中选择最优的一个。需求不再是一个独立阶段,而是迭代过程的副产品。

那么,当协作对象不再是需要跨流程沟通的人,而是能直接理解上下文的智能体时,Jira 成了什么?它不过是在追踪那些早已不复存在的阶段工作。如果你的“需求”只是喂给智能体的上下文,那么工单系统就不再是项目管理工具,而是一个上下文存储库——而且是一个极其糟糕的存储库。

系统设计:在实践中探索,而非事先规定

系统设计依然重要,但其实现方式正在发生根本性转变。

设计曾经是编码前的必经步骤:你在白板上勾勒架构、探讨各类取舍、绘制方框与箭头,然后动手实现。设计与编码之间相隔数天甚至数周。

这个差距正在缩小。设计不再是提前定好的方案,而是通过为智能体提供恰当上下文在交互中逐步探索出来的结果。模型见过的系统、架构与设计模式远超任何一位工程师。当你描述问题时,智能体不只是实现你的设计,还会给出往往比你独自思考更优秀的架构。你们实时进行设计对话,最终直接输出可运行的代码。

你仍然需要判断智能体是否存在过度设计或遗漏了约束条件。但你们是在协作完成设计,而不是由你单方面规定方案。

实现:现在是智能体的工作

这一点显而易见。智能体直接编写代码——完整的功能,包含错误处理、类型定义与边界情况的全套解决方案。

就我个人而言,我已经不认识还在逐行手写代码的人了。我们审核智能体生成的内容,为它提供上下文、把控方向,只专注于真正需要人类判断的问题。

测试:并行进行,而非串行

智能体会在编写代码的同时完成测试,而非事后补充,也不存在单独的“测试阶段”。测试是生成过程的一部分。TDD 不再只是一种方法论,而是智能体默认的工作方式。

原本独立的 QA 阶段已经彻底消失。当代码与测试一同生成、一同验证、一同迭代时,就不再有交接环节,没有“抛给 QA”这回事。智能体本身就能完成 QA 工作。

代码评审:没必要再做了

PR 流程早已该被淘汰。我从来都不认同这套模式,而如今它更是成了过去时代的遗留产物。

我知道这会让人难以接受。代码评审向来被视为金科玉律,是你发现漏洞、传递知识、守住标准的方式,也是一种身份认同——我们是工程师,评审代码本就是工程师该做的事。可在智能体驱动的世界里,死守 PR 流程并非严谨,而是一种身份危机。

想想看,一个智能体一天能生成 500 个 PR,而你的团队可能只能审核 10 个。审核队列只会不断积压。这根本不是值得优化的瓶颈,而是伪瓶颈——只是我们把人类的工作仪式,强行套在了机器的工作流程上。

这样的流程根本不该存在,整套模式都已经过时了。

评审机制必须被重新审视。它要么成为代码生成的一部分——由智能体依据设计文档自检、运行测试、排查回归、验证架构约束,要么由第二个智能体评审前者的输出。对抗式智能体检验变更逻辑,尝试从各个维度进行破坏。我们已经有这些工具了。人类评审将变成例外处理,只有在自动验证无法解决冲突或变更涉及真正创新的内容时才介入。

没有 PR 的世界会是什么样子?智能体直接提交到主分支,自动执行检查、测试、类型校验、安全扫描、行为差异验证。如果全部通过,就自动发布;如果不通过,由智能体自行修复。只有当系统确实无法处理时,人类才会介入。

我们把评审时间浪费在查看智能体几秒就能验证的代码变更上,这不是质量保证,这是卢德主义。

部署:解耦且持续的

智能体已经在构建比大多数团队手工打造的、更复杂、更专业的部署流水线。功能开关、金丝雀发布、渐进式推出、自动回滚触发机制——这些过去需要专业平台团队才能实现的发布工程能力,如今智能体都能完成。

关键转变在于智能体天然地将部署与发布解耦。代码持续部署,每一个变更在生成并验证后都会生成可进入生产环境的工件,并隐藏在开关之后。发布则是独立的决策,由功能开关或流量规则来驱动。

一些团队已经在接近真正意义上的持续部署与发布。代码生成、测试通过、制品构建、变更上线,全程自动化,从需求构思到上线生产无需人工介入。

下一步会更有趣。想象一下,智能体不仅负责部署代码,还能管理整个发布生命周期:监控发布进程、根据错误率调整流量比例、延迟飙升时自动回滚,只在出现全新问题时才通知人类。所谓的部署“阶段”不只是自动化,而是演变成一个持续、自我调节的过程,永远不会结束。

监控:唯一幸存的阶段,而且需要进化

监控是 SDLC 唯一幸存的阶段,它不仅仅是幸存了下来,更成为一切的基础。

当智能体发布代码的速度远超人工审核时,可观测性就不再是可有可无的仪表盘,而是整个研发生命周期的核心安全机制。以往的所有保障手段——设计评审、代码审核、QA 阶段、发布审批——要么被整合,要么被淘汰。监控成了唯一的留存,也是最后一道防线。

但大多数可观测性平台都是为人类设计的。告警、日志检索、仪表盘——全都面向人类的查看、解读与操作。当变更速度超出人类所能跟上的范围,这个模式就会彻底失效。如果一个智能体一天发布 500 次变更,而你的可观测系统还需要人工排查每一个异常,你就制造了新的瓶颈——只是把瓶颈从代码审核转移到了故障响应。

没有实际行动的可观测性只是昂贵的存储消耗。可观测性的未来不在于仪表盘,而在于闭环系统——遥测数据会成为代码发布智能体的上下文,让它能够自动检测并修复问题。

可观测性将成为驱动整个闭环的反馈机制,它不再是最后一个环节,而是整个系统的核心纽带。

率先想明白这一点的团队——让可观测性直接反馈给智能体循环,而不是推送到人类的告警设备——将能更快、更安全地持续发布。没能理解的团队,只会淹没在无穷无尽的告警里。

新的生命周期是一个更紧凑的循环

传统的 SDLC 是一个宽松的大循环:需求→设计→编码→测试→审核→部署→监控。它是线性、串行的,交接与等待无处不在。

新的生命周期是一个更紧凑的循环。

意图。构建。观察。重复。

没有工单。没有冲刺。没有故事点。没有排队等待的 PR。没有独立的 QA 阶段。没有发布火车。

只有明确意图的人类和执行任务的智能体。

那么还剩下什么?

上下文,就这些。

你用智能体构建出的产品质量与你提供给它们的上下文质量直接成正比。决定结果的不是流程,不是形式,而是上下文。

SDLC 已死。新的核心能力是上下文工程,新的安全防线是可观测性。

而行业里的大多数人,还在配置着没人去看的 Datadog 仪表盘。

原文链接:

https://boristane.com/blog/the-software-development-lifecycle-is-dead/

最近,Cloudflare 为R2引入了本地上传功能,并已开放公测。这项新功能为全球各地的用户提供了更好的写入性能,降低了跨区域写入延迟,而且无需更改存储桶的位置。

 

借助本地上传功能,对象数据会写入靠近客户端的位置,然后由 Cloudflare 利用在后台运行的任务复制到存储桶所在的区域,负责这项工作的任务被称为复制任务。根据文档介绍,在这个过程中,文件始终是即时可用且一致的。Cloudflare 系统工程师Frank ChenRahul Suresh以及产品经理Anni Wang写道:

 

本地上传加快了上传请求(即 PutObject、UploadPart)速度。不论是在客户的私有测试中,还是在我们的合成基准测试中,我们都看到,当上传请求与存储桶位于不同的区域时,TTLB 减少了高达 75%。在这些结果中,TTLB 是从 R2 接到上传请求到 R2 返回 200 响应的时间。

图片来源:Cloudflare 文档

 

如果客户端和存储桶位于不同区域,并且启用了新增的本地存储选项,R2 会在客户端区域写入存储基础设施,同时将对象元数据发布到存储桶所在的区域。Cloudflare 会处理后台复制。

图片来源:Cloudflare 博客

 

为了确保数据的安全性和可靠性,该系统通过队列任务和自动重试机制来管理后台复制。Chen、Suresh 和 Wang 补充说:

 

重要的是,对象在初始写入完成后立即就可以访问。在整个复制过程中,它始终保持可访问——不用等到后台复制完成之后才能读取对象。

 

为了实现这项功能,R2 将物理存储与逻辑元数据解耦,并在Durable Objects上构建了全球元数据服务。Durable Objects 是 Cloudflare Workers 提供的一项功能,使得应用程序在全球多个位置运行时也可以在一个一致的地方存储和管理数据。

 

这一新功能针对用户分布于全球各地的工作负载场景,在无需更改存储桶主位置的前提下,即可实现快速可靠的上传并提升上传性能。客户可通过监控R2存储桶指标页面上的区域请求分布图,查看读写请求的地理分布情况。甲骨文首席工程师 Sri Chavali 在 LinkedIn 上总结道

 

将 1GB 文件从一个区域上传至另一个区域的存储桶时,往返时间(RTT)是主要瓶颈。Cloudflare 的 R2 本地上传功能将文件上传到最近的 PoP,并利用 Durable Objects,、原子提交和基于拉取的复制管道将数据摄取与复制解耦,从而解决了“距离问题”。

 

Cloudflare 并不是唯一一个试图优化从全球各地向中央存储桶上传文件并减少跨区域写入延迟的超大规模提供商,亚马逊云科技也提供了一个类似的功能S3 Transfer Acceleration。R2 本地上传功能利用了本地写入与异步复制,而 S3 Transfer Acceleration 则是利用遍布全球的边缘节点来优化路由并减少互联网波动性——数据先上传至最近的 CloudFront 边缘节点,再通过亚马逊云科技的网络传输至存储桶。Google Cloud Storage 和 Azure Blob Storage 均未提供可以在全球各地支持本地写入的上传层。

 

在 Cloudflare R2 上启用本地上传不会产生额外的成本;上传请求只产生标准的 A 类操作成本,和没有本地上传一样。这里有一个演示程序,可用于在不同位置测试本地上传。

原文链接:

https://www.infoq.com/news/2026/02/cloudflare-local-uploads/

以前是做 c#的,现在空降领导要求转 java 了,公司发的电脑是游戏本暗影精灵 11,也算是还很不错的配置了,本来想等年底再看的,现在这涨价的趋势一直不停,有点纠结要不要在摩集那买一台facepalm

袋鼠数据库工具 是一款 AI 驱动的热门数据库系统客户端(MariaDB / MongoDB / MySQL / Oracle / PostgreSQL / Redis / SQLite / SQLServer / ...) ,支持建表、查询、模型、同步、导入导出等功能,支持 Windows / Mac / Linux 等操作系统,致力于打造一款好用、好玩、开发友好的开发者工具。

重点特性介绍

这个版本增加了 PDF 文件预览支持,聚焦于修复大量的编译告警消息,提升稳定性;

新特性或修复的缺陷列表

  • PDF 文件预览支持
  • 重构 数值与货币数据类型
  • 更新中文语言支持(zh-CN/zh-SG/zh-Hans/zh-Hant)
  • 修复: libodpic 库不存在
  • 修复: 异步方法调用警告
  • 修复: 访问空值对象警告
  • 修复: 类对象数组属性不支持警告
  • 修复: 本地变量未使用警告
  • 修复: 访问静态成员警告
  • 修复: 未处理错误警告

下载与安装

袋鼠数据库管理工具 9.2.1

新版本功能快照

PDF 文件预览支持

袋鼠 Winget 安装包列表

袋鼠沙盒安装测试截图

Kylin V11 于2025年9月经过安可测试,进入国家信创目录。本文演示以Kylin-V11刚装完系统离线环境下,all in one部署k8s 1.34.5+ks3.4.1。

1.说明

关于kt

kt是基于kk二次开发的产物,具备kk的所有功能。二开主要为适配信创国产化环境、简化arm部署过程和国产化环境离线部署。支持arm64amd64架构国产操作系统,已适配芯片+操作系统 如下。

kt新增功能点

  • 适配arm架构harbor和支持,部署体验与X86一样简单。
  • 离线环境部署增强。已适配芯片和操作系统如下

    • CPU:鲲鹏、飞腾、海光、兆芯、intel、amd等。
    • OS:Centos、Rocky Linux、Ubuntu、Debian、银河麒麟V10、麒麟V11、麒麟国防版、麒麟信安、中标麒麟V7、统信UOS、华为欧拉、移动大云、阿里龙蜥、TencentOS等。
    • ./kt init-os -f config-sample.yaml 一条命令完成所有节点操作系统依赖安装和初始化操作。
  • 支持开启防火墙,只暴露30000-32767端口,其他k8s端口添加到节点白名单。

    • ./kt firewall 一条命令自动获取节点信息开白名单和防火墙。

    kt版本更新和下载地址

  • kt: kt
  • 关注我不迷路

2.环境准备

服务器基本信息

主机名架构OS配置IP
harborx86_64Kylin V112核4G192.168.85.154
masterx86_64Kylin V112核8G192.168.85.166
node1x86_64Kylin V112核8G192.168.85.168

将对应架构kt-x86.tar.gz上传至服务器

2.1 上传离线制品

将离线制品、配置文件、kt和sh脚本上传至服务器其中一个节点,后续在该节点操作创建集群。

2.2 修改配置文件

根据实际服务器信息,配置到生成的config-sample.yaml

kind: Cluster
metadata:
  name: sample
spec:
  hosts:
  - {name: harbor, address: 192.168.85.154, internalAddress: 192.168.85.154, user: root, password: "123213"}
  - {name: master, address: 192.168.85.166, internalAddress: 192.168.85.166, user: root, password: "123213"}
  - {name: node1, address: 192.168.85.168, internalAddress: 192.168.85.168, user: root, password: "123213"}
  roleGroups:
    etcd:
    - master
    control-plane:
    - master
    worker:
    - node1
    # 如需使用 kk 自动部署镜像仓库,请设置该主机组 (建议仓库与集群分离部署,减少相互影响)
    # 如果需要部署 harbor 并且 containerManager 为 containerd 时,由于部署 harbor 依赖 docker,建议单独节点部署 harbor
    registry:
    - harbor
  controlPlaneEndpoint:
    ## Internal loadbalancer for apiservers 
    internalLoadbalancer: haproxy

    domain: lb.kubesphere.local
    address: ""
    port: 6443
  kubernetes:
    version: v1.34.5
    clusterName: cluster.local
    autoRenewCerts: true
    containerManager: containerd
  etcd:
    type: kubekey
  network:
    plugin: calico
    kubePodsCIDR: 10.233.64.0/18
    kubeServiceCIDR: 10.233.0.0/18
    ## multus support. https://github.com/k8snetworkplumbingwg/multus-cni
    multusCNI:
      enabled: false
  registry:
    type: harbor
    registryMirrors: []
    insecureRegistries: []
    privateRegistry: "dockerhub.kubekey.local"
    namespaceOverride: "kubesphereio"
    auths: # if docker add by `docker login`, if containerd append to `/etc/containerd/config.toml`
      "dockerhub.kubekey.local":
        username: "admin"
        password: Harbor@123 # 此处可自定义,kk3.1.8新特性
        skipTLSVerify: true # Allow contacting registries over HTTPS with failed TLS verification.
        plainHTTP: false # Allow contacting registries over HTTP.
        certsPath: "/etc/docker/certs.d/dockerhub.kubekey.local"
  addons: []

说明: 这里写一下注意事项

config-sample.yaml 配置文件的 spec:hosts 参数

官方介绍

  • address 服务器的 SSH 登录 IP 地址。
  • internalAddress 服务器在子网内部的 IP 地址。

注:若部署的服务器在同一区域,内网IP可以互通,address 和internalAddress 都使用内网IP。之前遇到过有的小伙伴买的云服务器做测试,address使用公网IP,由于部署过程通信拷贝文件走了address,公网带宽又低。导致创建集群时异常的慢。

2.3 系统初始化

操作系统不需要安装docker,不需要设置selinux,swap等操作,全新的操作系统即可。解压kt文件后执行./kt init-os -f config-sample.yaml 已适配操作系统和架构见1.说明

该命令kt会自动判断操作系统和架构以安装依赖项和进行必要的初始化配置。

3 创建 Harbor私有仓库

3.1 创建Harbor镜像仓库

注意:harbor必须用docker,所以所在节点需要用docker运行时。

./kt init registry -f config-sample.yaml -a artifact-x86-k8s1.34.5.tar.gz

此命令会在harbor节点自动安装docker和docker-compose

3.2 创建harbor项目

<font style="background-color:rgb(255,245,235);">说明:</font>

<font style="background-color:rgb(255,245,235);">Harbor 管理员账号:</font><font style="background-color:rgb(255,245,235);">admin</font><font style="background-color:rgb(255,245,235);">,密码:</font><font style="background-color:rgb(255,245,235);">Harbor@123</font><font style="background-color:rgb(255,245,235);">。密码同步使用配置文件中的对应password</font>

<font style="background-color:rgb(255,245,235);">harbor 安装文件在 </font><font style="background-color:rgb(255,245,235);">/opt/harbor</font><font style="background-color:rgb(255,245,235);"> 目录下,可在该目录下对 harbor 进行运维。</font>

安装完成后,等待容器全部启动完成(大概1分钟),通过执行docker ps 查看状态

创建 Harbor 项目

chmod +x create_project_harbor.sh && ./create_project_harbor.sh

4 创建k8s和KubeSphere

./kt create cluster -f config-sample.yaml -a artifact-x86-k8s1.34.5-ks3.4.1.tar.gz --with-local-storage

此命令kt会自动将离线制品中的镜像推送到harbor 私有仓库

执行后会有如下提示,输入yes/y继续执行

等待一段时间,直至出现熟悉的等待安装完成的小箭头>>--->

期间可以另开一个窗口用以下命令查看部署日志

kubectl logs -n kubesphere-system $(kubectl get pod -n kubesphere-system -l 'app in (ks-install, ks-installer)' -o jsonpath='{.items[0].metadata.name}') -f

继续等待一段时间最终可以看到安装成功的消息

5 验证

登录页面

集群管理

集群节点

监控告警

配置文件默认只安装了监控,如果需要安装其他组件,可以自行在自定义资源中开启

集群信息

使用kt工具和对应的离线安装包,安装k8s和kubesphere 一如既往的快和简单。

随着大模型应用深入,从长文档分析到多轮 Agent 交互,上下文长度的需求正呈爆发式增长。然而,有限的 GPU 和 HBM 显存资源已成为制约推理性能和扩展性的核心瓶颈。

如何在保证极致推理速度的同时,打破显存墙、降低 TCO 并支持无限延伸的上下文?

3月7日,坐标上海,一场关于速度、规模与成本的技术交流即将开启!

本次 Meetup 由 SGLang 社区、阿里云 Tair KVCache 团队、千问 APP 基础工程团队、NVIDIA 开发者社区联合举办。我们将深度聚焦大模型推理的演进方向,从框架优化、分层存储到底层算力调度,为你揭开高性能推理背后的硬核技术。

点此立即抢占席位:https://survey.aliyun.com/apps/zhiliao/rhkk7qcDX

🌟 为什么你不能错过?

SGLang 核心团队亲临,首发最新路线图

作为引领计算层效率革命的新一代高性能推理框架,SGLang 核心团队成员将现场解析高性能推理的现状与未来,以及面向 HybridModel 的优化实践。

阿里巴巴千问 APP 亿级用户背后的“极速”秘籍

千问 APP 基础工程团队首次深度解密:面对 Qwen3.5-Plus 的极致性能挑战,团队如何通过极致延迟优化,将大模型能力转化为"会聊天、能办事"的流畅助理体验。

阿里云 Tair KVCache:打破显存焦虑

显存太贵?看 SGLang 与 Tair KVCache 如何协同进化,重构推理架构,实现极致性价比!还有深度拆解阿里云 Tair KVCache 全局分级缓存管理与 Mooncake 高性能存储的深度融合。

NVIDIA 技术专家分享极致性能优化

NVIDIA GPU 计算专家和解决方案架构团队将分别分享 Qwen3.5 推理优化实践、采用阿里云 Tair HiSim 和 NVIDIA Dynamo AIConfigurator 的 SGLang 仿真优化,分享以极低成本模拟高保真推理配置寻优的压测。
图片
参与现场互动,还能获得 SGLang 联名及定制周边!现场更有茶歇交流环节,与众多 LLM 基础设施开发者面对面切磋。

📍 活动信息

公众号和服务号的推送在前段时间做了很大的改动,其中最诟病的就是无法及时收到和通知公众号的消息,导致错过一些优秀的文章。

监听公众号推送的第三方软件其实挺多的,大多都是使用hook技术来实现,少部分可能使用的协议,当然其实还有读取本地数据库的方式。不过很多工具都还在使用3.9版本的微信,现在新账号已经无法在旧版本上登录了,即使你通过某些手段登录上去,也可能立刻被下线然后提示封号。

目前能找到的支持4.0以上微信版本的有:

  • hook实现:https://github.com/kanadeblisst00/pywxrobot4
  • 读取数据库实现(依赖chatlog):https://osnsyc.top/posts/wechat-db-to-rss/

这里使用的是第一个,因为第二个依赖的chatlog已经被删库了,即使你找到了备份也只能支持到4.0.6版本,可能也无法正常登录。工具目前只能监听到公众号发文的标题、时间和链接,如果还需要正文的话可能得自己实现了。

使用教程

工具的使用比较简单,这里简单介绍一下,有兴趣的可以看原作者的教程

准备工作

网盘下载地址:https://www.123865.com/s/ihEKVv-Sflx?pwd=vCI5#

首先先从网盘里下载需要的文件并解压,如下:

这里我使用的是绿色版本,你也可以使用exe安装版本,绿色版本的好处是可以和电脑上已安装的微信共存,不需要卸载之前的微信。先按照GitHub的提示加一下交流群,不然会显示无法使用。

开始使用

先登录微信,然后打开公众号监听助手.exe,在菜单栏里的功能->插件设置配置一下监听到的公众号发文保存在哪里。

支持以下三种保存方式:

  • 保存到文件,支持jsonl和xlsx
  • 保存到Redis
  • 推送到接口

如果想保存到文件的话,建议保存类型选择按名称命名文件,文件格式选择jsonl,选择xlsx效率会低很多,因为xlsx无法追加,每次保存都需要先读取原文件再写入新文件。

Redis连接的格式:redis://:密码@IP:端口/第几个数据库,如果没有密码则是redis://127.0.0.1:6379/0

推送到接口的话就不赘述了,大家可以写一个接口测试下推送过来的数据是什么格式。

白名单功能

监控白名单表示你需要保存哪些公众号的推文,只有在白名单里的公众号才会保存。而通知白名单则表示哪些公众号推文需要发送到预计群和显示到软件界面上。

预警和通知功能

预警群你可以自己在下拉框中选择一个,也可以输入一部分来搜索。发送到预警群里的格式如下,如果你想到更直观的格式也可以跟原作者反馈:

隐藏配置

软件有个配置文件config.ini里有两个隐藏配置:

  • use_tray_icon: 是否使用系统托盘图标
  • use_icon_flasher: 是否使用图标闪烁提醒

我这里截两个图你就知道是什么意思了。如果使用托盘图标的话,关闭软件会最小化到系统托盘里,要在系统托盘里右键选择退出才能退出软件。

图标闪烁则是和微信一样的,底部任务栏图标会变红闪烁,不过当你将软件最小化到托盘的话,就不会闪烁了,我觉得还应该添加一个系统通知的功能,即使最小化也能看到通知,不过功能多了也会显得臃肿,还是得看各自的需求。

今天,就为大家介绍一位全能型的 AI 研发助手——「软著通」。

https://www.ruanzhu.ink/

co1.webp

  1. AI 软著专员:一句话生成全套材料
    这是「软著通」最核心的“黑科技”。我们致力于做你的 AI 软著专员,让你告别对着空白文档发呆的日子。

co2.webp

你只需要在一个简单的输入框里,输入一句关于你软件的描述(例如:“基于 Vue3 的医院预约挂号小程序”),神奇的事情就会发生:

AI 内核会立即基于公开指南模板,为你智能生成全套软著申请材料草稿,包括申请表、源代码文档和说明书草稿。

不仅如此,如果你已有开发成果:

系统同样支持上传关键代码。你只需把代码包传上去,系统就能自动解析、整理,生成符合申报要求的标准化源代码文档。

从一个灵感到最终的文档,AI 全程智造,真正解放你的双手。

  1. 精品图库:技术路线图,填空即成
    写标书、做技术方案时,一张清晰、专业的技术路线图或架构图,胜过千言万语。但对于不擅长设计的开发者来说,画图简直是噩梦。

co3.webp

「软著通」为你解决了这个问题。我们收集整理了百份精品技术路线图库,供你在线浏览和选择。

覆盖多领域: 无论你是在做智慧校园、物联网项目,还是三创综合平台,这里都有现成的模板参考。

AI 辅助编辑: 选中模板后,你可以支持在线编辑文字,利用 AI 辅助功能进行智能调色,最后一键导出高清图片放到你的文档里。

让你的技术文档瞬间提升专业度,不再为配图发愁。

  1. 创作工具箱:百宝箱级的实用功能
    为了进一步赋能高效创作,「软著通」还内置了一个丰富的在线工具箱。

co4.webp

这里集成了开发者和文档编写者日常急需的各种小工具,例如:

硬核的无损图片压缩: 这是我们的特色功能。它能在几乎不损失画质的前提下,将你的图片体积大幅减小,压缩率高达 90%!一张 10MB 的原始大图,压缩后仅需 1MB ,完美解决文档插入图片过大导致文件超标的问题。

更多协作工具: 包括 PDF 转图片、合作开发协议生成等功能,一站式满足你的文档处理需求。

写在最后:

别让繁琐的流程消耗你的创造力。把重复、枯燥的文档工作交给「软著通」,把宝贵的时间留给核心创造。

刚过完新春,不少观望智能小车的“等等党”终于迎来最佳入手信号——firefly萤火虫重磅推出3月限时购车权益,放大招诚意拉满,彻底终结漫长等待,让轻松拥车的梦想照进现实。
图片

图片
作为全球最安全的智能小车,firefly萤火虫早已用实力站稳脚跟,斩获中保研四大科目全优评级,成为史上首台四大参评科目均获G及以上的小车,用扎实安全品质打消用户顾虑。
图片
此次3月限时福利,更是直击消费者购车痛点,推出7年超低息金融方案,BaaS租用首付仅1.6万元起,月供低至840元,算下来每天只需一杯奶茶钱,就能轻松开走这台高品质智能小车,彻底降低购车门槛。
图片
不止超低门槛,多重礼遇叠加更显诚意。购车即享3000元选装基金,可随心打造专属座驾;同时搭配2000元购置税补贴或7kW交流家充桩(30米套包),还有多项附加优惠,全方位覆盖购车、用车全场景需求。没有复杂套路,所有福利直接落地,让每一位消费者都能实实在在享受到优惠。
图片
对于纠结已久的等等党而言,这次无需再犹豫。新春开年,政策红利集中释放,firefly萤火虫的限时权益错过难再得。以亲民成本,坐拥旗舰级安全配置、灵动智能体验与丰富购车福利,现在入手,既能避开后续政策变动,又能早早开启便捷出行生活。机遇不等人,福利不缺位。firefly萤火虫3月限时购车权益已正式上线,一杯奶茶钱的日常开销,就能解锁全球最安全的智能出行体验,此刻入手,恰逢其时!
更多:https://zhuanlan.zhihu.com/p/2011535805630408360

引言

在数字化转型浪潮中,企业应用系统的安全性和用户体验同样重要。传统的账号密码登录方式已无法满足高安全场景需求,而生物识别技术以其唯一性便捷性成为安全认证的新标准。葡萄城旗下活字格低代码平台与HAC移动应用的深度整合(1.21.0+版本),为企业提供了开箱即用的生物识别认证解决方案。本文将全面解析该技术的实现原理、应用场景和最佳实践,帮助开发者快速构建既安全又人性化的认证体系。

一、生物识别认证的技术优势与行业趋势

  1. 安全升级:指纹/面部等生物特征的不可复制性显著降低冒用风险
  2. 体验优化:认证过程从"记忆密码"变为"自然行为",用户操作耗时缩短70%(根据Gartner 2025年认证技术报告)
  3. 合规保障:活字格方案严格遵循GDPR等数据保护法规,不采集也不存储任何生物特征数据
典型案例:某金融机构在贷款审批流程中接入活字格生物认证后,欺诈案件发生率下降92%,客户满意度提升35个百分点

二、技术架构解析

2.1 分层认证体系

graph TD
    A[生物识别认证] --> B[强生物识别]
    A --> C[弱生物识别]
    A --> D[设备密码认证]
    B -->|华为/三星等| E(指纹/3D面部)
    C -->|中端机型| F(2D面部)
    D --> G(数字/图形密码)

2.2 安全实现机制

  • 零数据采集:依赖Android原生API,活字格与HAC仅获得认证结果布尔值
  • 硬件级防护:密钥存储于手机安全芯片(TEE环境)
  • 动态加密:每次认证生成唯一会话ID,防止重放攻击

三、开发实战指南

3.1 环境准备

3.2 认证流程实现

  1. 构建应用

    1. 使用活字格自带的应用模板,稍作修改后,完成我们的应用设计
      在这里插入图片描述
    2. 构建认证逻辑

      1. 活字格中,将各种常用的录逻辑以命令的方式集成在设计器中,使用者只需要将这些命令组合,便可以完成复杂的业务逻辑 -

      在这里插入图片描述

    3. 推荐认证级别:强生物识别---STRONG(通过率98.7%)
    4. 备选方案:设备密码识别---DEVICE_CREDENTIAL
  2. 发布并使用:

    1. 将活字格中设计的应用发布到服务器
    2. 移动端安装HAC对应的APP,并按照说明文档配置好访问地址即可使用并测试

四、行业应用场景

4.1 高价值操作授权

  • 财务系统:大额转账审批
  • 医疗系统:电子处方签署
  • 政务平台:个人敏感信息查询

4.2 移动办公场景

  • 外勤人员打卡签到
  • 移动审批流确认
  • 远程会议身份核验

结论

活字格与HAC的生物识别集成方案,通过技术透明化实现安全与体验的完美平衡。开发者无需深入掌握生物特征算法,即可快速构建符合金融级安全标准的认证流程。建议企业在以下场景优先采用:

  1. 涉及资金或敏感数据的操作流程
  2. 需要明确责任认定的审批环节
  3. 追求极致用户体验的C端应用
注意事项:由于Android设备碎片化问题,上线前需完成至少20款主流机型的兼容性测试。葡萄城技术团队提供认证质量评估工具包,可联系售前支持获取。

OpenAI大致介绍了他们如何扩展 PostgreSQL 以处理 ChatGPT 及其 API 平台(服务于全球数亿用户)上每秒数百万次的查询。这项工作突显了 PostgreSQL 单主实例(不引入额外的分布式解决方案)在面对写入密集型工作负载时所能达到的极限,同时也强调了构建全球可用的低延迟服务所需的设计权衡和运营保障措施。

 

在过去的一年中,PostgreSQL 的负载增长了十倍以上。为此,OpenAI 与 Azure 合作优化了其在Azure Database for PostgreSQL上的部署,在保持单一主实例不变的情况下,使系统能够为 8 亿 ChatGPT 用户提供服务,而且还留有足够的余量。优化工作涵盖了应用层和数据库层,包括扩展实例大小、优化查询模式和通过额外的只读副本进行扩展。应用层调优减少了冗余写入,并将新的写入密集型工作负载导向像Azure Cosmos DB这样的分片系统,而将 PostgreSQL 用于需要强一致性的关系型工作负载。

 

PostgreSQL 主实例由分布在不同地理位置的近 50 个 Azure Database for PostgreSQL 只读副本提供支持。读取操作分散在各个副本上,p99 延迟保持在低两位数毫秒级上,而写入操作则集中处理,并采取措施限制不必要的负载。延迟写入和应用层优化进一步减轻了主实例的压力,即使在全球流量激增的情况下也能保持一致的性能。

PostgreSQL 级联复制(图片来源:OpenAI博客文章

 

随着流量的增长,运营挑战也随之出现。缓存未命中风暴、由ORM生成的多表连接模式以及服务范围的重试循环均被认定为常见的故障模式。为了解决这些问题,OpenAI 将部分计算移至应用层,对空闲和长时间运行的事务执行更严格的超时限制,并优化查询结构以减少对自动清理过程的干扰。

 

降低写入压力是一个关键策略。在高更新负载场景下,版本更迭和清理成本会导致 PostgreSQLMVCC模型的 CPU 和存储开销增加。为了缓解这种情况,OpenAI 将可分片的工作负载迁移到分布式系统上,限制回填和大批量更新的速度,并严格遵守运营策略以避免级联过载。

 

LinkedIn上的一篇博文中,微软公司副总裁Shireesh Thota指出:

 

每个数据库都需要经过不同的优化和适当的微调才能适用于大规模工作负载。

 

连接池和工作负载隔离同样至关重要。PostgreSQL 的连接限制由 PgBouncer 以事务池的模式管理,这既可以降低连接建立延迟,又可以防止客户端连接激增。关键和非关键工作负载也做了隔离处理,从而在需求高峰期间避免了噪声邻居效应。

运行多个 PgBouncer pod 的 Kubernetes 部署(图片来源:OpenAI博客文章

 

可扩展性限制也源于读取复制。随着副本数量的增加,主实例必须将WAL日志流式传输到每个副本,这会增加 CPU 和网络开销。OpenAI 正在尝试级联复制,由中间副本向下游转发 WAL 日志,这样既能减轻主实例的负载,又能支持未来的增长。这些策略使 PostgreSQL 能够跨地理位置不同的区域支撑极大规模的读密集型 AI 工作负载,同时通过分片系统处理写密集型操作以保持稳定性和性能。

 

OpenAI 表示,他们将继续评估提升 PostgreSQL 可扩展性的方法,包括分片 PostgreSQL 部署和其他可选的分布式系统,以平衡强一致性保证与日益增长的全球流量和随着平台增长而日益多样化的工作负载。

 

原文链接:

https://www.infoq.com/news/2026/02/openai-runs-chatgpt-postgres/

辣鸡绕城高速,两车道,出个车祸直接堵个四五公里,花钱受堵车气。

那些个走应急车道的,真想给你们拍下来,杭州交通还是太松,罚的还是太轻

今天又迟到了,难受~ 不过今天天气还不错,天很蓝,风很柔,是春天呀

最近几年时间,国内新能源汽车在市场层面和技术层面的表现,大家已经看到了,很多燃油车企面对新能源汽车,能够做到最大的反应就是降价了。不仅仅在国内市场,国产新能源汽车在海外市场,也成为了很多车企的“梦魇”,像北美、欧洲等一些国家和地区,对国产新能源汽车设置了非常苛刻的准入门槛,要么设置最低价,要么100%关税,就怕国产新能源车进去之后,直接将其本土车企的市场份额给“冲散”了……
图片
但是这种“掩耳盗铃”的方式,并没有办法解决现实问题,技术和产品方面的代际差已经明显存在了,尤其是在美国一些车企中,还存在一些“美奸”,到处说中国产新能源汽车的好,让很多当地消费者蠢蠢欲动。福特汽车的CEO吉姆·法利就是典型的代表,这位车企CEO,从我们国内空运小米SU7,开得不亦乐乎,甚至说出了开完再也不想开自己燃油车的“暴论”,被美国媒体一通喷,而且对理想增程、比亚迪磷酸铁锂电池也表达了非常高的评价。可以说,这位福特CEO是国产新能源汽车的铁粉,对美国汽车产业和国内新能源汽车产业的差距了解得非常清楚。
图片
最近就有消息称,吉姆·法利正在与特朗普政府高级官员就一项潜在框架进行了会谈,该框架允许中国车企在美国本土生产汽车。而吉姆·法利的核心目标,就是游说川普方面能够同意,福特可以和比亚迪等中国新能源车企建立合资公司,以合资品牌身份在美国生产和销售新能源汽车。对于国产新能源汽车来说,这样的方式,也算是在一定程度上绕开了美国对国产新能源汽车的关税壁垒,国产新能源就有希望再次进入美国市场,然后给美国消费者开开眼了。
图片
实际上,吉姆·法利对福特和比亚迪的合作,一直都是有“预谋”的,尤其是对比亚迪的磷酸铁锂电池非常感兴趣。之前吉姆·法利就曾表达过观点,由于磷酸铁锂电池的技术专利,基本上都掌握在比亚迪等国内企业手里,所以包括福特在内的美国车企,只能使用成本更高、循环次数少、安全性存疑的三元锂电池,所以福特的电动车在成本这一块,一直下不来。
图片
当然这样的合资方式,我们实在太熟悉了,在过去三四十年里,全球知名的汽车品牌,很多都和国内车企建立了合资品牌,这些海外品牌得以在国内市场销售,而且福特方面的诉求,其实和我们当年很多车企的想法一样,试图通过市场换技术。大家都知道,比亚迪在新能源汽车领域的技术积累是相当强势和厚重的,包括易三方、易四方、兆瓦闪充、DM5.0等等,这些技术对于很多海外车企来说,就是“天方夜谭”般的存在,所以这种需求是存在的。
图片
不过我们也很担心,虽然现在有这样的传闻,说福特正在游说川普方面,试图和比亚迪在美国建立合资品牌,生产和销售新能源汽车,但是其中的阻碍肯定还是很大的,包括在价格层面,比亚迪垂直整合的能力在美国市场未必能施展开来。而且美国很多车企对国产新能源汽车的敌意很大,之前加拿大对国内电动车开放每年4.9万辆的配额,就已经把通用等美国车企给吓坏了,甚至抛出了产业威胁论!更加重要的是,可能美国方面也会担心,一旦这个口子一开,美国那些落后的汽车产能,冲击太大!
图片
所以就算有上面的传闻,大家也不必抱太大的希望,这其中的艰难和阻碍可能还是非常多的,但是这总归是一个思路,毕竟美国市场也是很大的市场,如果能够进入这个市场,并且占据一定的市场份额,对于其在全球市场的业务开展,还是很有示范效应的。
原文来源:https://zhuanlan.zhihu.com/p/2011382920556848899

图片

本文介绍了 云智慧Castrel AI(SRE 智能体)的核心设计理念,包括:假设驱动的调查方法、人机协同机制 和 业务知识沉淀。这一设计旨在帮助运维团队高效实现从“问题发现”到“根因定位或快速升级”的完整闭环。

在深入各模块之前,我们先来看一下云智慧Castrel AI的核心工作流程:

图片

Castrel AI 工作的前提:可观测性上下文(Observability Context)

AI 故障排查的效果,在很大程度上取决于它所能访问的上下文数据是否完整。而一个高质量的可观测性上下文,应覆盖可观测性数据 以及 系统拓扑关系 等关键维度。

图片

三大核心可观测性数据类型

可观测上下文中包含 Metrics(指标)、Logs(日志) 和 Traces(链路追踪) 三类数据:

  • Metrics 告诉你“出问题了”,
  • Logs 告诉你“具体发生了什么错误”,
  • Traces 告诉你“问题发生在调用链的哪个环节”。

三者结合,才能形成完整的故障视图;而仅依赖任何单一数据类型,都难以高效完成故障排查。

下表总结了这三类数据的核心用途及典型来源:

image.png

系统拓扑关系

除了上述三类可观测性数据,AI 还需要理解系统的拓扑结构。这一结构主要由以下两类关系构成:

  • 调用关系:描述服务之间的依赖关系(通常由 APM 提供);
  • 部署关系:说明服务运行在哪些主机或容器上(可来自 APM、Zabbix 或 Kubernetes)。

有了调用关系,AI 可以判断故障是上游传播而来,还是当前服务自身的问题;有了部署关系,AI 则能将应用层的异常与基础设施层面的问题(如主机 CPU 飙升、磁盘满等)关联起来。

构建完整上下文的实践建议

在实际实施中,我们建议按以下优先级逐步完善数据接入:

  • 优先集成 APM:APM 通常同时提供 Traces、调用关系和部署关系,是最具性价比的数据源。
  • 补充基础设施监控:Zabbix、Node Exporter 等提供的主机级指标是重要补充。
  • 纳入 Kubernetes元数据:如果使用 K8s,其 Events、Pod 状态和 Deployment 记录都是关键上下文。

综上,数据完整性直接决定 AI 排障能力的上限:数据越完整,AI 分析越准确。缺失任一数据类型,都会显著降低排查效率。

Castrel AI 的核心方法:假设驱动,让 AI 像人类 SRE 一样思考

传统的 AI 分析方式通常是一次性收集所有可观测数据,然后由模型生成摘要。这种“摘要引擎”式的做法存在明显局限:随着数据量增加,模型容易被无关信号干扰,输出质量反而下降。

更高效的方式是让 AI 像人类 SRE 一样思考。具体而言,这一过程遵循一个迭代式的调查循环,包含以下四个关键步骤:

  • 形成假设:基于告警和初步数据,生成可能的根因假设;
  • 验证假设:针对每个假设,查询特定的可观测数据进行验证;
  • 递归深入:当某个假设被验证后,继续生成更深层的子假设;
  • 剪枝分支:当某个假设被证伪,立即放弃该方向,聚焦其他可能性。

下图展示了一个典型的假设分支调查过程,从“API P95 延迟飙升”开始,逐步定位到“数据库索引被删除”这一根因:

图片

与传统的“摘要引擎”模式相比,假设驱动方法在多个维度上具有显著优势:

image.png

正因具备上述特性,假设驱动的调查方式使 AI 的分析过程透明、可追溯——每一个结论都有明确的数据支撑。

Castrel AI 的关键机制:人机协同

传统的 AI 分析通常是单向的:AI 给出结论,用户被动接受或拒绝。而国内主流SRE Agent产品 Castrel 采用的是双向协作机制——AI 与人类在调查过程中持续交换信息,共同推进根因定位。

在这一机制中,双方各司其职:

  • AI:
  • 掌握通用知识:理解系统架构、常见故障模式和标准排查方法论;
  • 快速扫描数据:在海量 Metrics、Logs 和 Traces 中迅速定位异常;
  • 并行验证假设:同时测试多个可能的根因方向。
  • 人类:
  • 提供业务上下文:例如,“晚上 9 点 CPU 升高是因为营销活动,属于正常现象”;
  • 输入经验知识:例如,“我们的网络不太稳定,上次是 DNS 服务器抖动”。

下面是一个典型的协作场景:

AI:(完成初步假设分析)
“已验证 3 个假设:
✓ 数据库慢查询增多 —— 与告警时间吻合
✗ 网络延迟 —— 无异常
✗ 资源不足 —— CPU/内存充足
正在数据库方向继续深入调查……”
用户:(看到假设列表,想起上周的变更)
“DBA 上周修改了订单表的索引。”
AI:(新增假设并验证)
“新假设:索引变更导致执行计划变化
检查 DDL 变更记录:发现订单表索引于上周四被删除
→ 对比执行计划:删除前使用索引扫描,删除后变为全表扫描
→ 时间相关性:索引删除时间与慢查询开始时间一致
✓ 假设验证通过,确认为根因。”
用户:(验证成功)
“确认!需要恢复索引。”

这一机制表明:AI 擅长处理海量数据和通用知识,人类擅长提供业务上下文和历史经验。双向协作,使排查效率远超纯 AI 或纯人工。

Castrel AI 的务实设计:退出策略

AI 并不总能直接找到根因——尤其是在数据集成不完整的情况下。但这并不意味着 AI 的分析没有价值。云智慧SRE 智能体——Castrel AI的“退出策略”正是为了在这种情况下,依然交付可操作的洞察。

在多组件问题的深度调查中,递归深挖至真实根因

在复杂事件中,根因可能跨越多个系统,或需要多个步骤才能发现。假设驱动的方法允许 AI 递归地深入调查,直到搜索空间耗尽。

以下是一个 “Pod 频繁重启(CrashLoopBackOff)” 案例:

告警:Kubernetes Pod 进入 CrashLoopBackOff 状态

第一层分析:
→ 假设:内存不足导致 OOM Kill
→ 验证:检查 Pod events,确认为 OOMKilled
→ 结论:已验证,但这只是表面原因

第二层分析(递归深入)
→ 假设:异常大的请求负载导致内存激增
→ 验证:检查入站流量,发现 Kafka 消息大小异常
→ 结论:已验证,继续深入

第三层分析
→ 假设:上游系统发送了异常大的消息
→ 验证:检查消息来源,发现某些批处理数据包含损坏的大文件
→ 结论:根因确认——上游数据异常导致消息大小溢出

早期版本的 AI 可能会在第一层就停止,给出“Pod OOM”的结论。但这对工程师帮助有限——他们从告警中早已知晓这一点。真正有价值的是找出为什么发生 OOM

排除干扰项,节省工程师排查时间

即使 AI 无法定位最终根因,其排查过程本身仍具价值。具体而言,它通常能够:

  • 指出大致调查方向:例如,“问题很可能在数据库层”或“与最近的部署变更相关”
  • 排除无关干扰项:例如,确认网络连通性正常、资源利用率充足、缓存命中率无异常

这种“排除法”本身就能为用户节省大量时间。在传统排查中,工程师往往需要逐一检查网络、资源、缓存等基础设施,才能排除这些可能性。而 AI 可在几分钟内完成这些检查,让用户直接聚焦于真正可能的问题方向。

结构化交接排查成果,避免排查工作从零开始

当 AI 因数据不足无法继续深入时,它可以将已有成果以结构化方式交接给用户,避免排查工作从零开始:下面是一个调查进展交接的示例:

📋 调查进展交接

⏱️ 分析耗时:5 分钟 | 扫描组件数:12

✅ 已排除项:
• 网络连通性正常(Ping <1ms,无丢包)
• K8s 资源充足(CPU <60%,内存 <70%)
• 缓存命中率正常(Redis 99.2%)

🎯 大致方向:
• 问题集中在 order-service → mysql-cluster 链路
• 数据库性能相关问题的概率较高

⚠️ 需人工确认(缺失数据源):
• 数据库慢查询日志(未接入)
• 近期 Schema 变更记录(未接入)

正如“退出策略”所体现的,早期的扫描结果不会被浪费。即使 AI 无法给出最终答案,用户也可以从一个更小的排查范围开始,而不是从零开始。

Castrel AI 的持续进化能力:知识沉淀

图片

如果没有标准操作流程(SOP)或运行手册(Runbook),AI 在首次遇到某些类型的问题时可能需要进行大量探索。但这些探索结果不应被浪费。

因果验证为何困难?业务语义无法从可观测数据中直接获取

假设驱动调查方法的核心是验证因果关系——判断某个异常是否确实导致了当前告警。然而,因果验证远比看起来复杂,需从以下多个维度综合判断:

image.png

最后一项“业务语义”尤其依赖对客户业务的深入理解。例如:

  • 订单服务延迟增加,AI 发现数据库中的慢查询。但这个慢查询是定时报表任务(每天午夜运行,与核心业务无关),还是核心订单查询?只有了解业务的人才能判断。
  • 某服务的错误率上升,AI 发现近期有代码部署。但这次部署属于新功能的金丝雀发布(预期存在一定错误),还是一个意外的缺陷?需要了解发布计划才能判断。

这类业务知识无法直接从可观测数据中获取;必须通过知识沉淀来积累。

从排查过程中积累知识

为解决上述挑战,当一次事件调查完成后,AI 可以将排查过程总结为知识条目:

* 问题特征:哪些告警/症状组合触发了本次调查

  • 排查路径:尝试了哪些方向,最终定位到什么根因
  • 解决方案:如何修复,需要注意哪些事项

将知识绑定到特定告警和资源,以复用于同类问题

所积累的知识可以绑定到特定的告警类型或资源上。当下次遇到类似问题时:

  • AI 自动检索相关知识
  • 参考之前的排查方法,快速确认是否为同一问题
  • 如果症状匹配,直接提供修复建议;如果不匹配,至少排除该方向

场景示例

以下展示了同一问题的两次排障过程:第二次通过复用第一次积累的知识,将排查时间从 30 分钟缩短至 5 分钟。

第一次排障:

  • 告警:order-service P95 延迟增加
  • 排查过程:检查网络 → 检查资源 → 检查数据库 → 发现索引问题
  • 积累的知识:绑定到 order-service + 延迟类告警

第二次排障:

  • 相同告警触发AI
  • 自动关联知识:“上次类似问题是由索引引起的,是否应优先检查数据库?”
  • 用户确认后,直接跳转到数据库检查,跳过网络和资源排查
  • 排查时间从 30 分钟缩短至 5 分钟

正如本节所述,因果验证的准确性依赖于对业务的深入理解。通过知识沉淀,团队的业务经验不再仅存在于个人头脑中,而成为 AI 判断因果关系的重要依据。

总结

综上所述,AIOps SRE Agent——云智慧 Castrel AI的事件排障能力可归纳为以下五个关键方面:

image.png

上述能力共同服务于一个核心目标:云智慧 Castrel AI 故障排查智能体并非旨在“AI 取代人类”,而是让人机协同的效率远超纯 AI 或纯人工的单独工作方式。

前言

ShellGPT = 命令行 × AI。无需记忆复杂参数,一句话生成精准命令;无需手动解析输出,管道直接丢给 AI 分析。本文详解安装配置、模型选择(白嫖阿里云)、三种使用模式(简洁/交互/会话),以及 netstat、kubectl、git 等实战场景。适合所有想在终端里"偷懒"的开发者和运维。

安装

安装非常的简单粗暴,一条命令即可

pip3 install shell-gpt

选择模型

1)基于白piao的精神,选择了千问,至于原因:

shell-gpt_1.jpg

阿里云百炼 ,低门槛快速入门

2)确定好平台之后,登陆选择模型,随便选一个即可,这里笔者选择了Qwen3.5-Plus

shell-gpt_2.jpg

3)点击模型查看详情,最主要的是拿到api key

shell-gpt_3.jpg

4)生成api即可,将其按照下列格式准备着

export OPENAI_API_KEY="sk-***********************"
export API_BASE_URL="https://dashscope.aliyuncs.com/compatible-mode/v1"
export DEFAULT_MODEL="qwen-plus"
  • OPENAI_API_KEY,就是刚才生成的
  • API_BASE_URL,这是api地址,在文档中也可以找到
  • DEFAULT_MODEL,默认使用的模型

初次使用

1)先配置环境变量:

export OPENAI_API_KEY="sk-***********************"
export API_BASE_URL="https://dashscope.aliyuncs.com/compatible-mode/v1"
export DEFAULT_MODEL="qwen-plus"

2)hello world

> sgpt '你是谁?'
我是 ShellGPT,你的编程与系统管理助手。我专为 Linux/Debian GNU/Linux 13(代号 trixie)环境优化,熟悉 zsh
shell、包管理(apt)、服务管理(systemd)、脚本编写及常见运维任务。我能帮你调试命令、解释错误、生成安全的 Bash/Zsh 脚本、配置服务或排查网络/权限问题。所有响应力求简洁(约 100 字),并用 Markdown
增强可读性(如 code、加粗、列表等)。数据仅保留在当前对话中,不持久化。需要执行具体任务?比如:

 • ✅ sudo apt update 后出错?
 • ✅ 想写个自动备份脚本?
 • ✅ systemctl status nginx 显示 failed?
   随时告诉我 👇

日常使用

1)日常中工作中经常容易迷惑的命令:find,找出目录下1天前修改的文件?找出目录下1天内修改的文件?

这种问题使用sgpt简直不要太容易

> sgpt '找出当前目录下1天前修改的文件'
在当前目录下查找 1天前修改 的文件(即修改时间恰好为24小时前),可使用:


 find . -maxdepth 1 -type f -mtime 1


⚠️ 注意:-mtime 1 表示“恰好 24–48 小时前”(即 24 ≤ 修改时间 < 48 小时),这是 find 的标准行为(按完整天数向下取整)。

若需精确到1天(±几分钟),用 -mmin 更准:


 find . -maxdepth 1 -type f -mmin +1439 -mmin -1441


(≈24h = 1440 分钟;+1439 表示 >1439min,-1441 表示 <1441min,覆盖 ±1 分钟误差)

排除隐藏文件?加 -not -name ".*"。需要递归子目录?删掉 -maxdepth 1。

2)我只想知道命令是什么,不想听到你bb这么多没用的消息

加上-s参数即可

> sgpt -s '找出当前目录下1天前修改的文件'
find . -type f -mtime 1
[E]xecute, [M]odify, [D]escribe, [A]bort:

还贴心的询问要不要执行,敲e立即执行,马上就将所有的1天前修改的文件列出来

这简直就是老年人记不住命令的福音啊

交互模式

进入一个完全交互式的一问一答会话环境,并且上下文感知

> sgpt --repl temp
Entering REPL mode, press Ctrl+C to exit.
>>> 当前操作系统是什么
...
>>> 当前内核的版本是什么
...

交互模式也可以进入之前的shell模式,即交互执行模式,sgpt回答给出命令之后,可以选择立即执行

> sgpt -s --repl work-cmd
Entering shell REPL mode, type [e] to execute commands or [d] to describe the commands, press Ctrl+C to exit.
>>> 找出/data目录下超过一天的文件
find /data -type f -mtime +1
>>> e

/data/test/1
/data/test/2

会话模式

该模式最大的特点就是内容记录下来,当还需要使用该上下文的时候,可以继续询问

> sgpt --chat find-command "找出/data下的所有的log结尾的文件"
...
> sgpt --chat find-command "再找出1天前的"

列出所有会话:

> sgpt --list-chats
/tmp/chat_cache/find-command

查看会话内容:

> sgpt --show-chat find-command

注:在交互--repl模式的内容也能够看到

交互模式与会话模式的区别

乍一看两个模式非常相似,其实也有差别

  • --chat 会话模式:

    • 想快速查询信息,过一段时间又需要使用该上下文
    • 在写脚本中调用
  • --repl 交互模式:

    • 要进行深度对话/调试
    • 需要连续问很多相关问题
    • 想保持专注不被打断
    • 在开发过程中实时咨询
  • chat模式与repl模式也是可以互相进入的

这里据一个例子让大家更加清晰的理解

1)早上日常巡检系统,看看目录下有哪些文件

> sgpt --chat monday '查看/data/目录下有多少个文件'

2)中午的时候开始深度与sgpt交流一个关于kafka的问题

> sgpt --repl kafka-topic

3)下午的时候想起来上午巡检的内容,还有个地方没做完:有多少文件是1天前修改的,这时候继续上午巡检的上下文

> sgpt --chat monday '有那些文件是1天前修改的'

4)快要下班的时候再统计,这次为了专注下班之前完成,进入了--repl交互模式,之前会话模式的内容也能够看到

> sgpt --repl monday
... # 显示之前的上下文

>>> 把1天前修改的文件全部删掉
...

奇技淫巧

1)netstat -nlpt | sgpt '监听了那些端口,并且把进程名打印出来'

> sudo netstat -nlpt | sgpt '监听了哪些端口,并且把进程名打印出来'
以下是监听的端口及其对应进程(去重合并 IPv4/IPv6):

 • 10887/tcp → trojan
 • 16067/tcp → sunloginclient
 • 631/tcp & 631/tcp6 → cupsd (IPP printing service)

所有服务均绑定本地(127.0.0.1 或 ::1),除 trojan(0.0.0.0:10887)外,其余均不对外网开放。建议用 sudo ss -tulpn | grep :<PORT> 验证详情。

2)kubectl describe pod xxx | sgpt "解释这里的异常"

3)git diff | sgpt "帮我 review 这段改动"

总结

sgpt极大的增强了日常使用命令行的效率,并且也在重构命令行使用的方式

联系我

  • 联系我,做深入的交流

至此,本文结束
在下才疏学浅,有撒汤漏水的,请各位不吝赐教...