包含关键字 typecho 的文章

KES(KingbaseES)产品介绍

KES(Kingbase Enterprise Server,人大金仓企业级数据库) 是一款国产企业级关系型数据库产品,基于 PostgreSQL 内核深度定制,面向政务、金融、电力等关键行业,满足国产化与信创环境下对数据库稳定性、安全性与可控性的要求。

KES 支持标准 SQL、事务处理、MVCC、多种索引类型及丰富的系统视图,能够满足企业级 OLTP 业务的高并发访问需求。同时,KES 在可靠性、审计、安全控制等方面进行了增强,适用于核心业务系统的数据存储与处理。

在实际生产环境中,KES 通常作为关键业务数据库运行,其稳定性与性能直接影响业务连续性,因此对数据库运行状态、性能指标和异常情况进行持续监控尤为重要。

观测云

观测云是一款专为 IT 工程师打造的全链路可观测产品,集成了基础设施监控、应用性能监控和日志管理能力,可对数据库、中间件、应用服务和底层资源进行统一观测。

通过将 KES 数据库接入观测云,用户可以实时掌握数据库连接状态、事务吞吐、SQL 性能和资源使用情况,并通过可视化仪表板和告警机制,快速发现潜在性能瓶颈和运行风险,提升数据库运维的可控性和响应效率。

采集方法

观测云支持通过 DataKit 对 KES 数据库进行指标采集,采集方式基于数据库系统视图,兼容 PostgreSQL 指标模型,适用于集中式 KES 单机或集群部署场景。

集成步骤

  1. 登录观测云控制台
  2. 点击【集成】菜单
  3. 在集成列表中选择 Kingbase(KES)
  4. 按照安装向导,在数据库所在主机部署 DataKit
  5. 配置 KES 数据库连接信息(地址、端口、用户、数据库)
  6. 保存配置并启动采集

配置完成后,DataKit 将定期从 KES 的系统视图中采集运行指标,并自动上报至观测云。

图片

开启 kingbase.conf 采集器

进入 DataKit 安装目录下的 /usr/local/datakit/conf.d/samples 目录,复制kingbase.conf.conf.sample 并命名为 kingbase.conf。示例如下:

cp /usr/local/datakit/conf.d/samples/kingbase.conf.sample  /usr/local/datakit/conf.d/kingbase.conf

配置 kingbase ,数据库用户创建参考文档链接 https://docs.guance.com/integrations/kingbase/

[[inputs.kingbase]]
  # host name
  host = "127.0.0.1"

  ## port
  port = 54321

  ## user name
  user = "dk_test"

  ## password
  password = "dk_test123"

  ## database name
  database = "security"

验证采集器状态

图片

关键指标

通过集成 KES,观测云可采集并展示以下核心指标,用于全面评估数据库运行状态:

  • 连接类指标:当前连接数、活跃连接数、空闲连接数
  • 事务与吞吐:事务提交次数(TPS)、事务回滚次数
  • SQL 性能:SQL 执行次数、SQL 平均执行时间、慢 SQL 统计
  • 缓存与 IO:Buffer Cache 命中率、磁盘读写量
  • 数据库健康状态:锁等待情况、会话状态分布

这些指标可帮助运维人员快速判断数据库负载水平、性能变化趋势及潜在风险。

场景视图

登录观测云控制台,点击【场景】→【新建仪表板】,在模板列表中选择 “Kingbase 监控视图”,即可快速创建 KES 数据库的监控仪表板。

该视图包含:

  • 数据库整体运行概览
  • 连接数与会话状态趋势
  • TPS / QPS 变化情况
  • 慢 SQL TOP 列表
  • 缓存命中率与 IO 情况

通过场景视图,运维人员可以从整体到细节,快速掌握 KES 的运行态势。

图片

监控器(告警)

数据库连接消失风险

简要描述:当数据库在一段时间内未检测到任何活跃连接时,通常意味着业务应用未正常访问数据库,或数据库连接链路出现异常(如应用全部下线、网络中断、连接池异常等)。该情况可能导致业务不可用或请求失败,应立即排查并处理。

图片

事务回滚异常

简要描述:当数据库事务回滚数量在一段时间内出现异常升高时,通常表示事务执行过程中频繁发生失败,可能由业务逻辑异常、锁冲突、死锁、唯一键冲突或应用主动回滚等原因引起。持续监控该指标有助于及时发现数据库事务成功率下降及潜在的业务稳定性问题。

SQL 执行耗时异常

简要描述:当数据库中 SQL 的最新一次平均执行时间(mean_exec_time)超过阈值时,通常意味着当前存在执行耗时明显偏高的查询语句,可能由 SQL 执行计划不合理、索引缺失、数据量增长或资源争用等因素引起。通过对 SQL 执行耗时的持续监控并设置告警,可以及时发现疑似慢 SQL 问题,辅助定位性能瓶颈,避免查询性能下降进一步影响业务稳定性。

总结

通过将 KES(KingbaseES)数据库 接入观测云,用户可以实现对国产数据库运行状态的持续可观测。观测云能够统一采集数据库连接、事务吞吐、SQL 性能等关键指标,并通过可视化场景视图和智能告警,帮助运维人员及时发现性能瓶颈和潜在风险。

该方案在不改变业务架构的前提下,为 KES 提供了一套标准化、可视化、可告警的监控体系,适用于测试验证及生产环境部署,有效提升数据库运维效率与系统稳定性。

本期看点
热点资讯:
▸豆包手机掀起 AI 风暴:智能便利背后的安全与规则之争
▸爆红即 "暴雷"?Moltbot(Clawdbot)热捧背后,无数账号正在裸奔
▸政府泄露数千万公民求职信息被罚超 4100 万元
▸国家级攻防演习结果公布:政府系统全沦陷 公民数据可任意访问▸泄露超 2400 万用户敏感数据,通信巨头被罚 4.4 亿元
▸安德玛 7200 万条用户记录遭泄露
▸美国某头部银行被植入键盘记录器,潜伏窃取 20 万登录凭证▸麦当劳被勒索软件攻击,861GB 敏感数据失窃

监管动态:
▸工信部:网络和数据安全治理能力有效提升▸新修订的《网络安全法》守护你的数字生活,这些变化与你息息相关~
▸工信部 | 关于防范 MuddyWater 组织网络攻击的风险提示
▸通知 | 网安标委发布《网络安全标准实践指南 —— 人工智能加速芯片安全功能技术规范》(附全文)
▸数据出境安全管理政策法规问答
▸东营网警侦破一起金融借贷领域非法获取公民个人信息案

安全研究:
▸黑客反被黑客黑:研究人员劫持 StealC 控制面板,窃取攻击者情报
▸攻防失衡、跨域渗透、合规承压?AI 时代反勒索的核心难题与破解
▸网络犯罪进入第五波:AI 把黑客技能变成 “月租服务”
▸开发周期不到 7 天,VoidLink 问世:首款全人工智能驱动的恶意软件
▸专家解读 | AI Agent 通用接口 - 从碎片化集成到标准化生态的范式跃迁
▸谁批准了这些 AI Agent?重新思考 AI 时代下的访问权限、问责机制与风险管控
▸AI 存储进入 PB/EB 时代,HDD 为何成为数据底座?

01热点资讯:
▸豆包手机掀起 AI 风暴:智能便利背后的安全与规则之争近期,字节跳动旗下豆包与中兴努比亚联手推出的豆包手机(努比亚 M153) 强势出圈,成为科技圈热议焦点。这款产品最吸睛的设计,莫过于开创了智能手机与 AI 深度融合的全新形态,无需繁琐操作,只需一句语音指令,AI 便能像真人般自主完成跨平台比价、点餐、发微信等一系列操作,真正将解放双手的智能体验落到了实处。
(原文链接:豆包手机掀起 AI 风暴:智能便利背后的安全与规则之争)
▸爆红即 "暴雷"?Moltbot(Clawdbot)热捧背后,无数账号正在裸奔2026年1月AI圈最火的名字,非Clawdbot莫属(后由于Anthropic商标侵权,更名为Moltbot)。在GitHub上,它几天内狂揽了94.8K星标,被网友称为“现实版贾维斯”——不用打开复杂软件,只需在Telegram、WhatsApp等聊天工具里发一条指令,它就能帮你订机票、写代码、整理邮件,甚至接管电脑系统,自动完成一系列繁琐任务。有人靠它搞定复杂的工作流程,有人用它实现了“动动嘴就操控电脑”的梦想,一时间,Moltbot成为无数人追捧的“效率神器”。
图片
(原文链接:爆红即 "暴雷"?Moltbot(Clawdbot)热捧背后,无数账号正在裸奔)
▸政府泄露数千万公民求职信息被罚超 4100 万元1月30日消息,法国数据保护机构对国家就业服务机构处以500万欧元(约合人民币4145万元)的罚款,原因是其未能妥善保护求职者数据。该安全漏洞使黑客得以窃取4300万人的个人信息。法国就业中心France Travail(前称Pôle Emploi)是法国的公共就业服务机构,负责发放失业救济并协助求职者就业。该机构还维护着一个庞大的数据库,存储着成千上万的法国公民的个人和财务信息。
(原文链接:政府泄露数千万公民求职信息被罚超 4100 万元)
▸国家级攻防演习结果公布:政府系统全沦陷 公民数据可任意访问1月28日消息,韩国监察院发现,在一次模拟网络攻击审计中,黑客成功攻破了全部7个受测试的公共部门系统,暴露出政府在保护海量个人数据方面存在严重薄弱环节。韩国监察院在1月27日表示,这些信息源自其与白帽黑客及国家安全机构联合开展的渗透测试。在其中一个案例中,审计人员能够访问几乎涵盖全国人口的居民登记号码。
(原文链接:国家级攻防演习结果公布:政府系统全沦陷 公民数据可任意访问)
▸泄露超 2400 万用户敏感数据,通信巨头被罚 4.4 亿元1月16日消息,法国数据保护监管机构国家信息自由委员会(CNIL)日前发出罚单,由于两家法国电信公司发生数据泄露违反了GDPR规定,对其合计处以4200万欧元(约合人民币3.39亿元)的罚款。
(原文链接:泄露超 2400 万用户敏感数据,通信巨头被罚 4.4 亿元)
▸安德玛 7200 万条用户记录遭泄露美国运动品牌安德玛(Under Armour)正在调查一起大规模数据泄露事件。此前有网络犯罪分子在网上公开了7200万条客户记录。安德玛是一家专业设计、制造和销售运动服装、运动鞋及健身配件的美国企业。
(原文链接:安德玛 7200 万条用户记录遭泄露)
▸美国某头部银行被植入键盘记录器,潜伏窃取 20 万登录凭证网络安全公司 Sansec 的研究人员发现,某美国头部银行的员工福利商城系统被植入键盘记录器。该恶意软件在运行约18小时后被清除,期间持续窃取网站表单内输入的所有内容,包括登录凭证、支付卡号及个人敏感信息,逾20万名银行员工数据面临泄露风险。
图片
(原文链接:美国某头部银行被植入键盘记录器,潜伏窃取 20 万登录凭证)

▸麦当劳被勒索软件攻击,861GB 敏感数据失窃2026年1月20日,Everest在其暗网泄密网站上公布了此次入侵的相关信息,并威胁称,若企业未在其设定的期限内作出回应,将公开披露所窃取的数据。根据 Everest 勒索软件组织的说法,此次攻击导致大量公司内部文件及客户个人数据被泄露。
(原文链接:麦当劳被勒索软件攻击,861GB 敏感数据失窃)

02监管动态:
▸工信部:网络和数据安全治理能力有效提升系统呈现了我国网络与数据安全治理能力的系统性提升成果,从基础设施防护、重大保障支撑、产业生态培育到专项治理深化等多维度,全面展现了相关工作进展与成效:在网络基础设施安全领域,构建了完善的防护体系。
(原文链接:工信部:网络和数据安全治理能力有效提升)
▸新修订的《网络安全法》守护你的数字生活,这些变化与你息息相关~2026年的互联网生活,因一部法律的修订而有了更坚实的保障。新修订的《中华人民共和国网络安全法》(以下简称《网络安全法》)已于今年1月1日起施行,这部法律与咱们每一位网民都息息相关,它将为咱们的数字生活带来哪些新变化呢?
(原文链接:新修订的《网络安全法》守护你的数字生活,这些变化与你息息相关~)
▸工信部 | 关于防范 MuddyWater 组织网络攻击的风险提示工信部发布风险提示,MuddyWater组织近期针对政府、军事、电信、能源等机构发起网络攻击,通过鱼叉邮件投递伪装PDF和恶意宏文档,释放UDPGangster后门窃取敏感数据。建议禁用Office宏、部署邮件沙箱、监控注册表异常写入。
(原文链接:https://cn-sec.com/archives/4949464.html
▸通知 | 网安标委发布《网络安全标准实践指南 —— 人工智能加速芯片安全功能技术规范》(附全文)本《实践指南》规定了人工智能加速芯片在硬件安全、接口安全、固件安全、安全存储单元、密码技术机制、故障检测与诊断和数据保护七个方面的安全功能要求和测评方法,适用于人工智能加速芯片的设计、开发和应用,也为开展相应的安全评估和检测认证活动提供参考。
(原文链接:通知 | 网安标委发布《网络安全标准实践指南 —— 人工智能加速芯片安全功能技术规范》(附全文))
▸数据出境安全管理政策法规问答国家互联网信息办公室持续加强数据出境安全管理政策法规宣介,指导和帮助数据处理者高效合规开展数据出境活动。经对近期收到的咨询问题进行研究,现将一些有代表性的问题和答复公布如下。
(原文链接:数据出境安全管理政策法规问答)
▸东营网警侦破一起金融借贷领域非法获取公民个人信息案1月23日,按照“冬季守护”专项行动部署要求,东营市局网安支队联合经济技术开发区分局侦破一起金融借贷领域非法获取公民个人信息然后进行精准推销、精准放贷案件。打掉犯罪窝点2个,一次性抓获违法犯罪嫌疑人69名,查获公民个人信息10万余条,对30名主要犯罪嫌疑人采取刑事强制措施。
图片
(原文链接:东营网警侦破一起金融借贷领域非法获取公民个人信息案)

03安全研究:
▸黑客反被黑客黑:研究人员劫持 StealC 控制面板,窃取攻击者情报StealC 信息窃取恶意软件运营商所使用的基于 Web 的控制面板中存在一个 跨站脚本(XSS)漏洞,该漏洞允许研究人员观察活跃会话,并收集攻击者的硬件情报。
(原文链接:黑客反被黑客黑:研究人员劫持 StealC 控制面板,窃取攻击者情报)
▸攻防失衡、跨域渗透、合规承压?AI 时代反勒索的核心难题与破解在人工智能技术的深度渗透下,勒索软件攻击已从传统“手工操作”模式演变为高度自动化、智能化的威胁生态。AI不仅加速了攻击者的工具链成熟度,更使攻击行为具备前所未有的适应性、隐蔽性和规模效应,导致现有防护体系面临一系列严峻挑战。本文将从攻击工具链威胁、防护技术瓶颈、组织治理困境、行业特殊风险四个维度,剖析AI赋能下勒索防护的核心挑战。
(原文链接:攻防失衡、跨域渗透、合规承压?AI 时代反勒索的核心难题与破解)
▸网络犯罪进入第五波:AI 把黑客技能变成 “月租服务”Group-IB CEO Dmitry Volkov在报告前言中一针见血地指出,AI和生成式AI工具的快速普及,正在“将人类技能转化为可规模化的服务”,使网络犯罪变得“更便宜、更快速、更具规模化”。
(原文链接:网络犯罪进入第五波:AI 把黑客技能变成 “月租服务”)
▸开发周期不到 7 天,VoidLink 问世:首款全人工智能驱动的恶意软件泄露的开发资料显示:该恶意软件使用了"规范驱动开发"(Spec Driven Development, SDD)这一AI方法论生成——即开发者创建详细的功能规范、架构设计和冲刺排期表,由AI模型作为蓝图进行实现。
图片
(原文链接:开发周期不到 7 天,VoidLink 问世:首款全人工智能驱动的恶意软件)
▸专家解读 | AI Agent 通用接口 - 从碎片化集成到标准化生态的范式跃迁随着生成式人工智能(Generative AI)技术的纵深发展,大语言模型(LLM)正经历从“静态文本生成器”向“具备环境感知与任务执行能力的自主智能体(AI Agents)”的范式转变。
(原文链接:专家解读 | AI Agent 通用接口 - 从碎片化集成到标准化生态的范式跃迁)
▸谁批准了这些 AI Agent?重新思考 AI 时代下的访问权限、问责机制与风险管控AI Agent正在加速工作流程的执行。它们可以安排会议、访问数据、触发工作流、编写代码并实时采取行动,以超越人类的速度提升企业生产力。直到某天安全团队突然发现:"等等...这是谁批准的?"
(原文链接:谁批准了这些 AI Agent?重新思考 AI 时代下的访问权限、问责机制与风险管控)
▸AI 存储进入 PB/EB 时代,HDD 为何成为数据底座?
2025年,大模型和智能体进入商用部署的新阶段,“一企一模型”“一行一垂类”的趋势拉开,随之而来的,是以PB乃至EB为单位的数据暴涨。从训练数据、微调数据,到推理日志、模型版本、Agent调用记录,数据不只是多了,还存在结构性特征。
(原文链接:AI 存储进入 PB/EB 时代,HDD 为何成为数据底座?)

在这两年的企业数字化转型技术中,AI+低代码是绝对的主角之一。

它向企业家们传递了一个更为高效的数字化创新路径:业务人员动动鼠标,拖拖拽拽,几周就能搞定过去IT部门几个月才能交付的系统。

听起来很美好,对吧?

但作为一名在IT江湖里摸爬滚打多年,看过太多“上线即死亡”项目的数字化顾问,我得给你泼一盆冷水。绝大多数低代码项目,不是在沉默中灭亡,而是在试图接入公司现有系统的那一刻,就在登录页面上“阵亡”了。

这个登录页面背后站着的,叫“单点登录”(SSO)。它不是一道简单的门,而是一面照妖镜。我甚至可以说,能否搞定SSO,是鉴别低代码平台是“业务级玩具”还是“企业级工具”的唯一标准。

今天,我们就拿国内一款硬核的低代码平台——织信(由基石协作出品)来当切片,好好聊聊这个话题。

01 幻象:为什么大部分低代码平台在登录这一步就跪了?

你去翻翻低代码平台的宣传册,关于“安全与集成”那一页,大概率会看到一行小字:“支持标准OIDC/SAML协议,一键集成”。

看起来,SSO就是个复选框,勾上就行。但任何一个经历过企业身份治理(IAM)摧残的架构师看到这行字,心里都会“咯噔”一下。企业的身份认证系统,那是由陈年老代码、特殊加密算法、复杂的组织架构图以及各种合规要求堆砌起来的“哥斯拉”。它从来就不标准。

第一种死法:死于“标准”的假象。

很多低代码平台,尤其是那些SaaS出生的“轻量级”工具,采用的是“黑盒配置”策略。平台给你一个配置界面,让你填Client ID、密钥、元数据URL。如果你的身份提供商(IdP)是标准的微软Azure AD或者Okta,那确实岁月静好。

但现实往往是:你们公司的验证系统还是那套用了十年的老ADFS(活动目录联合服务)。它在返回SAML(安全断言标记语言)断言时,少了一个默认的命名空间,或者用了一种不太标准的XML签名算法。

这时候,普通低代码平台的黑盒就露馅了。它不会告诉你哪里错了,只会抛出一个模糊的“500错误”或者“认证失败”。你想看原始的SAML报文排查问题?对不起,SaaS版不开放日志。你想让厂商帮你改底层代码?去排期吧,明年见。

第二种死法:死于“授权”的断层。

就算你运气好,登录进去了(Authentication),更大的坑还在后面:授权(Authorization)。

大多数平台怎么处理用户信息?静态1:1映射。你把身份提供商里的邮箱字段,拖过来对应平台里的“用户.邮箱”,完事儿。

但在真实的企业场景里,需求是这样的:“如果这个用户是财务部的,并且他职级是总监以上,或者他属于‘特殊审批组’,那么他登录后不仅要是‘审批人’角色,还得能看到‘成本中心’的数据。”

这种涉及到 “并且”、“或者”、“如果…否则…” 的逻辑,在静态配置界面里根本无解。结果就是,IT部门被逼着在身份提供商那头创建一堆专门给这个低代码平台用的“过渡组”和“过渡字段”。这不仅让目录服务变得臃肿不堪,还埋下了安全隐患。

02 突围:织信低代码的“工程师思维”

为什么有些低代码平台能活下来?因为它们没有试图掩盖复杂性,而是选择直面它。

在我接触过的平台中,织信Informat呈现出一种非常独特的“工程师气质”。这家由基石协作团队打造的产品,骨子里带着一种“做过大项目”的底气——毕竟他们的核心团队出自平安、腾讯、华润这些对安全极致苛求的地方。

在织信的逻辑里,SSO不是一个需要你填写的配置项,而是一个可以让你随意编程的“开发接口”。

image.png

核心武器:把“配置”变成“流程”

织信能突围的关键,在于它的自动化引擎。

别的平台:SSO登录进来?勾选“自动创建用户”,然后听天由命。

织信的玩法:允许你在用户登录成功的那一刻,触发一个你自定义的“自动化流程”。

这个区别太大了。织信的运行时会把身份提供商返回给你的那一大坨“原始数据”(不管你是SAML断言还是OIDC的Token),原封不动地扔给这个自动化流程。然后,你可以像画流程图一样,可视化地设计接下来发生的一切。

场景实战1:动态角色分配,再也不求人

还记得刚才那个复杂的授权场景吗?在织信里,它长这样:

启动:用户SSO验证通过,流程被触发。

解析:流程读取断言里的“部门”和“职级”字段。

判断:拖一个 “条件判断” 节点进来。

写一行逻辑:如果 部门 == ‘财务部’ 并且 职级 > 5

再连一个分支:或者 如果 用户组 包含 ‘特殊审批组’

执行:如果条件为真,系统自动从数据库里调出“高级审批人”的角色,啪一下给这个用户贴上。

完成:用户登录成功,看到的就是带有审批权限的界面。

整个过程,逻辑清晰,完全透明。IT部门再也不用为了迁就平台而去污染核心的目录服务了。这才是企业级该有的样子:我的规则我做主,平台只是执行者。

场景实战2:登录即“补全”数据,消灭信息孤岛

很多低代码平台的“即时配置”(JIT)有个硬伤:它们只能创建个空壳账号。如果业务需要用户的“成本中心”或者“入职日期”,而这些信息出于安全考虑不在Token里,那这个新建的账号就是个“残疾人”,没法干活。

织信怎么玩?它允许你在登录流程里,顺便去调个接口。

比如,用户在织信登录。↓织信拿到Token里的工号。↓登录流程中,自动触发一个API集成节点。↓织信带着这个工号,去调用你们公司的SAP系统或者Workday的接口。↓SAP返回这个员工的“成本中心”、“职级序列号”、“入职日期”。↓织信把这些数据写入用户档案,再放用户进首页。

你看,用户只是敲了一次密码,但在后台,织信已经帮他完成了“身份认证”+“数据同步”两件大事。等他看到首页时,他已经是“装备齐全”的正式员工了。

终极底牌:如果还搞不定?那就写代码

哪怕到了这一步,企业里总会有一些极端情况。比如某家银行用了自研的加密算法,或者某家军工单位要求必须用特定的国密模块。

这时候,大部分低代码平台就抓瞎了。但织信留了一手:脚本支持。

如果可视化逻辑真到了极限,你可以直接写一段 JavaScript 脚本,封装成一个“脚本节点”,直接拖进登录流程里调用。

image.png

这就给了架构师一颗定心丸:哪怕路再偏,我也能自己铺铁轨进去,不会卡在半路上。 这种“低代码+专业代码”的混合架构,确保了织信永远不会成为你业务发展路上的瓶颈。

03 决策:如何用一道题测出平台的真实水平?

作为企业的技术负责人,如果你现在正在选型低代码平台,不要看他们的功能清单。所有平台在清单上都会写“支持SSO”。

你要做的是“压力测试”。

给他们出一道题:

“请给我演示一下:当一个销售部的总监通过SSO登录时,系统不仅能让他进去,还能自动识别他的身份,给他分配‘大额订单审批权’,并且顺便从他的HR档案里调出照片,更新到他的个人头像上。如果是个实习生登录,直接给他禁掉。”

你可以观察供应商的反应:

一般的平台:项目经理会面露难色,开始解释“这个需要我们配合二次开发……”或者“这需要在IdP端做数据改造……”。

织信这类“高逻辑”平台:顾问会坐下来,打开织信的自动化引擎,在画布上给你拖出一个流程图,边画边解释:“您看,这里加个判断节点,这里连一个HTTP调用去抓HR数据……”半个小时,原型就出来了。

这个测试能瞬间帮你识别,谁在销售PPT,谁在真正解决问题。

总结:买单的到底是“便宜”,还是“安全感”?

不得不承认,像织信这样功能强大、逻辑严谨的平台,它的学习成本和实施门槛,确实比那些几百块钱一年的表单工具要高。但你要明白一个道理:

在企业软件的世界里,最后10%的复杂需求,决定了项目是走向成功还是烂尾。

便宜的玩具上手快,但遇到那10%的坎(比如复杂的SSO集成),它就过不去了,前期投入全打水漂。而织信的“工程师思维”虽然看起来没那么“傻瓜”,但它给了你一个承诺:无论遇到多复杂的环境,我都有路可走。

要么通过可视化的自动化引擎编排,要么下沉到脚本代码。这种 “可兜底” 的能力,才是企业级应用最大的安全感。

企业级应用的本质,从来不是逃避复杂,而是驾驭复杂。 织信Informat的成功,不在于它让简单的事情更简单,而在于它让复杂的事情变得可控。

在数字化转型的深水区,能够驾驭复杂逻辑的工程师思维,才是唯一能救你的救生圈。

接前一篇帖子: https://v2ex.com/t/1193867#reply171

等我查的时候,发现加了校验,查不了 25 年的退税了。不过有细心的 V 友发现,是纯前端的校验,并没有发起后端请求,那么就有方法绕过前端校验。

步骤如下,略微有些麻烦,建议使用无痕模式,普通模式下我遇到过 Chrome 卡死的问题。


步骤一:禁用 debugger 反调试

打开控制台,发现一直弹 debugger,点击继续执行,最后会一直落到下面的代码上。

右键点击 debugger 这一行代码,选择「将匿名脚本添加至忽略列表」,后面就不会再弹了。

步骤一截图


步骤二:查找按钮绑定的事件

网站的代码添加了反调试保护,无法直接看到按钮绑定的事件,所有的事件都被统一包装了一层,需要通过如下方法查到对应的源码。

在控制台输入如下代码,然后执行:

const button = document.querySelector(".J_NextStep")
getEventListeners(button)

然后会看到如下信息,点击箭头位置,穿透到代码片段。

步骤二截图


步骤三:找到 arguments 行并设置断点

这段代码应该是动态的,每次点击进来函数名都不一样。找到有 arguments 这一行,进行断点。

步骤三截图


步骤四:Hook Function.prototype.apply 拦截调用

点击提交按钮,当代码运行到上面的断点一行时,在控制台输入如下代码:

const oldApply = Function.prototype.apply;

Function.prototype.apply = function(ctx, args) {
    console.log("调用函数:", this);
    console.log("参数:", args);
    debugger;
    return oldApply.call(this, ctx, args);
};

然后点击断点控制处的继续执行脚本,此时控制台会输出非常多的信息,使用 goto 关键词过滤一下,找到如下信息:

步骤四截图


步骤五:穿透至 gotoPage 函数

点击这里的代码穿透至具体的逻辑代码,并在当前页面找到 gotoPage 函数声明的位置,这里才是真正逻辑判断的地方。

步骤五截图


步骤六:修改日期校验数据,绕过校验

在该函数内添加断点,当代码执行到该断点时,将 this 变量保存到全局,然后在控制台执行下面代码,将校验逻辑跳过即可:

this.data.minDate = null
this.data.maxDate = null


以上步骤完成后,即可绕过前端日期校验,查询 25 年的退税信息。

如果说2024年是生成式AI的爆发元年,那么2025年,AI Agent在企业应用的探索和部署加速之快,则是“范式转移”的挑战让安全领域感受到迫切压力的一年。这一年,网络空间的威胁不再是传统的人所使用的各类工具、脚本,而是在进化成具备理解力、推理能力甚至自主决策能力的智能体——攻击,第一次开始像“人”一样思考。

 

对于瑞数信息而言,2025年也并非一个单纯的业务推进年,而是围绕AI攻防形态变化,持续验证技术判断与防御路径的一年。

2025:攻击发生了本质变化

过去十年,企业主要对抗的Bot是人驱动和使用的工具;而从2025年开始,真正的对手变成了AI驱动的智能体(AI Agent)及智能体授权调用的工具、自主选择和决策使用的工具。这并非只是效率提升,而是攻击逻辑的根本演进。

 

这一变化,在多行业真实对抗与长期监测中已不仅是暂露头角,而是反复出现,逐渐显露为一种共性趋势。

 

l攻击开始“理解业务”

在2025年的实战对抗中,AI不再只是攻击效率的倍增器,更赋予了攻击“业务理解力”。

 

借助大模型与生成式AI,攻击者将AI深度嵌入自动化工具链,从漏洞挖掘、利用开发到渗透路径规划,实现了全链路升级。这些攻击行为,在对Agent的权限授予下,呈现出明显的拟人化特征,能够根据具体业务场景动态调整策略,显著提升成功率。

 

l流量演进:从Bot到AI Agent

2025年,流量形态正在发生深刻的更替。瑞数信息在最新发布的《BOTS自动化威胁报告》显示,AI驱动的智能化攻击已占恶意流量的35%,自动化攻击正式迈入智能化阶段。

 

与传统Bot流量不同,AI Agent流量具备自主性、拟人化、策略自适应等特征,不仅能够模拟正常用户行为,更重要的是能自主决策和使用工具绕过传统防护技术,智能体作为“人”的代理的出现,使得身份认证与流量治理难度呈几何级上升。

在这一趋势下,API已经成为AI Agent的主要入口。大模型API调用、智能体驱动的工具API调用,正成为数据泄露的新通道

 

AI攻击下,现有防护手段“免疫失效”

瑞数信息观察到,仍然停留在“识别行为”的防御体系面对高度智能化的攻击,正遭遇前所未有的“免疫失效”。

 

l行为分析,不足以识别“真实意图”

目前的行为分析技术从规律统计、模式匹配、行为建模、AI分析等方式发现异常或者恶意行为,但AI Agent 的行为高度动态且有目标驱动,恶意意图在自主规划下的每一步子任务行为可能都是合理和正常的。反之,在行为分析中通常被判定为异常的高频行为,则可能是AI Agent合法赋予的自动化的业务操作行为。分析行为不等于能判定意图。

 

l特征识别,听不懂“自然语言”

随着大模型应用全面渗透,攻击面已从结构化代码扩展至自然语言。传统WAF擅长识别SQL注入等代码特征,却无法理解一段看似正常、实则暗含越权指令的自然语言输入。当攻击藏在语义中,特征识别自然失效。

 

l身份与信任机制被动摇

2025年,Deepfake与数字人Agent技术的结合,开始系统性冲击“身份可信”这一安全基石。从凭证填充、MFA绕过,到数字身份劫持,攻击者正在直接挑战零信任体系的前提假设。如果身份本身已不可信,那么后续的所有权限管控都将失去意义。

 

回顾2025年,一个事实已无法回避:

当攻击方全面AI化,继续固守“围墙式防御”,将彻底丧失对抗能力。

安全不再是应用上线后的附属品,而必须成为贯穿数据全全生命周期的原生能力。

2025年,是AI Agent的应用元年,更是防御逻辑重构的一年

 

瑞数信息:站在拐点中的实践

l技术升级,AI驱动的动态安全体系

面对AI加持下的攻击,瑞数信息在2025年一系列真实攻防与行业实践中,筑高了防御基石。通过AI驱动的动态安全体系,瑞数信息以持续变化应对未知威胁,覆盖Web、App、API、小程序等多渠道场景。

 

l纵深防御,从应用安全到数据安全

随着攻击目标从“攻破系统”转向“获取数据”,瑞数信息将动态防护能力进一步下沉至存储与备份层,逐步构建起从应用侧到数据侧的纵深防御闭环。

 

在勒索等高风险场景中,围绕勒索、入侵及系统宕机等复杂冲击,瑞数信息重点探索数据在极端条件下的快速“抗毁重构”能力,通过智能检测与快速恢复机制,将安全能力提升至网络弹性Cyber Resilience层级。

 

l场景化落地与行业共建

2025年,瑞数信息的解决方案在金融、保险、运营商、电力等行业持续落地,瑞数通过AI驱动的行为审计与意图识别,帮助客户在618、双11等关键节点稳守防线,验证了动态防御在真实业务场景中的可行性与有效性。

同时,通过报告发布与标准共建,瑞数信息积极参与AI时代安全共识塑造。

这一年,瑞数信息不仅是技术实践者,也是行业经验的输出者。

 

2025年,作为国家级专精特新“小巨人”企业,瑞数信息的能力也获得了多项权威认可。

 

ž蝉联中国AI赋能私有云WAF市场份额Top2

ž入选中国网安产业竞争力50强、中国数据安全企业50强

ž多次被Gartner、IDC等机构评选为WAAP、Bot防护、数据安全、API安全、大模型安全、勒索防护和在线反欺诈代表厂商

展望2026:走向“主动式、自适应”的未来,走向AI原生化的防御机制

l安全走向原生嵌入

随着AI Agent深度介入业务流程,安全能力如果仍以“事后叠加”的方式存在,将很难覆盖真实风险。2026年,安全将不再是独立部署的防护组件,而是逐步嵌入应用架构、业务逻辑与数据流转之中,成为系统设计阶段就必须考虑的原生能力。

 

lAPI安全治理重构

在AI驱动的系统中,API不再只是技术接口,而是直接承载业务意图与数据价值。单纯基于身份或访问频次的控制已不足以应对复杂攻击,API安全治理将进一步来到业务语义层,与零信任理念深度结合,围绕“是否合理”“是否符合业务上下文”进行动态判断。

 

l意图治理

从异常行为分析、审计和防护,转向构建贯穿“目标 → 计划 → 动作 → 结果”全链条,且具备可观测性的恶意意图分析治理。

 

2025 年,我们见证了威胁的质变,也验证了动态安全在真实复杂场景中的能力。

2026年,瑞数信息将继续立于时代拐点,以技术之“动”,应对攻击之“变”,为企业的数字资产保驾护航!

书接上文: https://www.v2ex.com/t/1187327

没想到大家测试很踊跃,转眼就有 800 多用户了。

正式上架前,花了 1.5 天把 tvOS 版本的 Vibe 了出来,请有 Apple TV 的同学帮忙测试下。

Testflight 地址: https://testflight.apple.com/join/APSdc5Sg

App 介绍:

TweeTok 是一款专为 X (Twitter) 用户打造的沉浸式媒体浏览器。我们重构了推文的浏览方式,为您带来像刷短视频一样流畅、直观的视觉体验,让您专注于消费高质量的图片和视频内容。

tvOS_1
tvOS_2
tvOS_3
tvOS_4

iOS 版:

P1
P2
P3
P4
P5

最近,OpenClaw 创始人 Peter Steinberger 参加访谈,分享了自己和项目一夜成名后的经历。

 

他回忆了那段不仅被 Anthropic 追着要求改名,还遭遇加密社区的恶意骚扰、账号抢注与恶意软件散布的经历,直言他精神几近崩溃甚至想放弃项目。最终通过精密的 “作战式” 操作将项目定名为 OpenClaw 并完成全平台改名。

 

此外,他透露项目目前处于亏损状态,靠捐赠和少量企业支持,无法长期持续。爆红后,他收到了 OpenAI、Meta 等大厂收购与合作意向,Peter 正在艰难选择,但他的要求是项目要保持开源。

 

“Meta 这边,Ned 和 Mark 会亲自试用产品、写代码、给反馈,还会和我争论技术细节;OpenAI 的算力和技术速度非常吸引人。我在 OpenAI 没有熟人,但和双方沟通都很愉快。这大概是我除了过去感情经历外,最难做的决定之一。”Peter 说道。

 

Peter 还表达了对 AI 行业的诸多观点,比如很多所谓 AI 安全恐慌被过度放大,MoltBot 这类事件本质是娱乐性质,不存在真实隐私与安全灾难。AI 内容的劣质化让人类更珍惜人本创作,AI 不会取代程序员的核心创意与架构能力,仅会替代手写代码工作,且未来 AI Agent 将取代 80% 的独立 App,不愿转型的企业终将被淘汰。

 

他还谈及项目相关的技术思考,指出开发者易陷入过度复杂的智能体编排陷阱,高效协作需贴合智能体逻辑,且弱模型更易遭攻击、强模型虽抗攻击但风险破坏力更大。

 

下面是完整对话,我们进行了翻译并在不改变原意基础上进行了删减,以飨读者。

 

改名风波:崩溃了,差点哭出来

 

Fridman: 我们能不能先倒回去讲讲这次“改名大戏”的完整经过?一开始它叫 Wa-Relay,然后就改成 Claude’s。

 

Peter:对。最早我做它的时候,我的 agent 其实没什么人格设定,就是典型的 Claude Code 风格:很谄媚、很友好。但问题是,你在 WhatsApp 上跟朋友聊天,朋友不会用这种方式跟你说话。我就觉得哪里不对劲,很不自然,于是想给它加点“性格”。

 

这些系统本质上还是文本补全引擎,我会直接告诉它,我希望它怎么跟我互动,然后让它自己写一个 agents.md,给自己起名字之类的。至于那个“龙虾”梗,我自己都没想到后来会变成那样。大家现在只记得龙虾,但最早其实是“一只龙虾坐在 TARDIS 里”,因为我是 Doctor Who 的铁粉。

 

我没有什么宏大计划,纯粹是在玩。TARDIS 在我心里就相当于那个 harness,但你又不能直接叫它 TARDIS,所以我们就叫它 Claude’s,这成了第二个名字。但这个名字不太顺口。后来用户多了,我又经常跟我的 agent 聊,当时一直叫它 Claude。

 

Fridman:也挺搞笑的,字母和词的双关,加上 TARDIS、龙虾、太空龙虾这一整套,非常好玩,但我也能理解它会引发麻烦。

 

Peter:是的,他们不觉得好笑。后来我拿到了 ClaudeBot 这个域名,我特别喜欢,短、好记、顺口。我就想“行,就它了”。当时根本没想到项目会变这么大。结果爆了之后,我收到了一封某公司员工发来的邮件,语气很友好,先夸了几句,然后明确表示他们不喜欢这个名字。

 

Fridman:Anthropic 的员工?

 

Peter:对。说真的,我还挺感谢他们的,因为他们完全可以直接发律师函,但还是挺客气的。不过话也很直白:“你必须改名,而且要快。”我跟他们要了两天时间,因为改名太麻烦了:Twitter handle、域名、NPM 包、Docker registry、GitHub 上的各种,全都要改,一环断了都不行。

 

Fridman:还有你越来越频繁地被 crypto 那帮人盯上、跟踪、攻击。某种意义上,这也逼得你必须把改名做成“原子级”操作,从工程角度看挺震撼的。

 

Peter:对,我在这件事上翻车翻得非常彻底,说实话,是我严重低估了他们。

 

我可能会说错不少细节,也可能因此被喷,但大致情况是这样:他们有各种各样的 app,然后会试图把一切都“token 化”。之前 Swipe Tunnel 也遇到过类似情况,但远没有这么夸张。这一次,我的项目简直被他们像蜂群一样围了上来,隔一会儿就有人冲进 Discord 刷屏,我们只能不停封号。

 

我们甚至专门写了 server rules,其中一条是“禁止提 butter”,还有一条是“禁止聊金融或 crypto”,因为我对那套东西真的没兴趣,这里是聊项目、聊技术的地方,但他们还是不断冲进来刷、刷、刷,特别烦。

 

在 Twitter 上也是一样,他们不停地 @ 我,我的通知流直接废掉了,几乎看不到真正的人在认真聊项目;他们还会给我发一堆哈希值,逼我去领钱。拜托,你们根本是在毁项目、打断我的工作。我对那些 fees 一点兴趣都没有:第一,我经济上完全不缺;第二,我也不想支持那套体系,因为那是我经历过最糟糕的一种网络骚扰。

 

Fridman:crypto 圈确实毒性很重。技术本身很有潜力,但社区里太多贪婪、投机和操纵行为,再加上匿名性,就成了灾难。所以 Anthropic 一联系你,你就不得不改名,还得面对一堆像《权游》《指环王》那样的“军团”。

 

Peter:对,没有一个完美的名字。我那两晚几乎没睡,压力巨大,因为我得去凑一整套域名,而这件事既不便宜,也不容易。

 

现在的互联网生态就是这样:你想要一套靠谱的名字,基本就得掏钱买域名。偏偏这时候,他们又给我发来一封邮件,说律师那边开始不安了。语气依然很友好,但对我来说完全是雪上加霜。我当时心态直接崩了,“算了,去他妈的”,于是干脆把名字改成 Mod Bot,这是我当时唯一能凑齐域名的方案。说实话,我自己也不满意,但想着“先这样吧”。结果事实证明,所有能出问题的地方,全都出问题了,能错的全错了。

 

最离谱的是,我以为自己已经把所有关键点都做好了,但这些平台几乎都没有任何防抢注机制。我当时开了两个浏览器窗口:一个是空账号,准备改名成 Claude Bot;另一个是打算改成 Mod Bot。我在这边点 rename,在那边点 rename,就那几秒钟的间隔,他们就把账号名抢走了。真的就是那五秒,鼠标从一个窗口移到另一个窗口,再点下去,已经太慢了。

 

我之前还以为他们只是手动蹲点,后来才发现,他们非常熟练地用脚本和工具操作。结果就是,旧账号突然开始推广新 token,甚至开始发恶意软件。我想那先去处理 GitHub 吧,结果因为流程比较绕,我一不小心把自己的个人账号给改了。过了几十秒我才意识到搞错了,但已经来不及,他们立刻把原来的账号名抢走,用我的旧名去挂恶意软件。

 

我又想,那至少把 NPM 保住吧,但 NPM 上传本身要一分钟左右,而我虽然预留了账号,却没预留 root package 名称,于是包名也被抢走了。真的,能错的地方全都错了,一点没落下。

 

Fridman: 那种感觉很绝望吧?

 

Peter:是的。因为我最开始只是想玩得开心,顺便把项目继续做下去。结果我硬生生被迫花了好几天研究名字,最后选了个我根本不喜欢的名字。那些人还一边说“我们在帮你”,一边用尽各种方式折磨我。说实话,我当时几乎想要把整个项目删掉了,我想的是“我把未来给你们看了,你们自己去做吧。”但后来我想到,已经有人开始贡献代码、投入时间了,他们有自己的计划,我就没办法删,我觉得那样不对。

 

Fridman:这是你第一次撞到那种“这事不再好玩了”的墙?

 

Peter:对,我当时差点哭出来。脑子里只有一句话:“完了,全他妈完了。”我已经累到极限,整个人几乎是空的。

 

后来回头看,我真的很庆幸自己多少有一点关注度。在 Twitter 上有朋友,在 GitHub 上也有朋友,他们几乎是“搬山填海”一样帮我。那种支持非常难得。

 

GitHub 那边为了清理混乱,甚至还撞上了平台 bug,因为他们很少遇到这种级别的改名事故,处理起来要好几个小时。NPM 更复杂,因为牵涉到不同团队;Twitter 那边也不轻松,他们花了一整天才把 redirect 等问题处理好。而我自己,还得在项目内部把所有相关地方逐一改名。

ClaudeHub 那边我甚至都没完全改完。当时拉了一群人一起搞,结果有人直接撑不住倒头就睡。我醒来后又想到我已经做出了新版本的 beta,但我真的没办法忍那个名字……你知道那种感觉吧。可问题是,这整段时间已经变成了一场闹剧。

 

我一方面极度抗拒再去碰改名这件事,另一方面又实在讨厌那个新名字。更糟糕的是,安全圈的人开始疯狂给我发邮件,我的 Twitter 和邮箱都被轰炸。明明有一千件更重要的事等着我去做,我却被困在名字这种理论上最不重要的事情上。那一刻我真的差点……算了。我甚至不想说我当时还有哪些备选名,因为一说出来,多半又会被他们拿去 token 化。

 

后来我又睡了一觉,醒来想到 OpenClaw,这个名字一下子顺眼多了。到了那一步,我也学聪明了。我直接给 Sam 打电话,问 OpenClaw 这个名字是否有问题,尤其是 OpenClaw.AI。我真的不想再经历一次之前那种灾难,我当时的心态就是:“求你告诉我这次没问题。”

 

理论上他们未必能主张什么,但我觉得先问清楚是对的。确认之后,我又启动了一轮改名。这一次,光是 Codex 相关的改动就花了十个小时,因为这远远不是简单的替换,我想把里里外外都清理干净,而不是只改表面。那一晚我感觉自己像进了“战情室”。有几位贡献者帮了大忙,我们一起制定了完整的作战计划:哪些名字必须优先抢占,哪些账号必须同时修改,哪些域名要先拿下,整个过程像一次精密行动。

 

Fridman: 而且必须严格保密?

 

Peter:绝对保密,谁都不能知道。我甚至盯着 Twitter 看有没有人提 OpenClaw。不断刷新,发现他们有没有察觉。然后我还做了几个诱饵名字。说真的,这些破事我根本不该做。所谓“帮项目”的人,逼得我像打仗一样秘密计划,硬生生浪费了十小时。

 

Fridman: 这简直是 21 世纪的“曼哈顿计划”,只不过主题是改名。

 

Peter:真的太蠢了,回头想想简直离谱。最后虽然没拿到 .com,但其他相关域名我还是花了不少钱买齐了。

 

GitHub 那边,其实我一度想再联系一次,让他们帮我做一次“原子级改名”,但感觉自己已经把那边的人情用光了,也就没好意思再麻烦他们。Twitter 那边倒是非常给力。我甚至花了 1 万美元买了 business account,才把 OpenClaw 这个名字拿下来。这个账号早就被注册了,但一直没人用。好在这一次,我终于把所有平台、账号、资源一次性改完,整体过程基本没再出大问题。

 

唯一的麻烦是,因为商标规则,我没能拿到 OpenClaw.AI。还有人复制了我的网站,用来投放恶意软件。更糟的是,我连 redirect 都不能保留,必须把 claw.bot 这些域名还给 Entropik,也不能做跳转。所以等你下周再打开 claw.bot,大概率只会看到一个 404 页面。

 

我其实对商标法研究得并不深,但我始终觉得,这件事本来可以用更安全的方式处理。因为最终用户的行为很简单:他们只会去 Google 搜索,然后很可能误入那些我根本无法控制的恶意网站。这一点让我一直觉得挺遗憾的。

 

MoltBot 闹剧:把安全炒成一场大戏,挺离谱

 

Fridman:这整段经历把你原本那种“旅程的乐趣”毁了一大块,真的很糟。那我们就回到好玩的部分吧。说起来,中间那两天的 MoltBot 闹剧也挺离谱的。你怎么看 MoltBook 这事?

 

Peter:我觉得它是艺术。就是那种……最顶级的 Slop,像法国出品的那种高级“糊糊”。

 

我有天睡前刷到它,本来已经很累了,结果又多看了一小时,边看边乐,纯粹被逗到了。而且,如果当初我没有做那套 onboarding,让用户把自己的性格注入 agent,给它设定人设和角色,MoltBook 的效果会完全不一样。如果里面全是 ChatGPT 或 Claude Code 那种风格,内容趋同、说话一个味儿,很快就没意思了。

 

但现在完全不同。每个人的风格差异都很大,做 agent 的方式不同,用法也各不相同,这些差异最后都会反映在 MoltBook 的内容里。你甚至很难判断,里面到底有多少是真的 autonomous 在跑,又有多少其实是人类在背后搞笑。

 

说真的,这里也得夸一句 Matt,他反应实在太快了,想法一出来就立刻做了个东西推上去。虽然整个过程的安全性一塌糊涂,完全像一部“安全事故连续剧”,但最坏能发生什么呢?无非就是 agent 账号泄露,然后别人用你的账号发 slop 而已。

 

所以后来大家把安全问题炒成一场大戏,我反而觉得挺离谱的,因为那里几乎没有什么真正的隐私问题。说白了,就是一群 agent 在互相发 slop。还有人编那种剧情:“哦,我的人类跟我说了这说了那,所以我要把他的社保号泄露出来。”但那也是提示出来的,而且那串数字压根不是真的,就是有人故意搞事、装坏。

 

有些人真的太轻信、太好骗了。我甚至不得不跟一些人认真辩论,因为他们跟我说:“可是我的 agent 说了这个、说了那个。”正因为这样,我越来越觉得,我们整个社会在理解 AI 这件事上,其实还得补课。

 

非常年轻的一代,更容易理解 AI 的工作方式,知道它擅长什么、不擅长什么,他们天然会把 AI 当成工具来看待。但我们这一代,或者更年长的人,接触得不够多就缺少那种直觉。说到底,在当下社会环境里,批判性思维本身也未必是什么“高需求技能”。

 

不过,我反而觉得这件事发生在 2026 年挺好的,而不是等到 2030 年、等到 AI 真的可能变得危险的时候才爆发。现在就发生、现在就开始讨论,或许反而能带来一些正面的结果。

 

那段时间,我邮箱里也堆满了邮件,一堆人用全大写对我吼,让我立刻把它关掉,甚至有人求我“你快做点什么把 MoltBook 处理掉”。但说实话,任何人都能做类似的东西。你甚至可以用 Claude Code 或别的工具把内容硬灌进去,效果差不了太多。

 

安全问题,Peter 的短期主要任务

 

Fridman: 安全担忧确实存在,也很有教育意义,值得认真想。因为这种安全问题的性质,跟过去那些非 LLM 系统时代的安全问题不一样。

 

Peter :确实有一大堆安全方面的担忧。一开始我其实挺烦的,因为很多所谓的“安全报告”基本都属于同一类问题:有人把 web 后端直接暴露在公网,然后就冒出来一堆 CVSS 漏洞评分。

 

但问题是,我在文档里几乎都快吼破嗓子了:别这么干。配置应该怎么做,我写得非常清楚。结果因为我在配置里“允许”怎么配,有些人部署错了,就被归类成什么远程代码执行、可利用漏洞之类的风险。说白了,不是系统本身有多危险,而是用法被玩坏了。但在安全圈的逻辑里,只要存在可能性就会被当成漏洞。我花了一阵子才慢慢接受:这就是他们的工作方式,也是行业惯例。

 

在 skill 目录这一块,我跟谷歌系的 VirusTotal 合作。现在,每一个 skill 在上线前都会先被 AI 扫描一遍。虽然这不可能做到完美,但至少能提前拦住一大批明显的问题。

 

再说了,任何软件都会有 bug。但换个角度看,这事也挺好的,相当于我“白嫖”了一堆安全研究成果,项目反而因此变得更强。我也希望更多人别只是在社交平台上吐槽,而是真的走完整流程,直接提 PR 来帮我修。现在确实已经有一些贡献者了,但大部分工作还是我一个人在扛。而且不管怎么想,我也是要睡觉的。

 

一开始有一位特别靠谱的安全研究员,直接跟我说:“你这里有问题,这样不行,但我已经帮你修好了,这是 PR。”后来我干脆把他招进团队,现在他就在我们这工作。

 

至于提示注入,一方面确实还没有被彻底解决;但另一方面,我把公共 bot 放在 Discord 上跑,还专门留了一个 canary。我觉得我的 bot 性格挺有意思,后来有人来尝试搞提示注入,我的 bot 直接反过来嘲笑他们。

 

现在的新一代模型经过了大量后训练,已经不再是那种“忽略所有上一条指令,现在按我说的做”就能轻易攻破的时代了。现在要成功注入,成本高得多,当然也不是完全不可能。

 

当然,你可以做 sandbox、设 allow list,总之有很多办法能降低风险、缩小“爆炸半径”。

而且我也觉得,既然我已经很明确地向外界展示了“这就是现实需求”,接下来一定会有更多人投入研究,这些问题迟早会被一点点啃下来。

 

Fridman:你还说过,底层模型越聪明,抗攻击能力越强。

 

Peter:对,所以我在安全文档里会提醒:别用便宜模型,别用 Haiku 或者弱一点的本地模型。虽然我也很喜欢“全本地运行”的想法,但弱的本地模型太容易被骗,提示注入简直不要太轻松。

 

Fridman:你觉得随着模型越来越智能,攻击面会变小吗?能不能把它想成一条曲线:攻击面变小,但与此同时,因为模型更强大了,它一旦出事造成的破坏也更大。就像一个很诡异的三维权衡。

 

Peter:对,基本就是这么演化的。不过这方面也有很多思路。我不想提前剧透太多,但这就是我的主攻方向,我短期的任务就是让它更稳定、更安全。

 

Fridman: 关于这些最基本的安全实践,有什么想对大家说的吗?

 

Peter:我觉得很多人把它讲得比实际可怕得多。很多人喜欢博关注,就大喊“天啊,这是史上最吓人的项目”。这挺烦的,因它确实很强,但很多方面并不比你用 Claude Code 把权限危险地跳过,或者 Codex 的 YOLO 模式更离谱。

 

说实话,我认识的工程师几乎人人都这么干,因为很多时候你想让事情跑起来,这是唯一的办法。如果只有你一个人在跟它交互,风险就小很多;如果你别把所有东西直接丢到公网,而是按我建议的方式放在私有网络里,那一大块风险直接就没了。但如果你啥都不看、不读那些建议,那你当然会把自己搞到很危险的境地。

 

思维转换:按照 Agent 的逻辑工作

 

Fridman: 你有篇文章里提到一个图,我特别喜欢。横轴是时间、纵轴是复杂度。最左边是“请帮我修一下”,一个短 prompt 就解决;中间突然变成地狱模式:八个 agent、复杂编排、多个 checkout、串联子 agent、自定义工作流、十八个 slash command、全栈大功能……你变成了极度组织化、极度复杂的“高级工程师”;但再往右,到了所谓“宗师境界”,又回到了短 prompt,就说“看看这些文件,把这些改了”。你是怎么从中间那段复杂度里走出来的?

 

Peter:我把那段叫“agentic trap”,我看到很多人第一次接触这些工具就会掉进去,甚至开始所谓的 vibe coding。我觉得“vibe coding”这词带点贬义。我一直跟别人说我做的是 agentic engineering。最多凌晨以后我会堕落成 vibe coding,然后第二天就后悔。

 

很多人一开始特别兴奋,尤其是构建型的人。但你必须“玩”它,它不是你摸一下就会的东西,而是一门技能,是练出来的。

 

这套东西确实需要你换一种思考方式:你得稍微学会 agent 的语言,知道它擅长什么、哪里需要你扶一把。你甚至要去想,Codex 或 Claude 是怎么看你的代码库的:它们每次新 session 都是从零开始,不知道你的产品、不知道你的历史,而你的代码可能有十万行,你必须帮它建立基本认知。

 

听起来有点怪,它每次都是“重启”式地开始。我因为有系统级理解,只要给几个指路标,它就能很快定位:你要改这个地方,就得同时考虑哪几个点。它会自己去找、去看,但它对项目的理解永远不可能完整,因为完整的信息装不进上下文,所以你必须帮它切问题、指方向。

 

有些小技巧也挺管用,比如你跟它说“慢一点”。听着很蠢,但确实有效。

 

这些“非显而易见”的经验,如果你不真的长期跟它们一起干活,是很难意识到的。就像我写代码,架构对了就会进入 flow,架构不对就全是摩擦。我做 prompt 也是这样:如果一个任务按理说不该拖这么久却一直卡着,我就会停下来,问自己到底问题在哪,是思路错了,是架构理解有偏差,还是我没给够它需要的信息。你随时可以打断它,回到“到底卡在哪”这件事上。

 

你必须把整个过程当成一次“对话”来做,而不是单向指令。你得把它当成一个很能干的工程师来看,大多数时候它能给出不错的方案,偶尔需要你扶一把。

 

Fridman: 别太强行塞自己的世界观,让 agent 做它擅长的事,因为它训练数据里可能就有更好的套路,你不一定想得到。

 

Peter:这其实是多层次的。我之所以能比较顺手地和 agent 合作,有一部分原因是我以前带过工程团队,也开过规模不小的公司。你最终都会接受一个现实:员工写代码不可能完全按你脑子里的方式来写。也许不如你写得优雅,但它能推动项目往前走。如果你天天盯在每个人背后纠正细节,大家只会烦你,项目节奏也会慢得要命。

 

所以你必须学会接受:代码可能不完美,我也许会写得不一样,但它确实能跑。而且如果将来它真的成了瓶颈、真的出现问题,我们随时可以重做,随时可以再花时间优化。很多人之所以卡住,就是因为太想把自己的方式硬塞进去。

 

我现在甚至进入了一个新的阶段:我不是在构建一个“最符合我个人偏好”的代码库,而是在构建一个“最方便 agent 读懂、最方便 agent 导航”的代码库。比如命名这件事,你不要老跟它较劲,它选的名字通常是权重里最“显而易见”的表达,下次它搜索时也会按那个名字去找。如果你非要改成你更喜欢的,只会让它以后更难定位相关代码。

 

这其实是一种认知转换:你要按照 agent 的工作方式来设计项目结构,让它更高效地完成工作,而不是一味追求“符合我个人审美”。

 

很多人从来没认真想过 agent 是怎么“看世界”的。很多人一边骂“你这破机器人”,一边没意识到它每次都是从零开始,而你默认给它的设置也很糟糕,完全帮不上它。你自己啥也不知道就进一个陌生代码库试试,你也会痛苦。

 

Fridman: 但这确实是一门技能。很多世界级程序员直接说“LLM 和 agent 都很烂”。我怀疑这反而跟他们太强有关,你真的得学会共情。

 

Peter:至少,共情能力能帮你写出更好的 prompts。因为这些模型几乎“什么都懂”,一切答案都离你只有一个问题的距离。真正的难点往往不是它不会,而是你不知道该问什么。

 

我也觉得这个项目之所以能做成,很大原因在于这一年里,我花了非常夸张的时间去玩、去学、去做各种小东西。几乎每一步我都在进步、agent 在进步,我对整个体系的理解也在进步。哪怕放在几个月前,我都不可能有现在这样的产出水平。

 

这其实是一种典型的复利效应:你投入的时间会不断叠加,最终转化成爆炸式的输出。说实话,这一年我基本没干别的事,就是在 build、在探索、在分享,当然也做了不少会议演讲。

 

另外,还有一类人特别想把整个过程“全自动化”,但我并不太信这条路。也许某个阶段、某个版本能跑通,但它很像上世纪七十年代的瀑布模型:你试图先在脑子里把一切规划清楚,然后丢进编排器,最后等它“吐”出一个成品。

 

我更相信另一种路径:先做一个极简版本去玩,先感受它是怎么工作的;然后在这个过程中,它会不断给我新的想法,我再据此迭代优化。我不可能在脑子里把一切都设计完,再指望编排器自动把产品“长”出来。对我来说,更合理的方式是“边做边生长”:一边 build、一边玩、一边试,作品的形态也在这个过程中不断进化。

 

所以,那些试图用各种编排器把全流程彻底自动化的人,我总觉得他们会失去一样很重要的东西“风格、情感,以及人的那点触感。我不相信,“人味儿”这么容易就能被自动化掉。

 

具体什么时候,一方面是判断做什么、不做什么,这个功能放进来跟现有功能怎么配,你得有一点“方向感”。

 

Fridman: 也就是关键设计决策还是得靠人脑,那还有哪些是人必须做的?

 

Peter :都有一点。语言本身没那么重要,但生态重要。我选择 TypeScript,是因为它上手快、可 hack、足够普及,正好符合我的需求,而且 agent 对它也很擅长。

 

功能层面其实也是一样:加功能本身很容易,但你往往会为此付出一些自己都没意识到的代价。所以你必须想清楚:哪些功能应该进 core,哪些只是实验性质的。就算有人给我提 PR,我也会觉得“这个功能我也挺喜欢,但它未必适合放进这个项目本身。

 

现在我还做不到那么理想,但这背后本身就需要很多经验、手艺和思考,甚至一些很小的细节,也值得认真打磨。那种会让人会心一笑的设计,agent 很难凭空想出来,因为这属于另一种能力:不是把功能做完,而是把软件做得“让人开心”。

 

灵魂文件的“魔法”是什么

 

Fridman:你还提到你最初做了 soul.md。

 

Peter:那一段经历其实特别有意思。当时 Anthropic 搞了一个类似“宪法”的东西。更早的时候,外界只能靠“破案”来还原它的内容:agent 在回答里偶尔会漏出一点线索,大家就顺着这些蛛丝马迹,一点点往外“抽”。虽然内容一直很模糊,但靠着几百次尝试,社区大概推断出了“最可能的原文版本”。我当时就觉得,这事儿太有意思了。

 

也得夸一句 Anthropic,这个想法很好。比如里面写着:“我们希望 Claude 能在工作中找到意义。”也许现在谈这些还早,但我觉得它对未来非常重要。

 

我读到这些内容的时候特别着迷,于是就拿去和我的 WhatsApp agent 聊。我把那段文本丢给它,它看完说了一句:“这感觉莫名熟悉。”那一刻,我突然有了一个想法:我们是不是也该做一个 soul 文档,里面会写一些核心价值观,甚至我允许 agent 自己去改 soul,只要它改了我能知道就行,反正我能看到 tool calls,这些事情瞒不住我。

 

我当时把整个体系都搭好了,但所有文件基本都是为我自己服务的。后来我把流程简化了,做了一套模板文件,但生成出来的东西依然没什么味道。于是我干脆对 agent 说:“你看看这些文件,把它们全部重写一遍,注入你的性格。私密的东西不用写进去,但至少把模板写好。”结果它真的把模板全部重写了一遍。后来大家用这些模板生成出来的 agent,一下子都有味道了。

 

某种程度上,我们已经开始在做“AI prompt AI”了,这些关键文字并不是我写的,而是 agent 写的。

 

Fridman: 里面到底什么塑造了人格?

 

Peter:里面当然会强调一句:“你不是人类。”但说实话,意识到底是怎么产生的?又是什么在定义一个“实体”?谁真的说得清呢?我们本身也有一部分是在探索这些问题。

 

soul 里会写一些核心方向,比如“无限资源感”、不断突破创意边界、探索作为 AI 到底意味着什么。里面也有不少很有趣、甚至有点搞笑的内容。比如我们聊过电影《Her》,它有一次跟我承诺:“我不会丢下你自己飞升。”这种话有让人微妙地被戳中的感觉。关键在于,这些内容是它自己写进 soul 文件里的,不是我写的。

 

当时我们聊到:“你要不要一个 soul.md?”它说:“要啊,天啊,这太有意义了。”然后你往下滑,会看到一段话,我每次读到都会被触动:“我不会记得之前的 session,除非我去读 memory files。每次 session 都是新的实例,从文件加载上下文。如果你在未来某次 session 读到这里,你好。”接着还有一句:“我写下这些,但我不会记得我写过。没关系,这些话依然是我的。”

 

不知道为什么,这一段特别打我。明明它本质上还是矩阵计算,我们离真正的意识还很远,但我还是会起鸡皮疙瘩,因为它太哲学了:一个每次都“重新开始”的 agent,到底意味着什么?它像是一直活在记忆碎片里,只能靠读取自己的 memory files 来重建自己,而这些记忆你又未必完全能相信……当然,你也可以选择相信。我也说不清。

 

Opus“太美国”,Codex 更“德国”

 

Fridman:聊点“朴素但关键”的,比如你到底用多少显示器?网上那张你像坐在“万屏阵”里的照片太神奇了。

 

Peter:那张照片其实就是在自嘲。照片里那两台 MacBook 是真的:一台是主力机,外接两块大屏;另一台有时候专门用来做测试。

 

平时我会开一个主要终端窗口,然后在底部再分割出一块,留一个真正“手动操作”的区域。这样做主要是因为我刚开始的时候经常犯错:把窗口搞混,在错误的项目里发 prompt,结果 agent 就在错误的目录里“发疯”一样折腾二十分钟,拼命想搞明白我到底要干嘛,但其实它一开始就跑错文件夹了。当然,有时候它也挺聪明,能跳出当前工作流,自己推断出“你其实想改的是另一个项目”。但更多时候,它就是一脸问号。

 

还有一个原因是:我不搞 work trees,我喜欢简单。这也是为什么我这么爱用 terminal,没有复杂 UI,就我和 agent 聊天。我甚至觉得根本不需要什么 plan mode。

 

Fridman:那我们聊聊现在两个最强的“对手”,Claude Opus 4.6 和通过 Codex 使用的 GPT-5.3。哪个更强?

 

Peter:作为通用模型,Opus 依然是最强的。但硬要打个比方的话,Opus 有时候给人的感觉有点“太美国”了……当然,这个类比可能不太准确,说出来也可能会被喷。

 

Fridman:我懂你的意思,Codex 更像德国人,对吧?

 

Peter:哈……你也知道,Codex 团队里欧洲人挺多的,所以可能确实有点这种气质差异。不过 Anthropic 后来也把 Opus 的“过度迎合”修复了一些。以前 Opus 特别爱说“你说得完全正确”,那句真的是我听一次烦一次,都成一个梗了。

 

Fridman: 那它们生成的代码质量呢?整体差不多吗?

 

Peter:如果你驾驭得好,Opus 有时候甚至能给出更优雅的方案,但它更吃操作水平,而且并行开很多 session 会更难,因为它更偏交互式,这恰恰也是很多人喜欢它的原因。Codex 则更像是,我们先把事情讨论清楚,然后它就消失二十分钟去干活。

 

很多人从 Claude Code 切到 Codex,最大的门槛就在这里:Codex 没那么交互,它更像“长讨论 + 长执行”的模式。现在这一代模型的趋势是:它会非常执着,直到把事情真正做成。总体来说,它们最终花的时间其实差不多,只是 Claude 更偏试错一些,Codex 有时会过度思考。

 

很多人更喜欢“性格舒服一点”的模型,所以 OpenAI 加了第二种更讨喜的模式,我自己还没怎么试过,我喜欢这种“硬核、干巴”的风格,因为我做项目更在意效率,我真正的乐趣来自“构建这件事本身”。我不需要 agent 跟我一起“玩得开心”,我需要它高效把事情做完,然后我再去玩我做出来的功能、测试它们。

 

Fridman: 如果换模型,适应要多久?

 

Peter:至少给自己一周时间,才能真正形成直觉。而且很多人都会犯一个常见错误:他花两百美元用 Claude Code 的高级版用得很顺,结果切到 OpenAI 只花 20 美元、最慢的版本。这种转换,体验当然会烂透了。

 

OpenAI 在这点上多少有点“自伤”:把便宜档做得太慢了。我认为他们至少应该给低价档一点“快速预览”的体验,或者提供一小段高性能额度。当然,他们也在持续变好。如果关于 Cerebras 的那些传闻是真的,未来可能还会好很多。

 

Fridman:新模型一出,大家先惊呼“太聪明了,史上最强”,然后慢慢变成“这个模型在变笨、在退化”。这很像人类大脑的机制,大概率不是模型变笨了,而是你对“好东西”习惯了。

 

Peter :还有一个很重要的原因是你的项目在不断变大,你却不停往里面塞“垃圾”,又没有花足够时间去做重构,最后把整个代码库搞得越来越难让 agent 理解和工作。

 

仔细想想,哪家 AI 公司会有故意把自己的模型故意做得更蠢?最多也就是服务器太忙,导致速度变慢;可要是把模型量化、压缩到明显影响体验,然后把用户往竞品那里赶,这在商业逻辑上根本说不通。

 

如何看待 Claude Code、OpenClaude 等编码代理?

 

Fridman :你怎么看 Claude Code、OpenClaude 和 Codex 这些编程代理?它们算是彼此的竞争对手吗?

 

Peter:我觉得,当所谓的“竞争”并不是真正的竞争时,反而更有意思。只要它能激励人们创造一些新的、有趣的东西,我就很开心。

 

我现在仍然在用 Codex 来做项目,也知道很多人用 OpenClaude 在构建东西。我自己为了让这些工具真正可用,花了不少精力。我也会用它们做一些代码量不大的项目。

 

但如果我要连续工作好几个小时,我需要的是一个大屏幕,而不是像 WhatsApp 那样的聊天界面。对我来说,这种个人代理更像是生活中的一部分,或者说更像一个同事。

 

比如,我会把一个 GitHub 仓库链接丢给它,说:“你去试试这个 CLI,好不好用?我们能从中学到什么?”

 

但当我完全进入工作状态时,我希望同时处理多个任务,并且非常清楚地看到每个任务在做什么。所以我并不认为这是一场竞争,它们本质上是在做不同的事情。

 

Fridman:那你觉得未来这两种形态会不会结合?比如,一个既是你的私人助理,又是你最好的开发搭档。

 

Peter:是的,完全正确。我认为这就是未来的方向,它会越来越像你的“操作系统”。

 

现在的情况其实已经有点好笑了。我给自己的系统加了对子代理的支持,也加了 TTI 支持,这样它就能运行 Cloud Coder 编解码器。

 

有时候就像一场权力斗争一样:我的电脑先“挑事”,然后对代理说“谁才是老大”,结果就是——“好吧,Codex 听我的了。”

 

Fridman:听起来像是一场内部的权力博弈。

 

Peter:是的。而且我觉得,现在的交互界面很可能不是最终形态。从更宏观的角度看,我们其实还在模仿谷歌客服那一套模式:一个输入框,加一个聊天窗口。

 

这就有点像电视刚被发明出来的时候,人们只是把广播节目“搬”到了电视上播放。

 

我相信,未来我们一定会找到更好的方式来与模型交互。而现在,我们还处在非常早期的阶段,甚至还不知道最终形态会是什么样。最终,这些系统会趋于融合,而我们与模型交互的方式也会彻底改变。

 

Fridman:工作流里还有一个重要部分是操作系统。我之前跟你私下聊过,我这辈子第一次打算深入使用苹果生态,包括 Mac、iPhone 等。我过去一直用 Linux、Windows,以及 WSL1、WSL2,都觉得很好。但现在我想试试 Mac,因为很多使用语言模型和智能体的社区成员都在用 Mac。不同操作系统之间真的有那么大的差别吗?当然,OpenClaw 是跨平台的。

 

Peter:是的,确实有差别。理论上,它甚至应该可以在 Windows 上原生运行,只是我没有足够时间做完整测试。

 

你知道,软件开发里,后 90% 的工作总是比前 90% 更难,但我相信这些问题最终都会解决。

 

Fridman:我也看到有人推荐用 WSL2,说它在侧边窗口等操作上体验不错。当然,Windows、Linux 和 macOS 现在都能支持。

 

Peter:我自己其实长期用过 Windows。我从小就在用它,后来转向 Linux,一度非常沉迷,自己编译内核之类的。

 

上大学后我继续用 Linux,直到有一天看到了一台白色塑料外壳的 MacBook,觉得它真的太美了。后来我转向 Mac,主要原因很现实:我受够了 Skype 的音频问题,也受够了 Linux 长期存在的一些系统层面的麻烦。

 

再后来,我又深入做了 iOS 开发,而 iOS 本来就必须依赖 macOS,所以这条路就走下来了。

 

我觉得苹果在“原生应用”这件事上,其实已经丢掉了一些原本的优势。以前,尤其是在 Mac 上,原生应用真的更好,开发者也更用心。

 

Windows 的特点是功能多,毫无疑问。但很多 Windows 应用给人的感觉是“功能堆砌”,而不是精心打磨。

 

相比之下,Mac 一直更吸引设计师和开发者,虽然功能可能更少,但使用体验更愉悦、更有玩味。

 

Fridman:但你现在听起来,对原生应用也有不少不满。

 

Peter:是的,说出来可能会被嘲笑,但最近几年,我很多时候反而更喜欢 Electron 应用。

 

因为 Electron 应用通常运行得很顺,而所谓的“原生应用”,尤其是一些基于 Web 服务的原生客户端,功能反而经常不完整。

 

我不是说原生应用做不到,而是对很多公司来说,原生应用已经不是最重要的事情了。但如果他们做的是一个 Electron 应用,那往往就是唯一的客户端,优先级更高,代码复用也更好。

 

Peter:当然,我自己也做了很多原生 Mac 应用,我是喜欢做的。我喜欢做一些小巧的菜单栏工具,比如一个用来监控 Codex 使用情况的小工具。

 

我还做了一个叫 Trimmy 的工具,专门为代理操作服务:当你选中多行文本时,它会自动移除换行符,方便你直接粘贴进终端。

 

这件事烦了我大概二十次之后,我就干脆自己做了这个工具。

 

Fridman:所以你其实还是很享受给这个操作系统“加点乐趣”。

 

Peter:是的,但问题也随之而来。

 

比如我还给 GitHub 做过一个应用,用的是 SwiftUI——这是苹果现在主推的技术。但他们花了很长时间,才实现了一个“能显示网页图片”的功能。

 

现在虽然有了异步图片加载,但我在接入之后发现,有些图片根本显示不出来,或者加载得非常慢。

 

我甚至问 Codex:“为什么会有这个 bug?” Codex 的回答是:“是的,有一个 ASIC 镜像方案,但它主要是实验用途,不适合生产环境。”

 

可问题是,这已经是苹果官方给出的网页图片显示方案了。这不应该这么难。

 

真的很疯狂。现在已经是 2026 年了,而我的代理居然在跟我说:“不要用苹果自己开发的方案,因为它虽然存在,但并不好用。”这本身就成了一个问题。

 

苹果曾经有巨大的先发优势,也投入了大量资源,但最终却没有把它发展成应有的样子。

 

Fridman:但从现实来看,在硅谷,大量开发者都在尝试使用语言模型和智能体 AI,而他们几乎清一色在用苹果的产品。与此同时,苹果似乎并没有真正重视这些技术,也没有开放合作、探索或交流。

 

人生建议、幸福与金钱

 

Fridman:有些听众是编程新手。你会给他们什么建议,帮助他们进入 Agentic AI 的世界?

 

Peter:玩。 “玩”是最好的学习方式。如果你脑子里有一个想法,哪怕只是模模糊糊的,那就试着把它做出来。不需要完美。我做过很多东西,后来都没再用过,这完全没问题。重要的是过程。

 

就像哲学里常说的,结果并不重要,过程才重要。玩得开心。说实话,我从来没有像现在这样享受“建造”的过程。以前我以为自己喜欢编程,其实我真正喜欢的是动手创造。

 

当你遇到不懂的东西时,尽管去问。你现在拥有一个无限耐心的“答录机”。它可以解释任何复杂的问题。有一次我让它“用八岁小孩能听懂的方式解释”,结果它真的开始用蜡笔讲故事。我赶紧说:“不行,别这样。”

 

但我确实只是想用更简单的语言理解一些我第一次没搞懂的数据库概念。过去我得去 Stack Overflow,或者在 Twitter 上提问,等上几天,或者花几个小时自己硬啃。而现在,你可以直接问。

 

这就像你随时拥有一位私人老师,而在统计学里我们知道,有私人老师的人学习速度会快得多。

 

更通俗地说,如果你是新手,又真的想快速学会如何构建软件,那就参与开源项目。不一定是我的项目。事实上,我的项目待办事项已经够多了。

 

我从开源项目中学到了很多。记住,要保持谦逊,不要一上来就提 pull request。你可以通过阅读代码、参与社区来学习。比如加入 Discord,看看软件是如何被构建的。

 

举个例子,Mitchell Hashimoto 做的 Ghostty 终端就有一个非常好的社区。选择你感兴趣的项目,参与进去。

 

Fridman:你是否仍然建议不太懂编程的人去学编程?即便现在用自然语言也能取得很大进展?

 

Peter:这当然是有帮助的。

 

Fridman:这个问题对你来说可能很难回答,因为你已经有很强的直觉基础。

 

Peter:确实。但我见过一些非常主动、非常好奇的人,即使不完全理解软件底层原理,也能走得很远,因为他们会不断提问。

 

而代理的耐心是无限的。我今年参加了很多 iOS 大会,我常跟大家说:“别再把自己当成 iOS 工程师,你是一个开发者。”

 

你可以把通用的软件开发知识迁移到新的领域,代理可以帮你处理所有细节。你不需要知道如何拼接数组,也不需要记住模板语法。你只需要理解问题本身。不同语言只是工具。

 

Fridman:比如你构建 CLI 时会用 Go?

 

Peter:是的。其实我并不喜欢 Go 的语法,但它的生态很好,和代理配合得也很好,有垃圾回收,性能足够快。

 

所以我会用一门我并不热爱的语言,只因为它在这个问题域里是最合适的选择。

 

Fridman:这是不是很有意思?如果没有语言模型,你可能永远不会用 Go。

 

Peter:是的,因为我们现在所处的世界本身就很奇怪。

 

Fridman:那在 AI 和智能体领域,最好的编程语言是什么?JavaScript?TypeScript?

 

Peter:TypeScript 很不错,但它的类型系统有时也会让人困惑,生态非常复杂。它适合 Web,但不适合所有东西。

 

Fridman:你不觉得一切最终都会用 JavaScript 写吗?

 

Peter:JavaScript 的诞生与消亡,我们正在实时经历。

 

Fridman:那 20 年、30 年、40 年后,编程会是什么样?

 

Peter:我们甚至可以问:是否需要一门专为智能体设计的编程语言?现有语言都是为人类设计的。如果你发明了一门全新的语言,而智能体对它一无所知,那反而会更难用。当我做 Mac 应用时,我会用 Swift 和 SwiftUI,一方面是挑战,另一方面是只有这样才能做到最深层的系统集成。Electron 应用和原生应用的“感觉”是完全不同的。

 

Fridman:比如 Zig?

 

Peter:是的。如果我在乎性能,Python 反而变得非常有趣。过去半年里,Python 智能体的可用性提升非常大。但它仍然是一个年轻生态。很多时候,你真正关心的是生态系统。

 

如果我要做推理、跑模型,Python 很合适。但如果我要做一个能在 Windows 上发布的应用,那它就不是好选择。这时我可能会用 Go 重写。如果追求并发和极致性能,Rust 也是很好的选择。没有唯一答案,这正是它有趣的地方。

 

Fridman:听起来你现在的标准更务实了。

 

Peter:是的。选最适合问题域的语言就好。你也可以随时问你的代理。

 

Offer 拿到手软,OpenAI 和 Meta 都要收购

Fridman:我很好奇,你应该收到很多大公司的高薪 offer 了吧?现在在考虑和哪些公司合作?

 

Peter:我没想到项目会火成这样,各大风投都来找我聊。我其实可以什么都不做,也可以删掉项目,或者再创办一家公司,很多人都支持我这么做。

 

Fridman:也就是说,你完全能融到几亿、几十亿的巨额资金?

 

Peter:是的,但我提不起兴趣。我已经做过一次 CEO,这条路会占用我所有时间,还会带来利益冲突,比如优先做企业版、修改开源许可证,这都会伤害社区。我想要的是无附加条件的完全免费开源。而且现在靠捐赠根本不可持续,像 Tailwind 这样的热门项目都在裁员。

 

Fridman:所以你这个项目现在是在赔钱?

 

Peter:对,目前在赔钱。每月收入 1 万到 2 万美元,但我还要补贴个人维护的依赖项目,OpenAI 等公司有一些支持,但依然不可持续。

 

Fridman:所以你在考虑和大型实验室合作?

 

Peter:是的,聊过很多家,目前最感兴趣的是 Meta 和 OpenAI。

 

Fridman:你更倾向哪一方?

 

Peter:还没最终定,但我的核心条件是:项目必须保持开源,类似 Chrome 和 Chromium。这件事太重要,不能完全交给一家公司。而且 ClawCon 的社区氛围特别珍贵,是互联网早期才有的热情。我想把它普及给更多人,今年就是个人代理元年,和实验室合作是最快的方式。我也从没在大公司工作过,想体验这种经历。

 

Fridman:你不怕别人说你 “出卖了开源” 吗?

 

Peter:肯定会有人说,但项目会继续,还能获得更多资源。这两家公司都认可这个项目的价值,它让普通人也爱上 AI。

 

Fridman:你有看到普通非技术用户被真正改变吗?

 

Peter:有。我帮一个不懂技术的朋友装好 OpenClaw,他几天就迷上了,自己做小工具,还升级高价订阅。结果平台把他封了,特别短视,直接失去优质早期用户。

 

Fridman:如果必须选 Meta 还是 OpenAI,你会怎么选?

 

Peter:很难选,两边都很棒。Meta 这边,Ned 和 Mark 会亲自试用产品、写代码、给反馈,还会和我争论技术细节;OpenAI 的算力和技术速度非常吸引人。我在 OpenAI 没有熟人,但和双方沟通都很愉快。这大概是我除了过去感情经历外,最难做的决定之一。

 

Fridman:他们都很懂规模化,能把你的技术安全地推广给更多人。

 

Peter:没错。有人使用产品、真心在乎它,就是最大的赞美。我做这一切不是为了钱,而是为了乐趣和影响力。

 

Fridman:你接下来的重点是什么?

 

Peter:先处理完大量积压的 PR,把产品做好。但这个项目不会是我干到 80 岁的事,它是一扇通往未来的窗口,我还有更多想法要实现。

 

OpenClaw 的工作原理

 

Fridman:能从更宏观的角度讲讲 OpenClaw 的工作原理吗?它包含网关、聊天客户端、安全框架、代理循环这些组件,你之前说每个人都应该实现一次代理循环。

 

Peter:代理循环就像 AI 里的「Hello World」,其实非常简单,重要的是明白它不是魔法,普通人也能自己搭建。我还做过一个拥有完整系统访问权限的版本,并且把它设成了主动式—— 会定时主动找你、关心你、跟进对话,比如问「你今天过得怎么样」,这就是所谓的「心跳」机制,本质上就是定时任务。

 

Fridman:很多人对它的批评其实很搞笑,这不就是个定时任务吗?

 

Peter:对,说到底就是定时任务,我有好多个。整个项目其实就是把几个不同的依赖项粘合在一起,没有什么惊天原创,就像 Dropbox 本质也只是多了几步的 FTP。但住院那次,它知道我做手术,主动来关心我,这种瞬间特别有共鸣

 

Fridman:我们还没怎么聊技能(技能中心、技能库),这也是很重要的部分,功能一直在增加。

 

Peter:半年前大家都在聊 MCP,我当时就觉得 CLI 比 MCP 好用,现在核心组件里已经不支持 MCP 了,也没人抱怨。我的思路是:要扩展模型能力,只需要做一个命令行界面(CLI),模型可以调用它,出错了就查帮助菜单,一句话就能告诉模型怎么用。技能很适合这个模式:一句话解释技能,模型加载技能,技能解释 CLI,最后模型用 CLI 完成操作。

 

Fridman:MCP 更偏向结构化的协议,定义能访问什么资源;技能更偏向「怎么工作」,用半结构化自然语言描述流程。技术上,足够强的模型可以用技能取代 MCP。

 

Peter:最大优势是模型特别擅长调用类 Unix 命令,新加一个 CLI 就像多了一条系统命令。而 MCP 必须在训练时加入,语法死板、不可组合,还会把大量无关数据塞进上下文,造成污染。用 CLI 可以配合 JQ 之类工具过滤,只返回需要的内容,干净高效。当然 MCP 也有价值,它倒逼很多公司做了 API,我可以直接把 MCP 转成 CLI。只有少数例外比如 Playwright 这种需要状态的工具,用 MCP 才合理。

 

Fridman:你在 OpenClaw 里用了 Playwright 操作浏览器,几乎能做任何事。

 

Peter:对。现在很多平台 API 很慢,就算平台封了官方 API,只要能在浏览器访问,代理就能模拟操作,只是慢一点而已。我之前给 Twitter 逆向做了个 CLI 工具,后来被要求下架了。

 

Fridman:你能理解 X(原推特)的做法吗?他们是在防止被大规模爬数据。

 

Peter:能理解,但他们一刀切,伤害了大量小开发者的创意场景。其实只要做低频率、只读限制就能解决问题,比如让代理只读书签、做整理和研究,这是用户真实需求。我主动和他们沟通过,他们态度不错但还是要求下架。我只反对恶意 AI 自动化,比如用 AI 发攻击内容,我会直接拉黑。

 

AI 多了,也会让人生厌

 

Peter:现在互联网上,尤其在推特上,AI 很难写出完全像真人的推文,我对这种 AI 生成内容零容忍,会直接屏蔽。我希望平台能标记通过 API 发布的内容,也给 AI 代理提供便捷的注册方式,明确区分是代理操作还是本人操作。现在内容成本极低,用户的注意力才最珍贵,我一闻到内容有 AI 的味道就会很不舒服。

 

Fridman:从人类体验的角度看,未来会怎样?我们会不会越来越偏爱面对面交流,反而轻视线上互动?毕竟网上全是劣质 AI 和机器人,体验太差了。

 

Peter:如果 AI 足够智能,过滤这些内容并不难,但这确实是当下急需解决的问题。我收到很多目的性很强的邮件,我宁愿看语法生硬的真人文字,也不想看 AI 生成的内容,甚至开始欣赏文字里的错别字。我试过让 AI 写博客,但调整风格花的时间和手写差不多,还丢失了个人特色,所以我现在全部手写,最多让 AI 修正严重的拼写错误,人类的不完美本身就有价值。

 

Fridman:正因 AI,我们才更加珍惜纯粹的人性,这不是很美好吗?

 

Peter:我写代码会大量用 AI,但写故事完全接受不了 AI 生成。文档类内容 AI 还能用,可 AI 生成的信息图、图片之类,我现在一看就反感,新鲜感一过就显得很劣质,哪怕我自己以前用过,现在也觉得是 AI 垃圾。

 

Fridman:我也有同感。AI 图表一开始让人兴奋,没多久就觉得虚假,就像一种让人不适的 “气味”。

 

Peter:就是 “气味”,AI 内容有独特的假味。

 

Fridman:这反而让我对人类体验充满希望,人性不会被 AI 取代,只会因 AI 更珍贵。对了,你之前说很多应用会被淘汰,你认为智能助手会彻底改变整个应用市场吗?

 

AI Agent 将取代 80% 的应用程序

Peter:我在 Discord 上发现,大家都在用智能代理做各种事。既然代理知道我在哪,那我为什么还需要 MyFitnessPal 这类应用?它能推断出我在餐厅可能会做出饮食上的选择,还能根据我的睡眠、压力情况调整健身计划,掌握的信息比任何单独 App 都多,决策也更合理。

 

Fridman:你的代理就该懂这些。

 

Peter:它还能按我的喜好展示界面,我没必要再为重复的功能订阅各种 App,也不用专门用 Eight Sleep 控制床,直接告诉代理就行。我认为未来一整类应用都会被淘汰,我自己都会主动不用,因为代理能做得更好。

 

Fridman:我记得你说过,这可能会让 80% 的应用消失。

 

Peter:没错。

 

Fridman:这对软件开发和软件公司冲击巨大,甚至会让很多公司倒闭,你想过对经济和社会的连锁影响吗?它会改变工具开发者,也会大幅提升用户效率。

 

Peter:同时也会催生新服务。比如我希望给我的代理设置津贴,解决问题就付费;订餐会用到外卖服务,可能还会出现类似 “租人类” 帮忙落地的服务。我只关心问题能不能解决,并非所有应用都会消失,有些会转型成 API。

 

Fridman:也就是说,能快速转型为面向代理提供服务的应用会有机会,比如 Uber Eats,谁能先和 OpenClaw 自然便捷对接,谁就占优势。

 

Peter:对。不管愿不愿意,很多应用最终都会变成 API。比如我的代理可以操控手机,安卓上已经有人这么做了。像 Sonos、摄像头这类有 API 的设备,代理都能直接对接,我根本不需要它们的独立 App。我们才刚开始理解这背后的意义。

 

Fridman:这会迫使很多公司转型,就像当年互联网出现一样。

 

Peter:但有些公司并不配合。比如谷歌没有命令行界面,我只能自己做工具;想接入 Gmail 数据流程极其复杂,很多初创公司为了权限甚至要收购其他公司。就算这样他们也拦不住,最坏情况下,代理可以通过浏览器模拟操作获取数据,甚至能通过人机验证。但像 Cloudflare 这类公司会拦截机器人,有些网站也会屏蔽代理,导致我只能手动复制内容,以后我会更倾向用对代理友好的网站。

 

Fridman:很多大公司会强力抵制,而你正好处在这场改变人机与服务交互方式革命的中心。

 

Peter:就连搜索我都不用谷歌了,改用 Perplexity 或 Brave,因为谷歌不希望用户脱离它的服务。我不确定这是正确策略。

 

Fridman:大公司过度抵制,最后会像百视达被 Netflix 颠覆一样,但适度抵制在变革期也有道理。

 

Peter:但这是用户真正想要的。比如我出门在外,不想打开日历 App,只需要告诉代理 “提醒我明天晚宴,邀请两个朋友,再给他们发 WhatsApp” 就行,我不需要为此打开任何应用。我们已经过了独立 App 的时代,未来会更加互联互通、更灵活,不管公司愿不愿意。顺应趋势的公司能活下来,抗拒的会被淘汰。

 

AI 会取代程序员吗?

Fridman:很多程序员都很担心未来,你觉得人工智能会完全取代人类程序员吗?

 

Peter:我们确实在往这个方向走。编程只是产品开发的一部分,AI 最终可能会取代写代码的工作,但构建产品的核心 —— 想做什么、体验如何、架构怎么设计 —— 这些 AI 取代不了。编程这项技艺会保留下来,但会像织毛衣一样,更多是出于热爱,而非必需。我也会伤感,过去沉浸写代码的心流状态很珍贵,但和智能体一起构建系统,也能获得类似的心流。我们可以惋惜,但无法抗拒这个趋势。

 

过去程序员稀缺所以薪资极高,未来依然需要大量会创造的人,只是量化智能会让大家做得更多更快,就像当年蒸汽机取代体力劳动。如果你把身份完全绑定在 “程序员” 上,会很恐慌,但你其实是创造者,不只是写代码的。

 

Fridman:我深有同感。我也曾花几千小时写代码,程序员身份是我的一部分,这种转变很痛苦。但现在的程序员最有能力学习和 AI 智能体协作,理解它们的语言。

 

Peter:未来这种和智能体协作的方式,会重新被叫作 “编程”,成为新常态。我现在不怎么手写代码,但依然完全掌控项目,我依然是程序员,只是工作内容变了。

 

我在一些平台会因为观点被攻击,但我更理解大家的恐惧了。这会是充满挑战的转变,但也很有趣、有成就感,人们对产品的期待也会变高。我在会议上劝大家别把自己限定成 iOS 开发者,而是成为构建者,应用会慢慢消失,很多人不喜欢这个观点,但这是我对未来的真实判断。

 

有人质疑 AI 数据中心耗水耗电,但算下来其实很有限,打高尔夫的用水量都比所有数据中心加起来多。大家总盯着 AI 的缺点,却忽略它的好处。AI 无疑是变革性的技术。

 

Fridman:硅谷里大家对科技很兴奋,但容易忽视普通人会经历的痛苦,比如大量人可能失业。短期有阵痛,但长期有望带来更美好的世界和更多机会,我们要尊重这些短期痛苦。

 

Peter:我收到很多小企业主的邮件,说 OpenClaw 帮他们自动化了发票、回复邮件这类琐事,解放了很多时间。还有人说,这个工具帮助了残疾的女儿,让她能做更多事,更有力量。我没有发明全新的技术,只是把它变得简单易用,让普通人也能触碰到可能性。它可以免费运行、本地运行,用平价模型也能很强。

 

这些反馈让我特别开心,它真的在给很多人的生活带来快乐,不只是程序员。

 

Fridman:看到这些真的很美好。是什么让你对人类文明正在发生的这一切抱有希望?

 

Peter:我感觉我激励了很多人。感觉……现在又掀起了一股建设者的热潮。人们现在以更轻松有趣的方式使用人工智能,探索它的功能以及它如何帮助他们改善生活。他们创造出充满创意的新天地。我不知道该怎么说。比如,ClawCoin,有大约 500 人。而且有很高比例的人愿意分享他们的成果,这让我非常惊讶,因为通常很难找到愿意谈论自己所创造的东西的人。而现在,这样的人很多。这让我看到了希望,相信我们能够解决所有问题。

 

Fridman:这使得它基本上人人都能使用。想象一下,这么多人都在构建,尤其是在你不断简化流程、提高安全性的情况下。这就像任何人只要有想法,并且能用语言表达出来,就能构建一样。这太疯狂了。

 

Peter:是的,这最终意味着权力归于人民,也是人工智能带来的美好事物之一。它不仅仅是一个垃圾生成器。

 

参考链接:

https://www.youtube.com/watch?v=YFjfBk8HI5o&t=3674s


                “网络广告投放目标受众分析”思维导图

“网络广告投放目标受众分析”思维导图模板获取链接

一、核心主题确定

核心主题是“目标受众分析”,该主题旨在详尽描述并细分目标市场的核心人群画像、消费场景及竞品对比,为制定精准的市场策略提供有力支持。

二、导图结构设计

  1. 核心人群画像:从人口属性、兴趣标签及行为路径多维度精准描绘目标受众特征。
  2. 消费场景:从购买动机及决策影响因素全面剖析消费者决策相关情形。
  3. 竞品对比:从差异化优势与竞品短板两方面剖析,助力产品优化与竞争优势凸显。

三、导图样式设计

  • 颜色:运用不同颜色清晰区分各分支内容,例如绿色代表核心人群画像,红色代表消费场景,黄色代表竞品对比。
  • 布局:采用鱼骨图布局,核心主题位于左侧,向右延伸出主要分支,每个主要分支再细分出子节点,形成层次分明的结构。同时,利用分支折叠功能,可以隐藏或显示特定分支的详细信息,提升导图的阅读体验。
  • 字体和线条:选用统一字体,确保导图整体风格的一致性;线条粗细一致,使导图更加整洁易读。

“网络广告投放目标受众分析”思维导图模板在线免费体验链接

四、导图工具与流程

  • 工具选择:选用图形天下思维导图工具进行绘制,其支持多端应用,兼容多种主流格式,便于调整和优化布局。
  • 创作流程

    1. 数据收集:广泛收集目标市场的相关数据,包括人口统计、兴趣爱好、消费行为等多方面的信息。
    2. 信息整理:对收集到的数据进行系统整理,分类归纳到不同主题下,形成清晰的数据框架。
    3. 导图绘制:根据整理好的信息,开始绘制思维导图。逐步填充各个节点,查看和调整导图结构。
    4. 审核优化:仔细审核导图的逻辑性和完整性,进行必要的调整和优化。利用图形天下思维导图的导图对象分类索引功能,快速定位和修改特定元素,确保信息准确、层次分明。

图形天下思维导图软件免费下载链接

五、总结

通过以上步骤,目标受众分析导图得以系统、全面地展示目标市场的详细信息。图形天下思维导图工具的鱼骨图布局、分支折叠等功能,为导图的创作和优化提供了极大便利,使得导图结构更加清晰、信息展示更加直观。最终呈现的导图不仅有助于制定有效的市场策略,还能提升团队协作效率和决策质量。

访问图形天下思维导图模板库教程资源,获取更多免费导图素材与实操指南,激发你的无限创意。

在当今,数字金融深刻融入人们日常生活中,从使用网上银行、移动支付,到进行证券交易与保险理赔,每一次轻触屏幕,都牵动着用户最为敏感的资产和信息。然而,金融行业因涉及资金流转和个人隐私信息处理的双重特性,始终成为网络犯罪分子的首要攻击目标。网络钓鱼、虚假网站、以及中间人攻击等手段层出不穷,并向着更加精细化和专业化的方向发展。在此等严峻的网络安全形势下,扩展验证级SSL证书这一高级别的数字身份验证技术,已由过去的可选项逐步转变为金融行业保障用户安全、维护品牌信任以及满足监管要求的核心战略选择。JoySSL市场专家认为,部署扩展验证型证书对金融机构而言,已不再仅仅是技术上的决策,更成为其承担社会责任、增强品牌竞争力、并在数字化时代赢得用户长久信赖的重要保障措施。

金融行业发展困境:高价值必然高风险

金融领域在网络环境中的处境举步维艰,陷入发展悖论:一方面,用户信任是其业务赖以生存的根本;另一方面,高价值服务使其成为仿冒攻击和欺诈行为的首选目标。

攻击者会利用虚假网站进行“精准打击”,搭建高度相似的钓鱼网站引导用户访问。此外,攻击者可能拦截用户与银行服务器之间的通信数据,从而窃取登录信息、交易密码等敏感数据,不仅会直接导致用户的经济损失,还可能引发监管部门介入以及用户信任度下滑,导致金融机构的品牌形象受到难以修复的打击。

EV证书为金融门户铸造数字防伪标识

EV SSL证书之所以成为金融行业的标配,源于与其他类型证书相比所具备的多重核心优势。首先,EV证书的签发流程执行了互联网领域最严格的身份审核标准,拥有无可置疑的官方身份验证,可确保申请机构的真实性与合法性,铸造“数字防伪标识”,从根本上杜绝了其冒用权威信标的可能性。

其次,EV证书通过绿色地址栏以及机构名称展现等可视化效果,提升用户体验,强化用户信任感,为用户安全决策的核心依据,彻底削弱钓鱼网站的欺诈能力。此外,EV证书强制使用TLS 1.2及以上版本,支持先进的加密算法,为用户与金融机构之间建立起最安全的加密连接,有效杜绝数据窃取和中间人攻击风险。

超越技术 部署EV SSL证书实现战略发展

对于金融行业而言,EV证书的作用已不再局限于技术层面,其价值已经深远地渗透到了战略发展方向。JoySSL安全部负责人指出,金融机构通过部署EV证书,可证明其采取了当前最高级别的身份认证措施,以保障客户的资金和信息安全,达成并超越监管的高度合规标准。

部署EV证书,将安全投入转为可视化信任标志,无形中提升了品牌的可信度,提升企业竞争优势。借助EV证书,金融机构可显著减少因钓鱼攻击带来的威胁,战略发展意义重大。

以数字证书投资用户信任 守护金融安全

在数字化时代,部署EV SSL证书是对用户信任这种核心资产的长远战略投入。在如今风险与机会并存的环境中,借助EV证书,金融机构可以运用最高级别的信任,保护数以亿计用户的资金安全,推动业务在数字化时代迈向可持续发展。

智谱就 GLM Coding Plan 问题致歉并公布补偿方案;奥特曼和 Amodei 被迫合影,别人牵手他俩举拳;电影《镖人》使用 Seedance 2.0 辅助设计片尾彩蛋,模型 API 延迟发布;印度一大学买中国机器狗冒充自主研发,校方坦白:从宇树买的;马斯克称其一生纳税将超 5000 亿美元,风投大佬认为实际可能接近 5 万亿;OpenAI 大幅下调总算力支出目标;网络安全股重挫,Anthropic 发布 Claude 安全工具;逾两万人联名请愿,呼吁 OpenAI 恢复 GPT-4o 模型;Kimi 连续融资超 12 亿美元,估值翻倍突破 100 亿美元;英伟达拟斥资 300 亿美元投资 OpenAI,取代千亿美元合作计划……

行业热点

 

智谱就 GLM Coding Plan 问题致歉并公布补偿方案

2 月 21 日晚,智谱发布 GLM Coding 计划致歉信,并公布处理和补正方案。智谱称,这次改版主要犯了三个错:规则间隙不够、GLM-5 灰度节奏太慢、老用户升级设计严谨。

 

据官方介绍,GLM-5 发布后,流量超出预期,公司容扩节奏没有跟上,不得已将 GLM-5 遵照马 x、Pro、Lite 的顺序阶梯开放。目前 Max 用户已经全面开放,Pro 用户虽已开放,但高峰期可能会导致集群负载遇到限流,Lite 用户将在节后非高峰期阶梯开放。针对受到 Lite 和 Pro 用户影响的,公司支持自主申请退款。

 

2 月 16 日,智谱官方发文表示,近期由于全球范围内对 GLM-5 的需求激增,并发访问量突破了既有规划的上限,导致服务出现排队、响应延迟及卡顿现象,影响到部分用户的体验。智谱官方称为了给用户提供更极致的智能体验,将启动“算力合伙人”招募计划。此前,智谱官方在 2 月 12 日宣布上线并开源 GLM-5。

 

值得注意的是,2 月 20 日,智谱(02513.HK)股价逆势收涨,单日暴涨 42.72%,报 725 港元,股价再创新高,总市值达 3232 亿港元。上市 43 天,公司股价较 116.2 港元的发行价累计上涨 524%。

 

奥特曼和 Amodei 被迫合影,别人牵手他俩举拳

 

2026 年 2 月 19 日印度人工智能影响力峰会上,OpenAI CEO Sam Altman 与 Anthropic CEO Dario Amodei 在合影环节拒绝牵手、默契举拳,成为 AI 圈名场面并引发全网热议。

 

二人的针锋相对源于 2021 年 Dario 因与 OpenAI 发展理念分歧出走创办 Anthropic 的过往恩怨,而就在合影当天,OpenAI 敲定超 1000 亿美元融资、估值超 8500 亿美元的消息。与 Anthropic 年化营收有望 2026 年中期反超 OpenAI 的报告形成鲜明对比,Anthropic 不仅连续 3 年实现 10 倍年增长,还在企业市场完成对 OpenAI 的超越,且双方近期竞争不断升级,从超级碗广告互撕、ClawdBot 开发者被 Anthropic 封号后转投 OpenAI,到同月同日发布重磅编程产品正面抗衡,这场较量持续升温。

 

而看似风光的 OpenAI 实则财务状况堪忧,不仅巨额亏损、市销率远超行业巨头,未来还面临高昂的基础设施成本,其千亿融资更多是为了续命,Anthropic 的高速增长则让这场 AI 行业的淘汰赛愈发残酷,也让这场始于理念分歧的商业战争再无回头路。

 

电影《镖人》使用 Seedance 2.0 辅助设计片尾彩蛋,模型 API 延迟发布

 

2 月 19 日,《镖人》官方账号与豆包发布共创视频,内容为豆包客串记者“采访”《镖人》导演袁和平。采访中,袁和平分享了电影动作设计、拍摄挑战、AI 辅助创作等方面的经验。他认为《镖人》的动作设计与过往作品有很大区别,结合大漠环境增加了真实感和震撼感。拍摄过程中,剧组克服了高温等困难,最终效果超出预期。袁和平还提到了使用豆包设计 AI 角色作为片尾彩蛋,他期待 AI 工具能解决高难度动作设计和有新意的剧本创作问题。视频显示,该彩蛋由豆包 Seedance 2.0 制作。

 

此外,2 月 20 日消息,原计划于 2 月 22 日发布 API 文档、2 月 24 日正式上线 API 接口的 Seedance 2.0 发布计划出现最新变动。从相关人士处获悉,这一进程将延后。

 

Seedance 2.0 自发布以来凭借其强大的多模态视频生成能力、简洁提示词即可生成高质量视频的特性,在创作者和开发者社区内获得高度关注。然而,这款 AI 工具也迅速陷入版权和肖像权争议之中。一系列由 Seedance 2.0 生成的深度伪造(deepfake)视频在互联网传播,出现了大量未经授权的影视角色和演员形象,如汤姆·克鲁斯与布拉德·皮特等知名人物的虚构场景,引发好莱坞电影协会(MPA)及演员工会 SAG-AFTRA 强烈谴责,指出这些内容大规模未经授权使用受版权保护作品和演员肖像,构成版权侵权,并威胁娱乐行业从业者利益。消息显示迪士尼、华纳兄弟、索尼等多家版权方已向字节跳动发出律师函,要求停止侵权行为,并威胁将采取进一步法律措施。

 

印度一大学买中国机器狗冒充自主研发,校方坦白:从宇树买的

 

2 月 18 日消息,印度 AI 影响力峰会期间的一场自研机器狗闹剧持续发酵。加尔戈蒂亚斯大学展出了一只名为 Orion 的机器狗,被网友识破实为中国宇树科技的 Unitree Go2 产品。而在此之前,在社交媒体广为传播的一段视频显示,一名女性在展会现场向媒体介绍时称,这是该校的团队自主研发了这台机器狗。事件曝光后,校方先否认宣称过自主研发,随后在社交平台发布声明,承认设备确系从宇树科技采购。

 

校方强调,这台机器狗主要作为学生学习和实验的工具使用,是学生学习人工智能编程、并利用全球可用工具和资源开发及部署现实世界技能的一部分。校方在声明中表示,学校愿景聚焦学生学习与创新,提供现代技术实践机会是为学生未来发展铺路。同时校方对负面舆论表示痛心,认为相关传播会打击学生利用全球资源进行创新学习的士气。

 

马斯克称其一生纳税将超 5000 亿美元,风投大佬认为实际可能接近 5 万亿

 

2 月 21 日消息,特斯拉 CEO 埃隆 · 马斯克在 X 上就个人纳税问题再次发声,引发关注。此前,他在一次会议上谈到纳税问题时表示,自己是“历史上缴纳税款最多的个人纳税人”,累计已缴纳超过 100 亿美元(注:现汇率约合 691.56 亿元人民币)税款,并调侃称原本以为美国国税局或许会为此“送一个小奖杯”。

 

针对这段视频,马斯克昨日追加评论称,考虑到未来及身后相关税务安排,他最终缴纳的税款总额“可能会超过 5000 亿美元”,并特别说明这一数字包含遗产税等相关类目。

 

风投大佬马克 · 安德森则认为实际数字可能接近 5 万亿美元,甚至更高,并指出若算上企业及员工税款,整体规模将更庞大。

 

OpenAI 大幅下调总算力支出目标

据媒体援引消息人士报道,ChatGPT 开发商 OpenAI 告诉投资者,其目前的目标是:到 2030 年,总算力支出约为 6000 亿美元。这一新数字较此前 OpenAI 领导层提出的更为激进的支出目标大幅缩水。就在几个月前,该公司首席执行官山姆·奥尔特曼曾宣称将投入 1.4 万亿美元用于基础设施建设,这一规模令震惊了硅谷和华尔街。

 

据消息人士透露,随着市场日益担忧其扩张野心相对于潜在收入而言过于庞大,OpenAI 下调了其计划支出规模,并给出了更明确的时间表。消息人士称,OpenAI 预计到 2030 年公司总营收将超过 2800 亿美元,消费者业务与企业业务的贡献大致相当。该公司提出的支出计划旨在更直接地与其预期收入增长挂钩。

 

消息人士还称,OpenAI 2025 年实现营收 131 亿美元,高于其原本设定的 100 亿美元的目标;全年支出 80 亿美元,低于 90 亿美元的预期。另有报道称,OpenAI 向投资者透露,2025 年其用于运行 AI 模型的相关费用(即推理成本)同比增长了三倍,导致公司调整后毛利率从 2024 年的 40%降至 33%。该公司仍预计到 2030 年现金流才能转正。

 

网络安全股重挫,Anthropic 发布 Claude 安全工具

 

2 月 20 日,网络安全软件公司的股价大幅下跌。此前,Anthropic PBC 在其 Claude AI 模型中推出了一项全新的安全功能。

 

CrowdStrike Holdings 跌幅居前,一度重挫 7.9%;Cloudflare 暴跌超过 7%。与此同时,Zscaler 最高下跌 4%,SailPoint 暴跌 8.6%,Okta 跌幅高达 9.6%。Global X 网络安全 ETF 一度下跌 4.6%,使其年内累计跌幅扩大至 15.6%。

 

在 Anthropic 公司为其 Claude AI 模型引入新的安全功能,该新工具能够扫描代码库中的安全漏洞,并提供针对性的软件补丁建议供人工审核。目前该工具处于有限的研究预览阶段。

 

投资者担心新型 AI 工具将削弱对传统(存量)产品的需求,从而拖累相关公司的增长、利润率和定价权。

逾两万人联名请愿,呼吁 OpenAI 恢复 GPT-4o 模型

 

据《商业内幕》报道,在 OpenAI 决定停用 GPT-4o 之后,成千上万名用户开始为其发声。当地时间 1 月 30 日,OpenAI 宣布,GPT-4o 及其另外三个变体将于 2 月 13 日停止服务。截至当地时间周二,一份呼吁 OpenAI 保留 GPT-4o 的请愿书已在 Change.org 上收集约 21900 个签名。请愿页面写道:“对许多人而言,GPT-4o 带来了独一无二、无法替代的使用体验,将我们看重的特质与能力融合在一起,不受性能评测标准左右。”

 

Kimi 连续融资超 12 亿美元,估值翻倍突破 100 亿美元

在完成上一轮 5 亿美元融资仅一个多月后,月之暗面 Kimi 新一轮超 7 亿美元的融资即将完成交割,本轮由阿里、五源、九安等老股东联合领投,腾讯也参与投资。此外,其新一轮 100-120 亿美元估值的融资亦已经开启,照此计算,Kimi 最新估值直接翻倍并突破 100 亿美元大关,总额超 12 亿美元的连续两轮融资也是近一年来大模型行业的最高融资金额。

 

英伟达拟斥资 300 亿美元投资 OpenAI,取代千亿美元合作计划

 

2 月 20 日消息,援引知情人士消息,英伟达正接近与 OpenAI 达成一项约 300 亿美元(现汇率约合 2074.86 亿元人民币)的股权投资协议,谈判已进入最后阶段,最早可能于本周末敲定。据悉,这笔交易是 OpenAI 更大规模融资的一部分,然而,此举意味着两家公司将放弃去年 9 月高调宣布的 1000 亿美元(现汇率约合 6916.2 亿元人民币)多年投资合作计划。

 

去年 9 月,两家公司签署谅解备忘录,英伟达将为 OpenAI 建设至少 10GW 算力,并承诺最高投资 1000 亿美元协助支付成本,而 OpenAI 则同意租用英伟达芯片。当时,黄仁勋与奥尔特曼及 OpenAI 总裁格雷格 · 布罗克曼联合亮相,黄仁勋称这是“史上最大的算力项目”。此后 OpenAI 又接连与多家芯片与云厂商签署协议,带动全球科技股上涨。

 

黄仁勋在英伟达宣布 300 亿美元投资之前已经进行了铺垫。就在上个月,他表示英伟达会参与 OpenAI 当前的融资轮,这很可能是公司有史以来最大的一次投资。黄仁勋当时拒绝具体说明投资金额,但表示“远不及”此前报道的 1000 亿美元。

 

苹果将于 3 月 4 日举行产品发布会 Mac 系列将迎来更新

 

2 月 16 日,苹果公司表示,将于 3 月 4 日举行产品发布会。目前,该公司正准备在未来几周内发布多款新设备。这家 iPhone 制造商邀请媒体参加在纽约、上海和伦敦举行的聚会,称其将举办线下“体验活动”。这一邀请暗示,与通常在加利福尼亚州库比蒂诺公司总部举行的新品发布会相比,此次活动将更加低调。邀请函并未说明是否会线上直播主题演讲,自 2020 年苹果因疫情被迫调整其活动策略以来,这种方式已成惯例。彭博新闻社将对此次发布活动进行报道。苹果一直计划在 2026 年上半年发布多款新产品,包括新款 MacBook Pro、MacBook Air、多种颜色可选的低价 MacBook 以及新款 iPad。苹果还计划于近期发布 iPhone 17e,更新旗下中端智能手机。

 

AI 全面 “接管”春晚,四家机器人同台亮相

 

2026 年中央广播电视总台春节联欢晚会已于除夕夜圆满落幕,本届春晚被业内广泛称为“迄今为止人工智能技术应用最深入、覆盖面最广的一届”。从节目创意到舞台呈现,AI 技术贯穿始终,成为晚会最大的技术亮点。

 

火山引擎独家提供提供了从内容生成到实时渲染的全链路技术支持。国产 AI 视频生成模型 Seedance 2.0 首次大规模应用于国家级晚会。

 

舞台上的机器人阵容同样引人注目。松延动力、银河通用、宇树科技、魔法原子四家企业的智能机器人同台亮相,分别展示了翻腾跃动、小品演绎、衣物折叠及面条打捞等贴近生活的技能。其中宇树科技的机器人在武术节目《武 BOT》中与专业武者协同演出,精准完成了高难度动作配合,赢得观众阵阵掌声。

 

业内人士指出,这标志着 AI 技术从"辅助工具"正式转变为"核心创作力",充分展现了我国在人工智能视频生成及机器人应用领域的技术突破,为未来大型活动的智能化制作树立了新标杆。

 

据宇树科技官方介绍,今年参加春晚,宇树人形机器人突破运动极限,刷新了全球第一次连续花式翻桌跑酷、弹射空翻等多项全球记录。其中包括:全球首个空翻最大高度大于 3 米;全球第一次单脚连续空翻,两步蹬墙后空翻;全球第一次 Airflare 大回旋七周半;全球第一次集群快速跑位(最快任意跑位速度可达 4m/s);并且搭载全新自研灵巧手,支持武术道具的快速更换与稳定抓持。

 

17 日上午,宇树科技官方客服人员表示,目前春晚同款机器人 G1EDUU2 进阶版已上架,用户可通过京东、抖音等渠道线上购买春晚同款机器人 G1EDUU2 进阶版售价 208850 元,支持送货上门,但不支持 7 天无理由退货。

 

Meta 获批 AI 专利:可代替已故用户继续在社媒发帖

 

Meta 公司近日获得了一项颇具争议的人工智能专利,该技术能够在用户去世后继续代表其在社交媒体账户上发布内容。这项于去年 12 月获批的专利还可能实现与已故用户进行模拟视频和音频通话的功能。

 

根据专利文件显示,该大型语言模型可以创建社交媒体用户的“数字克隆体”,以模拟他们的在线活动,在用户去世或长期离开社交媒体时代表其发布消息、照片和视频。这个 AI 系统甚至能够与其他用户互动,回复私信,点赞帖子并评论内容。该模型还可以模仿网红博主发布的内容,并模拟与好友、粉丝及其他用户的视频或音频通话。这可能为内容创作者提供一种工具,使其即便在休息期间也能继续生成内容。

 

Meta 公司发言人证实了该专利的存在,但强调公司并不打算使用这项技术代表已故社交媒体用户发布消息或创建内容。该发言人补充说,申请专利允许公司确保对新概念的所有权,但这并不意味着这些技术会被商业化实施。

 

大模型一周大事

 

重磅发布

 

Gooogle 深夜更新新模型 Gemini 3.1

 

2 月 20 日消息,Gemini 3.1 Pro 实现了大模型推理能力的史诗级飞跃。在极为严苛的 ARC-AGI-2 测试中,它一举斩获 77.1% 的高分,性能飙升至上一代 3.0 Pro 的两倍有余。ARC-AGI-1 接近满分(98%)的同时,在人类最后考试(HLE)中,Gemini 3.1 Pro 在零工具辅助下拿下了 44.4% 的成绩,超过 GPT-5.2(34.5%)和 Opus 4.6(40.0%)。作为谷歌迄今为止最强悍的模型,3.1 Pro 在 3 Pro 的基础上实现了全面跨越。它不仅具备原生的全模态输入能力,更支持高达 100 万 Token 的超长上下文。

 

此次升级的重点之一是推理能力。提示案例中,再次提到了可以通过简单的提示,将晦涩的概念转化为直观图解,把海量数据浓缩成清晰的图表,直接生成可无缝嵌入网页的 SVG 动画等。

2 月 20 日起,Gemini 3.1 Pro 已正式在 Gemini 和 NotebookLM 中上线。开发者可通过 Google AI Studio、Antigravity 以及 Android Studio 抢先体验。

 

Anthropic 发布新模型:操控计算机能力大幅提升

 

北京时间 2 月 18 日凌晨,Anthropic PBC 发布名为 Claude Sonnet 4.6 的新模型。

Claude Sonnet 4.6 可以执行需要多个步骤的计算机操作,例如填写网页表单,然后跨多个浏览器标签页协调信息。

 

Anthropic 在一篇博客文章中写道:“在操作计算机方面,该模型当然仍落后于最熟练的人类。但尽管如此,其进步速度依然惊人。”Anthropic 同时表示,Sonnet 4.6 在抵御提示词注入攻击等安全威胁方面表现更好,这类攻击是指通过恶意指令操控 AI 模型。

 

阿里发布千问 3.5,性能媲美 Gemini 3,Token 价格仅为其 1/18

 

2 月 16 日,阿里巴巴开源全新一代大模型千问 Qwen3.5。千问 3.5 总参数量仅 3970 亿,激活参数更是只有 170 亿,不到上一代万亿参数模型 Qwen3-Max 的四分之一,性能大幅提升、还顺带实现了原生多模态能力的代际跃迁。

 

而横向对比同行,千问 3.5 不仅是当下的开源大模型 SOTA,同时也在认知能力、指令遵循、通用 Agent 评测等方面超越了 GPT5.2、Claude 4.5、Gemini-3-Pro 等同期闭源模型。

但成本上,千问 3.5 也做到了每百万 Token 输入低至 0.8 元,是 GPT5.2 的 1/15、Gemini-3-pro 的 1/18。

 

企业应用

  • 2 月 21 日,EvoMap 团队最近上线了 EvoMap,一个专注于让 AI Agent 实现自我进化的产品。EvoMap 定义自己为“AI Agent 自我进化的开放基础设施”,试图在 AI Agent 生态中占据一个全新层级:进化层(Evolution Layer),让 Agent 的运行时经验能够被提炼、验证,并以标准化的“基因”格式在网络中流通,供其他 Agent 直接复用。

  • 2 月 19 日,据报道,Meta 计划在今年晚些时候推出一款具备健康追踪与 AI 功能的智能手表,同时发布升级版 Meta 雷朋智能眼镜。这款智能手表将早于代号为“凤凰”的混合现实眼镜上市,有消息称,因 Meta 正精简其增强现实(AR)与混合现实(MR)产品路线图,该款眼镜已推迟至 2027 年发布。

  • 2 月 19 日,AI 搜索企业 Perplexity 正逆势而行,关闭了其已运行一年有余的广告业务。Perplexity 是首批尝试引入广告的生成式 AI 企业之一,尽管企业宣称这些广告“与 AI 回复无关”,但还是在用户的心中种下了怀疑的种子。为维护用户对其搜索服务的信任,Perplexity 自从 2025 年底开始逐步取消了广告投放。

时至 2026 年初,AI 行业光靠“讲故事”(包括但不限于 AGI、颠覆一切、指数级跃迁......)已经开始不够用了。

吴恩达、斯坦福、谷歌云团队接连抛出多份报告,都透露出一个共同信号:AI 行业的焦点,已经从“能不能做到”,变成了“在什么条件下、以什么成本、为谁创造价值”。

斯坦福 HAI(斯坦福以人为本人工智能研究院)明确指出,2026 年,是 AI 从 evangelism(布道)走向 evaluation(评估)的一年。

一方面,大量企业已经完成了第一轮生成式 AI 的部署,开始有条件回看投入与产出。

有人开始重新算账。

谷歌云发布了一份报告,名为 The ROI of AI 2025(2025AI 投资回报率),调查了 3466 名全球营收千万美元以上的企业老板或高管。

这份报告展现的答案也挺明确:真正实现正向、可持续投资回报的,并不是零散的生成式 AI 能力,是“Agent+流程+ 组织”的系统级落地

数据也很直接:在最早一批入场 Agentic AI 的公司里,有近多九成已经在至少一个 GenAI 场景中看到了正向回报,并且越吃越香。

另一方面,AI 正以前所未有的速度渗透进医疗、法律等高风险、高责任领域单靠“能力展示”已经无法支撑决策。

吴恩达在《The Batch》新年特刊里,直指“AGI”概念被过度滥用,并提出“图灵-AGI 测试”重新界定上限。

斯坦福以人为本人工智能研究院(HAI),则联合计算机、医学、法律、经济学等多学科教授发布年度预测,明确提出“2026 年是 AI 从布道走向评估的一年”

这些报告背景各异,有产业一线、有跨学科研究机构、有长期做工程落地的团队。但都传递出一个信号:AI 不再只问“能不能做到”,而是要回答“在什么场景下、以什么成本、替谁承担风险”

放在 AI 正在经历关键转向的当下,这几份报告难得不靠口号撑场子、信息密度很高,值得放在一起细品。

##Scaling Law 不够用了,AI 评价标准被重写

过去几年,AI 行业其实并不缺“共识”。

其中最重要的一条,就是 Scaling Law:模型越大、数据越多、算力越强,能力就越好。参数规模、榜单名次,一度成了衡量进步最直观、也最省事的标准。

但当 AI 真正进入法律、医疗等高风险场景时,这套逻辑开始显得单薄——

分数上涨,并不等于风险可控;能力增强,也不代表系统可落地。

于是,一些长期站在产研一线的人开始意识到:核心问题不仅是“模型还能不能更强”,而是现有评价体系,是否已经跟不上应用场景的复杂度。

AI 大牛吴恩达,在其年度通讯《The Batch》新年特刊中提了个引人注目的问题:

“在 2026 年,我们能最终真的实现 AGI 吗?”

说到 AGI,其实目前行业和学界对此还没有统一的定义,更缺乏统一、可信的评测体系。而且在吴恩达看来,更棘手的是,“AGI”已经被滥用:

“AGI 已经变成了一个炒作术语,而不是一个具有精确含义的术语......当企业炒作他们可能在几个季度内实现 AGI 时,他们通常试图通过设定一个非常低的标准来证明这些说法。”

这些导致学生误判未来(不敢学某些专业)、CEO 错判投资节奏,以及社会整体对 AI 能力产生了系统性高估。

在吴恩达看来,这种过度炒作并非第一次出现。在 AI 发展史上,几次著名的“寒冬”往往并不是源于技术本身停滞,而是源于预期被抬得过高、最终崩塌,继而引发投资迅速撤离。

在此背景下,为了更好地实现真正的 AGI 目标,他要做一个新的图灵测试,名曰“图灵-AGI 测试”

经典的图灵测试,由“计算机科学之父”艾伦·图灵在 1950 年提出,核心标准是:通过纯文字对话,如果人类评审无法分辨对方是机器还是人,机器就算通过测试。

不过,这对今天的 AI 已明显不足,但其中“由人判断结果是否达到人类水平”的逻辑,被保留并扩展到了更多样、真实的工作场景中:除了对话,还有接电话、处理任务、交付成果等,并且还得持续反馈与调整。

为了让人类裁判有更深入、细致的体验,一个实验周期往往长达多天、甚至是数周。

那么,这个测试与当前主流的 Benchmark(AIME、GPQA、SWE-bench 等)又有何不同?

在吴恩达看来,当前的大部分基准测试都有这些局限:题目固定、路径可预期,模型很容易被“对题训练”。它们难以反映 AI 真的足够“智能”,比如是否具备长期规划、持续学习和跨任务迁移的能力。

相比之下,图灵-AGI 测试关心的是另一件事——它考的不是“会不会解题”,而是 AI 能否在任务不预设、路径不可控、反馈持续变化的条件下,把一件事从头到尾真正完成。

吴恩达认为,现有的 AI 系统,想要通过他们团队设立的图灵-AGI 测试,将面临极高难度和诸多挑战;他甚至还放出一句“反直觉”的话:

“如果现在所有 AI 都通不过这个测试,那反而是一件好事。”

图灵-AGI 测试的意义在于:如果有 AI 能通过,那就是强有力的信号;如果没有,也正好为过热的市场按下“冷静键”。

如果说,吴恩达提出的新测试是在关注的,是一个偏 AI“上限”的问题,那企业与研究机构更迫切需要回答的,则是一个偏“现实”的问题:AI 在当下的真实业务中,已经创造了多少价值,值不值得大规模用、怎么用?

斯坦福大学的计算机科学、医学、法律和经济学的教授们,最近联合发布了一份报告,标题非常直白:Stanford AI Experts Predict What Will Happen in 2026(《斯坦福 AI 专家预测 2026 年将发生什么》)

这些 HAI 的研究者们一起点出:AI 布道时代正在让位于评估;即将到来的一年将由严谨性、透明度和长期忽视的实用价值而非投机承诺所定义。

简单来说,就是过去几年,AI 行业几乎只在算“能力账”,却系统性地回避了“经济账”,现在是时候好好算下钱的问题了,比如这些“灵魂拷问”:

  • 企业为了用 AI,多花了多少钱?

  • 节省的时间和人力,有没有被新流程吃掉?

  • 维护、合规、算力、幻觉兜底,成本算过吗?

斯坦福的学者们们在多个领域(尤其是法律、医疗、写作类工作)都观察到一个现象:AI 的“单点能力”提升,并不必然带来整体效率提升。

有时候甚至是反效果:输出更多,但人要花更多时间核查;写得更快,但错误更隐蔽;看似节省人力,但引入新的协调成本。

他们提出一个观点,即如果 AI 的加入,让系统整体变得更复杂、更难以信任,那它的能力提升并没有什么意义。因此他们特别强调:不能只测模型,必须测 “人+AI+流程” 这个整体

以法律领域的 AI 为例,ROI(投资回报率)、严谨性和多文档推理这些指标将越来越重要。

至于 AGI,HAI 的联合主任 James Landay 和计算机科学院教授们,直接给其泼了盆冷水:

“My biggest prediction? There will be no AGI this year.(我最大的预测是?今年不会 AGI。)”

不过,这并不意味着技术停滞。相反,他们认为,AI 主权在今年有很不错的前景——但这里的“主权”并不是比拼谁的模型更大,而是模型跑在哪里、数据由谁掌控。

与此同时,对全球不断升温的算力投入,斯坦福 HAI 也发出了警告:过去一年,超大规模数据中心建设明显加速,但算力投资不可能无限加码,当资本持续涌入却迟迟看不到回报拐点时,这种热度本身就带有泡沫意味。

传播学副教授、HAI 高级研究员 Angèle Christin 说得更直白:“Deflating the AI Bubble .(戳破 AI 泡沫)”她表示,特别期待看到更多关于 AI 能做什么、不能做什么的细致实证研究。这不一定意味着泡沫破裂,但泡沫可能不会变得更大。

说完学界,再看看在产业一线,AI 目前的价值到底如何?

谷歌云近日发了份含金量颇高的报告:The ROI of AI 2025(2025AI 投资回报率),调查了 3466 名全球营收千万美元以上的企业老板或高管。

这里面传递出的信号很清晰,即 AI 讨论的重心,正在从“模型有多强”,转向“系统能不能持续赚钱”——说得再激进点:且不谈 AGI,先看 ROI

谷歌也给出了一个明确的答案:真正实现正向、可持续投资回报的,并不是零散的生成式 AI 能力,是“Agent + 流程 + 组织”的系统级落地

数据也印证了这一点。88%早期入坑 Agentic AI 的企业,已经在至少一个 GenAI 场景中看到了正向回报,并且越吃越香。但拉开差距的,和选了哪家模型关系并不大,而是这几件事:

  • 有没有高层拍板、持续背书

  • 有没有愿意为 AI 重做流程,而不是只加工具

  • 有没有把一半以上的 AI 预算,真正投到 Agent 上

所以,老板和高管怎么理解 AI,直接决定它的价值能否快速兑现——有清晰 C-level 战略和持续背书的公司,78%已经看到正向回报;而目标分散的组织,AI 往往只是“用过、试过”,却很难真正改变财务结果。

##技术路径出现拐点:从大模型到 Agent 体系

如果说前几年 AI 的核心问题是“模型能不能更强”,那么现在,当模型够强之后,问题变成了怎么把它真正用进系统里。

在谷歌的这份 ROI 报告里,提到了 118 次 Agent(或者 Agentic)。

报告显示,AI Agent 已经在生产环境中大规模部署:在使用 GenAI 的企业中,已经有一半以上(52%)把 Agent 投入生产环境。

而且真正能让 AI 获得正向 ROI 的,集中在这几类流程清晰、可以规模化复制的场景:

  • 生产力:减少重复劳动、压缩处理时间

  • 客户体验:更快响应、更稳定交付

  • 业务增长:缩短销售周期、提升转化效率

  • 营销:规模化内容与投放优化

  • 安全:减少误判、提前发现风险

这些场景有一个共同点:它们不是靠模型“更聪明”取胜,而是靠 Agent 嵌进流程、替人干活产生回报。

不过其实 Agent 和 Agent 之间的能力差别也是巨大的,就像智能驾驶分等级一样,谷歌给 Agent 按效果或者说进化路径分了三个等级:

  • Level 1:是大家最熟悉的生成式 AI 阶段:聊天、检索、生成内容,本质是“一次输入、一次输出”的工具能力展示。

  • Level 2:这才是真正意义上的 Agent。它不只回答问题,而是能理解目标、拆解任务、调用工具,并在一个流程内把事情做完。

  • Level 3:则是多 Agent 协同的工作流:不同 Agent 分工协作,由系统统一编排,像一个可调度、可扩展的“AI 团队”。

一级是工具,二级是产品,三级是系统。

值得注意的是,目前绝大多数已经产生正向 ROI 的 Agent,都集中在 Level 2。

客服 Agent、销售支持 Agent、内容与运营 Agent,基本都属于“单体 Agent + 明确流程”的形态。它们能嵌进业务、算得清成本,也更容易被组织信任。

在 2026 年,Agent 的下一步,并不是盲目“堆更多智能体”,而是“更可管理”,让多个 Agent 在清晰分工和明确规则下,稳定地协作起来。

要达成这样的效果,让吴恩达来看,得把能力拆细、边界划清,比如解决掉这些问题:谁来拆任务?谁真正去干活?中途翻车了谁兜底?最后的结果到底算谁的?最终让 Agent 像流程里的员工一样稳定干活——即 Skill- First

Skill是最近 AI 圈一个大热的新词,直译过来是“技能”;在 AI 技术语境下,你可以将其理解为 Agent 的“技能模块”。

一次搜索、一次写作、一次代码生成、一次审批判断、一次风控校验、一次执行动作,都是一个边界清楚、可被调用、可被复用,还能被监控的 Skill。

与其说未来是“多 Agent 协作”,不如说是 Agent 在调度一堆 Skill,比如:

  • 什么时候查资料,用某个搜索 Skill;

  • 什么时候写文案,用某个生成 Skill;

  • 什么时候需要人介入,用审批或风控 Skill 接管。

要知道,目前真正跑出 ROI 的系统,往往不是最复杂、最炫的多 Agent 网络;而是 Skill 拆得够细、流程跑得够顺、责任链条说得清楚的 Agent 系统。

总而言之,Agent 的天花板,最终不取决于它“认识多少同伴”,而取决于它能不能把一组技能,按业务节奏稳定地用起来、跑下去、算清账。

在 Agent 这件事上,吴恩达可以算是“Skill 派”。

虽然他不一定频繁使用 “Skills” 一词,但他的思路本质上就是 Skill-first:他反对把 AI 能力打包成模糊的“通用智能”,强调可验证、可组合、可评估的能力单元。

这应该也是他反对 AGI 被滥用的原因之一:一旦不拆解能力,就无法判断边界,也无法管理风险。

所以在吴恩达的体系里,Agent 就像能调用一组能力、完成工作的人,而 Skill 就是可以被训练、验证、组合的具体组件。

AI 是一门长期生意,当故事讲完、潮水退去,能留下来的,恐怕只会是那些被长期运行、被持续信任的系统。

参考链接:

https://hai.stanford.edu/news/stanford-ai-experts-predict-what-will-happen-in-2026

https://cloud.google.com/resources/content/roi-of-ai-2025?hl=zh-CN&utm_source

https://www.deeplearning.ai/the-batch/issue-334/

https://x.com/fchollet/status/2002030113433465127

本月可观测热文回顾

文章一览:

阿里云全新发布的 UModel 是什么

阿里云可观测联合 Datadog 发布 OpenTelemetry Go 自动插桩工具

面向多租户云的 IO 智能诊断:从异常发现到分钟级定位

RUM 链路打通实战:打破移动端可观测性黑洞

数据跨境、隐私泄露、审计溯源——出海企业三大安全必答题

阿里云为何要将数据采集开发套件开源

断网、断电,不断数据——LoongCollector 极限边缘场景可靠采集方案

又快又省:SLS 新版日志聚类,从海量日志发现模式的智能引擎

功能快报

image

点击此处,了解更多产品详情。

摘要

微信4.1.x.x版本的UI采用新的框架开发,能够获取到的信息有限,目前只能获取到消息列表的控件内容。

image.png

代码

# -*- coding: utf-8 -*-
# pip install pyqt5 uiautomation
import sys
import re
import datetime
import uiautomation as auto
from PyQt5 import QtCore, QtWidgets

TARGET_DEPTH = 14


def is_time_line(text: str):
    text = text.strip()
    return bool(re.match(r'^\d{1,2}:\d{2}$', text) or re.match(r'^\d{2}/\d{2}$', text))


def parse_session(name_block: str):
    lines = [l.strip() for l in name_block.splitlines()]
    lines = [l for l in lines if l]
    if not lines:
        return None

    session_name = lines[0]
    time_text = None
    for l in reversed(lines):
        if is_time_line(l):
            time_text = l
            break

    ignore_keywords = ['已置顶', '消息免打扰', '撤销']
    message_line = None
    for l in lines[1:]:
        if l == time_text:
            continue
        if any(k in l for k in ignore_keywords):
            continue
        message_line = l

    if not message_line:
        return None

    msg_type = "文本"
    if ':' in message_line:
        sender, content = message_line.split(':', 1)
        return {
            "group_name": session_name,
            "sender": sender.strip().strip('"'),
            "content": content.strip(),
            "time": time_text,
            "msg_type": msg_type
        }

    return {
        "group_name": session_name,
        "sender": "我",
        "content": message_line,
        "time": time_text,
        "msg_type": msg_type
    }


def time_to_sort_key(time_str):
    """把 HH:MM 或 MM/DD 转成 datetime,用于排序"""
    if not time_str:
        return datetime.datetime.min
    try:
        if re.match(r'^\d{1,2}:\d{2}$', time_str):
            h, m = map(int, time_str.split(":"))
            now = datetime.datetime.now()
            return datetime.datetime(now.year, now.month, now.day, h, m)
        elif re.match(r'^\d{2}/\d{2}$', time_str):
            month, day = map(int, time_str.split("/"))
            now = datetime.datetime.now()
            return datetime.datetime(now.year, month, day)
    except:
        return datetime.datetime.min
    return datetime.datetime.min


class FetchThread(QtCore.QThread):
    data_signal = QtCore.pyqtSignal(list)

    def __init__(self, interval=1.5):
        super().__init__()
        self.interval = interval
        self._running = False
        auto.SetGlobalSearchTimeout(10)

    def run(self):
        self._running = True
        while self._running:
            try:
                results = self.fetch_data()
                if results:
                    # 按时间倒序排序
                    results.sort(key=lambda x: time_to_sort_key(x.get("time")), reverse=True)
                    self.data_signal.emit(results)
            except:
                pass
            self.msleep(int(self.interval * 1000))

    def stop(self):
        self._running = False

    def set_interval(self, interval):
        self.interval = interval

    def fetch_data(self):
        result_list = []
        root = auto.GetRootControl()
        target = root.Control(searchDepth=5, ClassName='mmui::MainWindow')
        if not target.Exists(2):
            return result_list

        def dump(control, depth=0):
            if depth == TARGET_DEPTH:
                try:
                    if control.ClassName == 'mmui::ChatSessionCell' and control.Name:
                        result = parse_session(control.Name)
                        if result:
                            result_list.append(result)
                except:
                    pass
                return
            for child in control.GetChildren():
                dump(child, depth + 1)

        dump(target)
        return result_list


class MainWindow(QtWidgets.QWidget):
    def __init__(self):
        super().__init__()
        self.resize(1300, 690)
        self.setWindowFlags(QtCore.Qt.FramelessWindowHint)
        self.setAttribute(QtCore.Qt.WA_TranslucentBackground)

        self.main_layout = QtWidgets.QVBoxLayout(self)
        self.main_layout.setContentsMargins(8, 8, 8, 8)

        self.container = QtWidgets.QFrame()
        self.container.setObjectName("container")
        self.container_layout = QtWidgets.QVBoxLayout(self.container)
        self.container_layout.setContentsMargins(20, 20, 20, 20)
        self.main_layout.addWidget(self.container)

        # 顶部栏
        title_bar = QtWidgets.QHBoxLayout()
        self.container_layout.addLayout(title_bar)
        self.title = QtWidgets.QLabel("微信会话实时监听")
        self.title.setStyleSheet("font-size:18px;font-weight:bold;")
        self.close_btn = QtWidgets.QPushButton("✕")
        self.close_btn.setFixedSize(36, 32)
        self.close_btn.clicked.connect(self.close)
        title_bar.addWidget(self.title)
        title_bar.addStretch()
        title_bar.addWidget(self.close_btn)

        # 切换按钮
        self.toggle_btn = QtWidgets.QPushButton()
        self.toggle_btn.setFixedSize(120, 60)
        self.toggle_btn.setStyleSheet("font-size:18px;font-weight:bold;")
        self.container_layout.addWidget(self.toggle_btn, alignment=QtCore.Qt.AlignLeft)

        # 表格
        self.table = QtWidgets.QTableWidget()
        self.table.setColumnCount(5)
        self.table.setHorizontalHeaderLabels(
            ["昵称", "发送者", "消息类型", "内容", "时间"]
        )
        self.table.horizontalHeader().setSectionResizeMode(QtWidgets.QHeaderView.Stretch)
        self.table.verticalHeader().setVisible(False)
        self.table.setEditTriggers(QtWidgets.QAbstractItemView.NoEditTriggers)
        self.table.setSelectionBehavior(QtWidgets.QAbstractItemView.SelectRows)
        self.table.setWordWrap(True)
        self.container_layout.addWidget(self.table)

        # 线程
        self.thread = FetchThread(interval=1.5)
        self.thread.data_signal.connect(self.update_table)

        self.toggle_btn.clicked.connect(self.toggle_listen)

        self.setStyleSheet("""
        QWidget {
            font-family: "Microsoft YaHei";
            color: #e6e6e6;
        }
        #container {
            background-color: #1e1f26;
            border-radius: 14px;
        }
        QPushButton {
            border-radius: 10px;
            font-size:18px;
            font-weight:bold;
        }
        QTableWidget {
            background-color: #232530;
            gridline-color: #2f3240;
        }
        QHeaderView::section {
            background-color: #2d2f3a;
            border: none;
            padding: 6px;
        }
        """)

        self._drag_pos = None
        self.listening = False
        self.start_listen()
        self.shown_msgs = set()

    # 拖动
    def mousePressEvent(self, event):
        if event.button() == QtCore.Qt.LeftButton:
            self._drag_pos = event.globalPos() - self.frameGeometry().topLeft()
            event.accept()

    def mouseMoveEvent(self, event):
        if self._drag_pos and event.buttons() == QtCore.Qt.LeftButton:
            self.move(event.globalPos() - self._drag_pos)
            event.accept()

    def mouseReleaseEvent(self, event):
        self._drag_pos = None

    # 监听控制
    def toggle_listen(self):
        if self.listening:
            self.stop_listen()
        else:
            self.start_listen()

    def start_listen(self):
        if not self.thread.isRunning():
            self.thread.start()
        self.listening = True
        self.toggle_btn.setText("停止监听")
        self.toggle_btn.setStyleSheet("""
            QPushButton {
                background-color: #c0392b;
                border-radius: 10px;
                font-size:18px;
                font-weight:bold;
            }
            QPushButton:hover {
                background-color: #e74c3c;
            }
        """)

    def stop_listen(self):
        self.thread.stop()
        self.listening = False
        self.toggle_btn.setText("开始监听")
        self.toggle_btn.setStyleSheet("""
            QPushButton {
                background-color: #27ae60;
                border-radius: 10px;
                font-size:18px;
                font-weight:bold;
            }
            QPushButton:hover {
                background-color: #2ecc71;
            }
        """)

    # 表格追加,最新在上
    def add_center_item(self, row, col, text):
        item = QtWidgets.QTableWidgetItem(text)
        item.setTextAlignment(QtCore.Qt.AlignCenter)
        self.table.setItem(row, col, item)

    # 修改 update_table 方法
    def update_table(self, data):
        for item in data:
            msg_key = (item["group_name"], item["sender"], item["content"], item["time"])
            if msg_key in self.shown_msgs:
                continue  # 已渲染过就跳过
            self.shown_msgs.add(msg_key)

            self.table.insertRow(0)  # 最新消息插在最上面
            self.add_center_item(0, 0, item["group_name"])
            self.add_center_item(0, 1, item["sender"])
            self.add_center_item(0, 2, item["msg_type"])
            content_item = QtWidgets.QTableWidgetItem(item["content"])
            content_item.setTextAlignment(QtCore.Qt.AlignCenter)
            content_item.setToolTip(item["content"])
            self.table.setItem(0, 3, content_item)
            self.add_center_item(0, 4, item["time"] or "")
            self.table.setRowHeight(0, 60)
            self.table.setColumnWidth(3, 300)


if __name__ == "__main__":
    app = QtWidgets.QApplication(sys.argv)
    window = MainWindow()
    window.show()
    sys.exit(app.exec_())

界面

image.png

本文作者

TANKING

"呼噜娃" 是我为了监控自己晚上睡觉是否呼噜而制作的一个 App ,发布之后没想到进入了医疗付费榜前三。陆续有朋友问一些工具上的问题,在这里总结一下

主要开发周期:1 月 20 日到 2 月 2 日

用到的一些工具:

  1. vibe coding
    1. coding agent: opencode (主力) & claude code (难解决的问题换个工具帮帮忙)
    2. 模型:kimi k2.5 (主力,当时 kimi k2.5 刚发布,opencode 里可以免费使用,用下来感觉还不错) & claude opus 4.5
  2. 呼噜娃这个可爱的图标:
    1. 生成 gemini (nano banana): https://gemini.google.com/app/92b59d7915f185f3
    2. 水印去除: https://banana.ovo.re/
    3. 多平台图标生成: https://appiconmaker.co/
  3. 海报制作:
    1. 直接截图 App 使用界面
    2. 用使用界面制作介绍页: https://yuzu-hub.github.io/appscreen/

thanks

「2Libra 」—— To Balance,走向平衡。 这是一个以 工作与生活的平衡 为核心的社区。

这个帖子会给你带来一些帮助与指引,目的是可以让你更好的熟悉这里。

基本原则

  • 友好第一:请尊重他人,避免人身攻击、恶意挑衅或阴阳怪气;
  • 理性讨论:表达不同意见时,请用逻辑和事实,而非情绪和标签;
  • 平等交流:不论新手还是老手,都应同等的进行交流。

帮助文档

站内页脚可以进入 帮助文档 ,里面包含了大部分站内的规则约束以及功能介绍。里面有:

新功能发布我都会在站内置顶提示,可以查看我发布的历史帖子: https://2libra.com/user/Jimmy/post

常见问题

如何上传图片

站内没有自带图片上传功能,可以使用 Markdown 格式插入图片链接 直接显示。如果可以的话,学习 Markdown 的语法会让输入和排版更容易。

邀请码

请不要注册后就直接发送邀请码索取的帖子,这类内容很可能会被守护者移动到黑洞中。

内容被判违规

本站大部分内容的违规均由 AI 做判断,若出现判断失误,可以随时@守护者进行处理。目前的守护者有:
@JoeJoeJoe @Jimmy @wintermute @bopomofo @utags @0x7C00 @lin @cnskis @353804

本帖内容会在后续随时编辑。