能不能发布的图床链接转短链接来减少消耗的金币数
如图,发个图消耗 23 个金币,要哭了

xiaohack博客专注前沿科技动态与实用技术干货分享,涵盖 AI 代理、大模型应用、编程工具、文档解析、SEO 实战、自动化部署等内容,提供开源项目教程、科技资讯日报、工具使用指南,助力开发者、AI 爱好者获取前沿技术与实战经验。
如图,发个图消耗 23 个金币,要哭了

初衷是想 cpu 内存 温度这三个核心数据,
web 页面设计出来了,空白还有很多,隔了一个晚上也没想出来该添加哪些数据。
想问下兄弟们一般都关心哪些数据?

从「AI For What」到「Value From AI」,100+可落地实践案例打通 AI 实战最后一公里! 4 月 16 日-4 月 18 日,QCon 全球软件开发大会将在北京举办。本届大会锚定 Agentic AI 时代的软件工程重塑,聚焦 Agentic AI、多智能体协作、算力优化、技术债治理、多模态和 AI 原生基础设施等前沿话题,邀请来自腾讯、阿里、百度、华为、蚂蚁、小米、网易等企业技术专家,带来百余项真实落地案例,系统性分享前沿洞察与实战干货,以技术共创探索 AI 落地新路径。 ListenHub 联合创始人兼 CTO 徐文健已确认出席 “AI 时代的“超级团队” ” 专题,并发表题为《杀死“流水线”: ListenHub 如何构建 AI 时代的液态超级团队》的主题分享。ListenHub 在经历组织效能的至暗时刻后,重构了一套 AI Native 的“任务酒馆”模式:彻底打破职能部门墙,抹掉 Title,全员转型为全栈 Builder,基于“任务”动态组建液态小队,实现“即插即用”的敏捷交付。本次演讲将深度复盘这一激进变革中的实战细节与踩坑经验,重点分享如何帮助团队跨越技能鸿沟,以及如何实现从“执行者”到“解决者”的思维跃迁。实施该模式后,ListenHub 迭代效率显著提升,从过去“单业务线半月一更”进化为“三业务线并行每月交付 8-12 个重大功能”,并成功在 Q3 走通 PMF,Q4 达到 数百万美金 ARR,实现公司估值 10 倍增长。本次演讲还将揭示这套让组织具备“液态”创新能力的底层逻辑。 徐文健,作为从 0 到 1 的务实创业者,他专注于 AI 工程与下一代组织形态探索。在 Listenhub 构建了开放创新的“液态组织”生态,挖掘并培养了一批优秀的年轻人。一年内带领团队完成从 0 到 300W 美金 ARR 的跨越,助推公司估值达到 5000W 美金,跻身 Nvidia 2025 年度中国初创企业十强。他在本次会议的详细演讲内容如下: 演讲提纲 开场:从”草台班子的觉醒“说起 分享 2025 年的组织至暗时刻: 每个人都很忙但产品在“空转” 2. 诊断:工业化分工的“局部最优陷阱” 解构传统架构的失效 痛点案例 AI 时代的特殊性:确定性交付变为概率性探索 3. 破局:定义 AI Native 组织 重新定义 AI Native 基建在这个时代的新定位 核心变革:从“功能型”到“任务型” 4. 实战:ListenHub 的“任务酒馆”模式 理念介绍:优秀的人解构世界思考问题的方式一定是优秀的 机制介绍 机制一:决策层与任务小队 机制二:任务酒馆 机制三:结果导向 过程中遇到的困难 难点一:如何改变大家心态,从‘执行者’到‘解决者’的思维跃迁 难点二:如何微调团队跨越技能鸿沟 难点三:如何定义创新。到底是“做新功能”叫创新,还是“解决老问题的效率提升 10 倍”叫创新? 5. 推动的根基:文化是唯一的 API 文化基础 Leader 的自我革命 6. 新的挑战 演讲亮点 首创“任务酒馆”液态全栈组织模式,重构 AI 时代的康威定律 打破“人效悖论”的组织工程学实战,实现从草台班子到 AI Native 的跃迁 听众收益 获取一套可落地的 AI Native 组织架构蓝图 掌握打破“AI 时代人效悖论”的实战转型路径 解锁 AI 时代“超级个体”的职业进化心法 除此之外,本次大会还策划了Agentic Engineering、多模态理解与生成的突破、记忆觉醒:智能体记忆系统的范式重塑与产业落地、具身智能与物理世界交互、Agent Infra 架构设计、AI 重塑数据生产与消费、AI 原生基础设施、AI 驱动的技术债治理、小模型与领域适配模型、大模型算力优化、Agent 可观测性与评估工程、AI for SRE等 20 多个专题论坛,届时将有来自不同行业、不同领域、不同企业的 100+资深专家在 QCon 北京站现场带来前沿技术洞察和一线实践经验。 更多详情可扫码或联系票务经理 18514549229 进行咨询。

上周五晚上10点,我接到老同学李明的电话。他在上海创业做智能家居,声音里透着疲惫:“网站流量不错,但客服忙不过来,很多潜在客户问了几句就离开了。” 我问他试过智能客服吗?他苦笑:“研究过几家,要么需要技术团队折腾好几天,要么回答不准确,反而影响用户体验。” 这让我想起了自己第一次接触访答智能客服的经历。 第二天,我向李明演示了访答的接入过程。没有复杂的API对接,没有繁琐的配置流程——只需要把一行代码粘贴到官网HTML中。 五分钟后,他的网站右下角出现了一个精致的聊天窗口。我们试着问了几个产品相关问题:“你们最贵的智能灯具有什么特色?”“安装需要专业人员吗?” 机器人不仅准确回答了问题,还附上了官网对应页面的链接。李明瞪大了眼睛:“它怎么知道这么多?” 访答的独特之处在于,它能深度理解网站的全部内容——包括图片中的文字信息。当用户询问“那个圆形设计的音箱多少钱”时,它能识别产品图中的圆形音箱并给出准确回答。 更让人惊喜的是溯源功能。每次回答都会提供参考链接,用户可以直接跳转到官网详细页面。这不仅增强了可信度,还巧妙引导用户深入了解产品。 两周后,李明再次打来电话,这次语气轻松了许多:“客服团队现在只处理复杂问题,常规咨询全部交给机器人了。最棒的是,它7×24小时在线,连凌晨的海外客户咨询都能即时响应。” 他的转化率提升了18%,因为每个访客的问题都能得到即时、准确的回答。 有人担心机器人会显得冰冷,但访答通过精准的中文理解和友好的交互设计,让对话变得自然流畅。它不会生硬地推销,而是基于官网内容提供有价值的信息,就像一位训练有素的在线顾问。 如今,李明的团队可以专注于产品研发和核心客户服务,而那些重复性的咨询工作,交给了一位永不疲倦的智能助手。 有时候,最好的技术不是取代人类,而是让我们专注于更有价值的事情。一行代码的背后,是一家企业服务理念的升级,也是无数个像李明这样的创业者终于能睡个安稳觉的夜晚。一行代码,让官网开口说话
五分钟的奇迹
不只是回答问题
解放的人力
技术的温度

这两年,做跨境电商、社媒运营、广告投放、数据采集等场景的人,几乎都会遇到一个问题:IP越来越“不好用”了。 曾经价格低、速度快的数据中心IP,正在被越来越多的用户替换为动态住宅IP。这是怎么回事呢?下面就跟着小编一起来聊聊吧! 一、平台风控系统升级 数据中心IP来自机房服务器,IP段集中、结构明显,往往可以被平台通过IP库直接识别。 在早期,平台的风控机制相对宽松,只要IP不在黑名单中,很多操作都是可以顺利进行的。但如今,像跨境电商平台、海外社媒平台,已经能够通过IP数据库判断IP来源类型。 一旦识别为数据中心IP,往往会列入高风险访问。 这意味着: 注册通过率降低 账号关联风险提升 登录频繁触发验证 广告账户审核更严格 换句话说,不是数据中心IP“不能用”,而是它越来越不适合对环境要求高的业务场景。 二、平台需要真实用户环境 冬天住宅IP的核心优势,在于”来源真实“。 住宅IP来自真实家庭宽度网络,属于普通用户日常上网使用的IP类型。从平台视角来看,这种访问行为更接近于真实用户,因此信任度更高。 特别是在以下场景中差异明显: 海外账号注册 多账号运营 社媒矩阵管理 当平台判断一个访问行为是否异常时,IP来源是第一层判断逻辑。住宅IP在这一层筛选中更容易通过。这也是越来越多的从业者转向动态住宅IP的关键原因。 三、动态轮转机制,降低IP风险 除了“来源类型”不同,动态住宅IP还有一个重要特征:自动更换。 数据中心IP往往是固定IP或者固定段IP,长期使用后容易被平台标记。一旦被标记,风险会持续累积。 而动态住宅IP通常支持定时或按需更换IP,IP会在不同住宅网络之间轮换。这样做的优势在于: 降低单IP被标记的概率 减少账号间IP重复使用风险 避免长期行为轨迹暴露 在多账号运营环境中,这种机制尤为重要。 四、风控逻辑从“IP检测”走向“环境检测” 需要注意的是,今天的平台风控并不仅仅看IP。 浏览器指纹、设备环境、DNS解析、时区匹配等,都可能成为判断因素。很多人误以为只要换了IP就安全,但实际上,IP只是其中一个环节。 如果使用数据中心IP,本身就会被归类为高风险来源,那么后续再如何优化环境,成功率都会打折。 相比之下,动态住宅IP在底层环境判断上更接近真实用户,折让整体环境更容易通过平台风控模型。 五、要看“是否匹配场景” 需要理性看待的是,数据中心IP并非完全淘汰,它依然适用于: 高并发抓取 技术调试 对账号要求低的测试场景 而动态住宅IP更适合: 多账号长期运营 海外平台注册 社媒矩阵管理 跨境电商店铺环境 真正的趋势,不是单纯放弃某种IP类型,而是根据业务风险等级作出选择。 六、结论 平台规则不断升级,风控机制在持续迭代。IP从“可用”走向“可信”,是这个行业变化的核心。 当数据中心IP逐渐成为可被识别的机房资源时,动态住宅IP因其真实来源于轮换机制,开始成为更稳妥的选择。
在刚结束的2026年度分析师大会上,Zoho与现场150多位分析师,分享了最新成果与AI战略。其中,一组数据备受鼓舞:Zoho用户量突破1.5亿大关,全球付费企业客户超100万。过去一年,Zoho客户数量同比增长32%,营收增长20%,持续保持稳健增长。莺初解语,好事正酿。与春天一同到来的,还有Zoho的好消息。 1996年,Zoho由斯瑞达•温布、托尼•托马斯联合创办,凭借惊人的执行力,团队仅用 20 多天便推出了首款明星软件产品 WebNM 的原型,开启了「IT改变世界」的梦想之路。经过30年的发展,2026年,Zoho的团队已有19000人,分支机构遍布全球,办事处达90多家,业务覆盖150多个国家和地区,从繁华的都市中心,到偏远的乡村基地,都能看到Zoho的身影。 产品矩阵也从最初的单一应用,扩展至如今的60+款,全面满足企业营销、销售、客服、办公协同、HR财务、项目管理及定制开发等一体化管理需求。 2025年,AI走进千行百业。Zoho相继推出了专属AI大模型Zia LLM、构建了Zia Agents智能体生态,全线产品接入AI能力,为员工的创造力松绑,为企业的高速发展提效。 如春天的雨露平等地滋润每一片叶子,Zoho也始终坚持:科技不应是少数人的特权。 创立初期,「价格实惠、软件好用」 是无数中小企业选择 Zoho 开启数字化之旅的理由。 如今,「安全合规、全球化与本地化能力兼备」 成为了大批出海企业持续信赖 Zoho的重要基石。 特富特科技 董事长助理 Sylvia “特富特创立初期,就选择了与Zoho合作,至今已走过17年。我们从Zoho的邮箱产品到升级选用Zoho Workplace办公协同套件,Zoho带给我们的产品体验、提供的技术支持以及对客户数据安全的重视,这些良好的服务是我们坚定不移、持续选择Zoho的重要原因。" 鲁邦通 监事•海外事业部负责人 邝光炜 "Zoho是一家国际化企业,旗下CRM、WorkDrive、Campaigns等工具,非常匹配我们不同岗位的需求。我们感谢Zoho的专业服务,及时高效到位、也非常接地气,所以现在公司整个海外业务的运营,高度依赖Zoho提供的产品服务和支持。” Tapdata创始人兼CEO 唐建法 “我们选用了 Zoho CRM、Zoho Desk 等多款产品,Zoho 完善的全球化布局与良好的市场口碑,是我们选择 Zoho 的主要原因。依托Zoho 覆盖全球的技术支持与服务网络,Tapdata 能够更高效地拓展各地区业务,进一步提升全球化服务能力。” 数字在增长,但初心始终未变。这份信赖,由全球各地的客户共同书写。我们很荣幸,能与企业彼此成就,并肩前行。感谢你在世界的每个角落,选择与Zoho同行。

20天到30年
100万家付费企业客户的背后,是100万个并肩成长的故事
获取更多资讯,请关注公众号:Zoho
在万物互联的时代,一个直观、高效、可控的管理中枢,是企业实现万物智联的关键。物联网平台正是为管理分散、复杂的海量设备而生,物联网是一个智能总控枢纽和数字驾驶舱。它将至关重要的数据监控、清晰的功能导航与高效的运营工具深度融合,管理员能一眼看清业务全景,一键触达核心功能,在第一时间掌握态势并采取行动。
以JVS物联网为例,系统提供了可配置可视化的门户,打破了传统管理界面千篇一律的束缚。用户可以自由设计信息看板,实现千人千面的信息视图。
JVS 物联网应用平台的首页是平台的总控枢纽部分。它集成了数据监控、功能导航和日常运营工具这三大核心功能:
• 数据监控:关键信息全局可视化,状态实时感知。
• 功能导航:清晰指引,快速抵达任一业务模块。
• 日常运营工具:高频操作便捷入口,提升运维效率。
这三大功能融合,确保了管理者能够在第一时间掌握全局,并迅速做出决策。
核心功能模块
1.全局导航系统
顶部主导航
• 物联网中心:设备管理与数据监控
• 视频中心:视频流接入与监控
• 平台管理:系统配置与权限管理
左侧边栏导航
• 首页:系统概览
• 设备管理:产品定义、设备注册、分类管理
• 运维管理:协议插件、驱动开发、固件升级
• 数据采集:控制器配置、采集器管理、设备连接状态
该区域是配置化门户的核心区域, 是通过可视化界面快速搭建和管理企业级首页的工具,支持配置实现首页的构建、千人千面等核心功能。其核心组件包括:
• 数据图表:自由组合卡片、导航栏、数据图表等组件;
• 系统组件:按角色/部门控制页面内容可见性;
• 设备分布:PC端、移动端自动适配布局;
• 数据实时联动:与企业后台系统(如ERP、OA)无缝对接。
首页采用集成了开源的动态门户插件实现。
点击编辑工作台,如下图所示,即可进入自定义首页的页面设计器中:
进入页面设计器中,支持拖拽组件,可以控制组件的位置与大小
点击右上角的组件库,可以调整自己的首页上有哪些组件展示,如下图所示:
组件库是由具备管理权限的用户进行设计,如下图所示:
①:具备权限的用户进入平台管理界面
②:点击组件管理,右侧展开组件管理的界面
③:点击点击某个分类(可以创建自定义分类)
④:点击新增组件,即可进入组件设计器中。
⑤:点击组件,可以直接对已经生成的组件进行编辑修改删除。
2026年,大模型技术的普及正将企业竞争的主战场从“运营效率”拉升至“决策智能”。对管理者和出海先锋而言,升级客户关系管理战略已超越IT范畴,成为重构商业模式、寻找第二增长曲线的核心战略。 当AI技术越过应用拐点,客户管理的底层逻辑已被彻底颠覆。AI正从边缘的辅助插件,强势接管业务全生命周期,标志着客户管理正式从“被动记录”向“主动赋能”跃升。 商业软件的发展史,也是企业与客户连接方式的进化史。2026年是一个明确的技术分水岭,AI已经从CRM软件的功能插件转变为不可或缺的底层基础设施。 第一阶段 记录时代:核心是数据资产化。企业建立静态数据库,解决客户信息防丢失、防人员流动带走等基础安全问题,处于客户管理的初级阶段。 第二阶段 流程时代:核心是运营标准化。企业通过漏斗管理、审批流等机制实现内部流程的标准化,侧重于流程管控,以提升规模化复制的效率。 第三阶段 智能时代:2026年全面进入AI主导时代。AI接管了海量数据的认知、推理与生成工作,CRM软件从被动的信息孤岛演变为具备自主学习能力的客户管家,直接驱动业绩增长。 在当前的商业生态中,掌握AI应用能力即掌握客户管理的主动权。伴随AI技术的渗透,客户生命周期管理正呈现出四大明确的新趋势: 在过去,企业空有海量客户数据,却难以拼凑出一个真实的客户。2026年的新趋势是,AI全面接管了数据清洗与分析工作。它能够实时抓取客户在官网、邮件、会议甚至社交媒体上的碎片化互动,通过语义解析自动生成360度全景画像。AI不仅记录交易历史,更能精准推理客户当下的痛点与潜在需求,让客户洞察从静态标签转向动态生成。 传统客户管理往往在客户流失或投诉时才被动介入。AI使客户管理演变为一门预测性科学。算法通过深度学习历史成单周期、活跃度频率及宏观市场变量,能够精准预测线索赢单概率,提前预警关键客户的流失风险,并自动规划下一步最优行动,将管理从阶段性补救前置为全局谋划。 前沿企业已不再强制销售人员填写繁琐的跟进记录,多模态AI正成为业务员的专属智能助理。在沟通现场,AI实时将语音转化为文本,提取痛点、预算和决策人信息,并在侧边栏推送话术建议。沟通结束后,AI自动生成结构化记录并录入系统,极大释放了一线的业务生产力。 随着企业出海步入深水区,面对多语种、多文化及严苛隐私法规的全球客户群,传统中心化管理面临挑战。AI正成为跨国客户运营的核心中枢。它不仅能实现全天候跨语种无缝翻译与智能响应,还能通过内嵌风控模型实时进行数据脱敏与合规审查,实现本地化体验与全局化合规的统一。 客户管理已从流程驱动全面跨入AI驱动的深水区。然而认知共识并不等同于落地成功。企业在拥抱这些趋势时,常面临通用大模型缺乏B2B行业经验、底层数据割裂导致计算失准、数据安全风险难以把控等现实阻碍。如何跨越技术与业务的鸿沟,将AI转化为前线好用的数字化工具,是所有企业面临的新课题。 面对智能时代的新诉求与落地痛点,纷享销客CRM全面升级并构建了以ShareAI为核心的智能应用矩阵。这不仅是对传统CRM功能的迭代,更是对底层商业逻辑的重构。ShareAI将通用大模型与深度行业智慧相融合,通过构建全场景的Agent(智能体)矩阵并强化数据安全机制,精准回击了客户管理的新趋势,为企业打造了一套无界的智能经营新范式。 对应企业从“沉睡数据”向“全景画像”升维的诉求,ShareAI重构了数据采集与解析逻辑,赋予了CRM强大的感知与洞察能力。 针对企业将客户管理前置为“预测性主动经营”的战略需求,纷享销客引入了对话式智能分析与行业专属的智能体,全面替代了传统的滞后性静态看板。 为了推动销售团队从“系统管控”向“智能体并肩作战”演进,ShareAI将知识赋能直接嵌入了业务一线的最深处。 针对出海企业面临的语言与合规壁垒,纷享销客智能型CRM提供了兼具无界服务体验与严苛数据风控的双重保障。 从依靠手工录入的1.0时代,到追求流程管控的2.0时代,再到今天AI全面接管认知与决策的3.0时代,CRM已经完成了其历史使命的蜕变。
为了有效承载这一战略转型,企业对CRM软件这一管理工具的定义也发生了质变。客户关系管理软件不再是销售团队的记账工具或监控面板,而是驱动战略落地的智能引擎。纷享销客ShareAI产品矩阵印证了这一趋势:CRM软件正深度融合AI与行业Know-how经验,演进为能自主思考、敏捷响应并直接赋能经营的智能商业操作系统。
一、2026 客户管理新纪元:AI从辅助工具跃升为新主流
1、客户管理的历史性跨越:AI 成为 CRM 软件的标配底座
2、2026 客户管理四大新趋势:AI全面重塑核心业务逻辑

趋势一:客户洞察升维,从沉睡数据到生成式全景画像
趋势二:客户旅程重塑,从被动响应到预测性主动经营
趋势三:销售赋能进化,从系统管控到智能体并肩作战
趋势四:全球管理破局,击碎无国界运营的语言与合规壁垒

二、纷享销客智能型CRM 重塑客户管理智能经营新范式

突破一:洞察智能体构建全景画像
一方面,情报洞察Agent能够自动突破企业内部数据孤岛,全网获取客户的工商变更、舆情、招投标及关键联系人履历,并在风险发生时自动触发预警与行动建议。另一方面,客户互动Agent聚合了邮件、IM、腾讯会议及现场录音等多模态语料,AI不仅能自动提取会话中的客户核心关注点与异议,还能精准识别发言人情绪与态度,客观还原客户现场。这种深度的语义解析,让企业对客户的认知彻底从二维标签进化为动态、立体的全景画像。突破二:智能BI驱动预测经营
智能BI Agent让经营分析从“人工拖拽报表”进化为“自然语言对话”。管理者提问后,系统不仅瞬间召回数据图表,更通过多维度动态归因分析(如拆解区域失衡、识别客单价异常),自动生成针对性的业务改进建议。在具体的实体行业中,如快消领域的AI访销大脑,AI甚至能在业务员外勤时动态推演当日路线,提前预警目标门店的应收款风险,并自动推荐补货机会点。数据由此真正化作了指导下一步行动的预测性指令。
突破三:互动智能体赋能一线实战
在销售与客户沟通的现场,客户互动Agent不仅能将语音实时转写为文字,更会基于系统预设的SOP与沉淀的优秀企业知识库,在侧边栏实时推送应对策略与金牌话术建议。沟通结束后,系统自动提炼商机阶段变化、预算调整等核心要素并无缝回写CRM,免除了人工录入的繁琐。
在开发端,低代码编程Agent(ShareAPL助手)通过自动续写与代码注释解析,将企业个性化业务逻辑的开发效率提升了30%,使得业务前线与IT后台的响应速度达到了空前的统一。突破四:可信底座护航全球出海
在服务触达面,7x24在线客服Agent无缝集成了WhatsApp、网页等多渠道,具备多语言自如切换能力。它能够精准识别海外客户意图进行智能应答,并在必要时跨语种自动生成工单流转至国内研发团队,实现全球协作零时差。
在合规底座上,纷享销客构建了高生产力的可信AI架构。系统严格遵循AI应用权限与CRM业务数据一体化的鉴权机制,执行商用大模型数据零留存标准,并支持敏感数据掩码与多维度AI审计日志。通过国内与海外大模型的隔离部署,ShareAI确保了企业数据不出境,从根本上化解了跨国运营的合规风险。
三、拥抱智能商业操作系统,赢得未来的核心入场券
未来的企业核心竞争力,不再仅取决于物理资产规模或市场份额,而在于谁能更快、更深地将AI能力内化为组织能力。纷享销客智能型CRM正通过其高生产力的AI PaaS底座、全场景业务智能体矩阵以及安全合规架构,帮助企业构建会思考、能进化、全球互联的智能商业操作系统。
在这个新纪元里,率先完成智能化武装的先行者,必将在无界的全球商业版图中打破传统的增长天花板,确立属于自己的竞争优势。
一款采用 Tauri v2 + Vue 3 + Rust 开发的现代化、轻量级 Mac 目录清理工具。致力于帮助用户快速扫描任意文件夹,根据多种自定义属性过滤并清理庞大的垃圾文件。

注:为了确保数据安全,此应用会将扫描出的文件移入 Mac 的“废纸篓”,你可以随时在废纸篓中将其恢复。
100 MB )。30 天)。.log, .tmp, .dmg)。
攻击仅需满足一个条件:
开发者在浏览器中访问恶意网站或被入侵的网站。
在建立认证会话后,远程攻击者可直接操控 AI 智能体:
指令其检索 Slack 历史中的 API 密钥、读取私密消息、从关联节点窃取文件,并执行任意 Shell 命令。
OpenClaw 团队将该漏洞定级为高危,并在 24 小时内发布补丁 —— 对于志愿者驱动的开源项目而言,这一响应速度值得肯定。
但鉴于该工具普及极快,企业应假设开发者设备中仍存在未修补实例,并以同等紧急程度推进修复。

Ollama 模型注册表路径遍历漏洞(CVE-2024-37032):
该漏洞 CVSS 评分 8.8,攻击者可利用路径遍历序列劫持 Ollama 的拉取(pull)机制。
该模块通过加载恶意 OCI 注册表,将恶意共享对象文件写入目标设备;强制 Ollama 生成新进程后,恶意库会被加载,最终实现未授权的 root 级远程代码执行。
BeyondTrust PRA 与 RS 命令注入漏洞(CVE-2026-1731):
该高危漏洞 CVSS 评分 9.9,可在 BeyondTrust 特权远程访问(PRA)与远程支持(RS)设备中实现未授权命令注入。
本次更新还新增了 BeyondTrust 辅助库,以简化后续模块的开发流程。
潮流网络 GXP1600 栈溢出漏洞(CVE-2026-2329):
该漏洞针对 VoIP 设备,CVSS 评分 9.3,攻击者可通过该漏洞获取root 权限会话。
Rapid7 本次发布包含 1 个漏洞利用模块和 2 个后渗透模块,可利用该权限窃取凭证,并代理 SIP 流量以实现数据包捕获。
此外,执行文件被拆分重构,可更精细化地适配不同平台与架构。
最后,本次更新修复了 LDAP ESC 扫描器与 GraphQL 自省(Introspection)扫描器的崩溃问题与误报问题。

该工具的第三版用一句标语直接瞄准 Cobalt Strike 用户,清晰表明其定位:
“Cobalt Strike 难用?试试 Vshell!”
这对那些觉得商业攻击模拟工具过于昂贵或操作复杂的威胁分子构成了直接吸引力。
这款工具的使用者并不只是零散攻击者。
2025 年期间,Vshell 出现在多起已公开披露的攻击行动中,包括:
不同威胁组织均在使用这一趋势表明:
Vshell 已不再是小众工具,而是在整个黑产攻击生态中成熟普及、广受信赖的核心能力。
这种设计理念直接对标 Cobalt Strike 架构:
由中央团队服务端(teamserver)管理多个木马植入程序,同时为攻击者提供完整的会话控制、数据传输与隧道功能。
网络团队应重点检查 DoH 与 DoT 流量中的异常行为,这类信道常被用于 C2 通信。
由于 Vshell 基于 NPS 构建,可复用针对 NPS 流量的检测规则。

2026 年 2 月 22 日至 2 月 25 日,威胁情报机构 GreyNoise 监测到一场高度协同的侦察活动,目标直指部署 SonicWall SonicOS 的网络设备。
此次攻击已出现超过 84,000 次扫描行为,来源涵盖 4,300 余个独立 IP,攻击者正在全网疯狂搜索可攻入企业内网的薄弱网关。
这场行动的突出特点在于极强的精准性。
它并非嘈杂、广撒网式的漏洞利用,而是有明确目的:在监测到的扫描中,92% 都只执行一项操作—— 访问特定 API 接口,检查目标是否开启了 SonicWall SSL VPN 功能。
攻击者使用商业代理服务隐藏真实来源,在数千个 IP 之间快速轮换,以短促、精准的方式探测,从而避开自动化防御系统。
由于此阶段几乎没有真实攻击行为,这也证实当前属于纯粹的攻击面测绘,是后续开展撞库、暴力破解前的关键准备步骤。
对于运行 SonicWall 设备的机构而言,这场侦察行动等同于红色警报。
SonicWall SSL VPN 已是当代勒索软件组织最常用、资料最完备的初始入侵入口之一。
已知 Akira 和 Fog 等勒索软件组织,多次展示出在 4 小时内,即可利用泄露的 SonicWall VPN 凭据完成全网加密的能力。
其造成的经济损失极为惊人:自 2023 年 3 月以来,仅 Akira 团伙就入侵了至少 250 家机构,非法获利约 2.44 亿美元。
更令人警惕的是,75% 的 SonicWall VPN 入侵事件均由 Akira 实施。
安全团队必须立即采取行动,避免成为下一个目标。
GreyNoise 建议在 5 分钟内完成以下自检,判断设备是否已被盯上:
/api/sonicos/is-sslvpn-enabled(探测 VPN 启用状态)/sonicui/7/login/(探测管理界面)/cgi-bin/userLogin(尝试 VPN 凭据)若使用 SonicOS 7.x,进入管理页面:
NETWORK | SSL VPN > Status
确保 SonicOS 固件已更新至最新版本。
等于或低于以下版本均存在 CVE-2024-53704 漏洞风险:
最重要的措施:
为所有 SSL VPN 用户强制开启多因素认证(MFA)。

但攻击者发现,部分服务商的 DNS 记录管理系统存在重大安全盲区。
攻击者借助免费 IPv6 隧道服务,获取特定 IPv6 地址段的管理权限。

趋势科技指出,利用该漏洞需要能够访问 Apex One 管理控制台。
官方同时警告,控制台地址直接暴露在公网会显著提升风险,建议未配置访问限制的用户立即添加源 IP 限制策略。
| CVE | 漏洞类型 | CVSS | 平台 | 关键说明 |
|---|---|---|---|---|
| CVE-2025-71210 | 控制台目录遍历 RCE | 9.8 | Windows | 需要控制台访问权限;SaaS 环境已缓解 |
| CVE-2025-71211 | 控制台目录遍历 RCE | 9.8 | Windows | 与 71210 原理类似 |
| CVE-2025-71212 | 符号链接跟随 LPE | 7.8 | Windows | 需要先执行低权限代码 |
| CVE-2025-71213 | 来源校验 LPE | 7.8 | Windows | 需要先执行低权限代码 |
| CVE-2025-71214 | 来源校验 LPE | 7.2 | Mac | 仅作信息告知;此前已修复 |
| CVE-2025-71215 | TOCTOU 竞态 LPE | 7.8 | Mac | 仅作信息告知;此前已修复 |
| CVE-2025-71216 | TOCTOU 竞态 LPE | 7.8 | Mac | 仅作信息告知;此前已修复 |
| CVE-2025-71217 | 来源校验 LPE | 7.8 | Mac | 仅作信息告知;此前已修复 |

安全公告中披露了由安全研究员 Tiantai Zhang、Víctor Fresco 与 Watchful IP 发现的7 个独立漏洞。
其中最危险的为未授权命令注入漏洞,同时还存在多个需认证的命令注入漏洞与空指针解引用漏洞。
| CVE ID | 漏洞类型 | 影响与攻击方式 |
|---|---|---|
| CVE-2025-13942 | 命令注入(UPnP) | 远程攻击者可通过构造 UPnP SOAP 请求执行任意系统命令 |
| CVE-2025-13943 | 认证后命令注入 | 已认证用户可通过日志文件下载功能执行系统命令 |
| CVE-2026-1459 | 认证后命令注入 | 管理员可通过 TR-369 证书下载 CGI 执行系统命令 |
| CVE-2025-11845 | 空指针解引用 | 向证书下载 CGI 发送特制 HTTP 请求可导致设备 DoS |
| CVE-2025-11846 | 空指针解引用 | 向账户设置 CGI 发送畸形 HTTP 请求可导致设备 DoS |
| CVE-2025-11847 | 空指针解引用 | 向 IP 设置 CGI 发送畸形 HTTP 请求可导致设备 DoS |
| CVE-2025-11848 | 空指针解引用 | 向网络唤醒 CGI 发送特制请求可导致设备崩溃(DoS) |
| 设备类别 | 受影响型号 | 受影响版本 | 已修复版本 |
|---|---|---|---|
| 4G LTE/5G NR CPE | Nebula NR7101 | 1.16 (ACCC.1) C0 及更早 | 1.16(ACCC.1)V0 |
| DSL/Ethernet CPE | DX4510-B0 | 5.17 (ABYL.10) C0 及更早 | 5.17(ABYL.10.1)C0 |
| Fiber ONTs | PX5301-T0 | 5.44 (ACKB.0.5) C0 及更早 | 5.44(ACKB.0.6)C0 |
| Wireless Extenders | WX5610-B0 | 5.18 (ACGJ.0.4) C0 及更早 | 5.18(ACGJ.0.5)C0 |
| 缓解措施 | 说明 |
|---|---|
| 升级固件 | 从官方支持门户或社区论坛下载并安装最新固件 |
| 限制 WAN 访问 | 若非必需,禁用外部接口的 WAN 访问与 UPnP 功能 |
| 更新凭证 | 修改默认或弱口令,防止认证后漏洞被利用 |
| 联系运营商 | 运营商提供的设备请联系服务商获取定制固件更新 |

角色一致性
模型可在单次创作流程中,保持最多 5 个不同角色的外观统一。对于需要制作分镜、连续视觉故事的创作者而言,这是一项极具实用价值的核心功能。
精致细节与高保真画质
支持最高 4K 分辨率 输出,纹理更丰富、细节更清晰,超越此前所有版本。
指令精准执行
模型对复杂、多层级提示词的遵循度大幅提升,确保最终生成内容与用户创作意图高度一致。
伴随 Nano Banana 2 发布,谷歌同时宣布对旗下产品体系进行全面升级与调整。
Nano Banana 2 将正式替代原有 Nano Banana Pro 成为 Gemini App 默认图像模型。
而 Google AI Pro 与 Ultra 订阅用户,仍可在专业场景中继续调用 Nano Banana Pro。
此外,Nano Banana 2 还将立即成为谷歌搜索 “AI 模式”、Google Lens 以及 Flow AI 创意工作室的默认图像模型。
谷歌推出 Nano Banana 2 的战略意图十分明确:以速度换取更广泛的场景覆盖。
过去,Nano Banana Pro 虽展现了谷歌在图像生成领域的顶尖实力,但计算缓慢、成本高昂始终是大规模普及的短板。
基于 Gemini 3.1 Flash Image 架构打造的 Nano Banana 2,如同在轻量化框架中装入顶级引擎,让普通用户也能在瞬间获得专业级的文字渲染与角色一致性体验。
尤其值得关注的是,5 个角色保持视觉统一的能力,直接弥补了当前 AI 绘画在漫画创作、商业分镜制作中最明显的缺陷。
未来的核心看点在于:这款主打极速生成的全新模型,在面对海量、复杂提示词的真实场景时,能否稳定保持官方宣称的 4K 画质与写实效果,并彻底避免传统 AI 生成图像常见的各类瑕疵。

| 分类 | 详情 |
|---|---|
| CVE 编号 | CVE-2025-15576 |
| 影响组件 | 内核 / Jail 模块 |
| 受影响版本 | FreeBSD 14.3、FreeBSD 13.5 |
| 利用条件 | 需要共享 nullfs 挂载与 Unix 域套接字 |
| 临时缓解方案 | 无 |
| 官方补丁 | 已发布 |

此次攻击的核心,是滥用 **WebDAV(基于 Web 的分布式创作与版本控制)** 协议。
Cofense 在报告中指出:“研究团队持续监测到,攻击者正在滥用 Windows 文件资源管理器通过 WebDAV 协议加载远程文件的能力,借助这种基于 HTTP 的文件管理协议,诱骗用户下载恶意程序。”

当受害者被诱导打开 WebDAV 链接(通常伪装成无害的.url或.lnk快捷方式)时,文件资源管理器会弹出一个与本地文件夹完全一致的窗口。
危险之处在于用户心理:Cofense 提到,在文件资源管理器中打开 WebDAV 链接,远比在浏览器中下载文件更隐蔽,用户几乎察觉不到文件正在被下载。
更危险的是,这种手段可以绕过标准边界防御。
由于恶意文件直接通过操作系统的文件管理器加载,该攻击完全绕过浏览器安全控制,同时因利用了非常见攻击向量,还可能绕过部分终端检测与响应(EDR)系统。
研究人员表示:“当用户浏览包含 UNC 路径 URL 快捷方式的目录时,该文件会自动向外发起连接,尝试访问攻击者服务器,从而直接提醒攻击者:Payload 已在目标主机上线。”
这意味着受害者甚至无需点击恶意文件,仅打开所在文件夹就会触发 DNS 查询,直接暴露自己。
为托管恶意 WebDAV 服务,攻击者大量借助合法基础设施隐藏行踪。
报告显示:“多个相似攻击活动均滥用 Cloudflare Tunnel 的演示实例(trycloudflare [.] com)搭建 WebDAV 服务。”
由于流量经过可信的 Cloudflare 域名,安全分析师很难一眼识别出恶意行为。
一旦连接建立,攻击者便会投放 Payload。
Cofense 数据显示,使用该战术的高级威胁报告中,高达 87% 最终会投递多款远程控制木马,包括知名的 XWorm RAT、Async RAT、DcRAT 等。
上个月,吴恩达团队针对当前 AGI 概念被过度炒作、定义模糊且标准混乱的问题,提出了一套以实际工作能力为核心的新版图灵测试,旨在重新界定 AGI、校准行业与公众预期,避免因虚高期待引发 AI 泡沫与行业寒冬。 该测试让 AI 或熟练人类在配备网络、浏览器、Zoom 等常用软件的电脑环境中,接受评委设计的、持续数天的真实工作任务,包含培训、执行与反馈环节,且任务内容不提前透露,评委可灵活设计场景;若 AI 能像专业人类一样高质量完成具备经济价值的工作,即视为通过测试。这一测试相比传统图灵测试更贴合现代 AI 目标,不再以 “欺骗人类评委” 为标准,而是聚焦真实生产力;同时也优于 GPQA、SWE‑bench 等固定基准测试,避免模型被针对性优化,能真正检验智能的通用性,也与大众对 AGI 的普遍认知一致。推出这套测试,核心是为了纠正企业随意降低 AGI 标准带来的误导,减少对学生、企业决策者与资本的错误影响,通过挤掉概念泡沫,让行业回归理性投入,推动可持续、有真实价值的技术落地。 近日,吴恩达参加了一档播客,谈及了新版图灵测试以及当下人工智能发展的关键议题。访谈没有停留在技术炫技与概念炒作,而是直面当下行业最核心的争议:AGI 到底离我们多远、大模型规模化是否走到尽头、AI 将如何重塑工作与教育、中美 AI 格局如何演变,以及技术发展背后的价值与责任。 吴恩达在访谈中反复传递一个清醒判断:AI 发展史上曾出现过几次 AI 寒冬,正是因为人们过度炒作,期望过高无法兑现,最终投资和关注度崩塌,这对行业伤害很大。如今 AI 效果很好、价值巨大,几乎没有什么能阻挡它的发展势头。而真正让人担心的问题之一,就是过度炒作导致失望,进而引发泡沫破裂,这对世界和 AI 领域都不是好事。因此,给 AGI 降温,是为 AI 行业实现更可持续发展打下基础。 AGI 原本的标准 —— 能完成人类任何智力任务,是非常高的标准,我们远未达到。但如果团队提出更容易实现的定义,就可以宣称更快达成。我不介意如何定义 AGI,但问题在于,大众心中的 AGI 就是类人通用智能。当不同团队用不同定义套上 “AGI” 这个词时,这个词就失去了意义。 针对行业热议的大模型路线,吴恩达强调:规模化时代并未结束,但已不再是唯一路径。早期 “堆数据、堆参数” 的简单模式已不可持续,合成数据、强化学习、工程化方案正在成为新的关键;同时,更聪明的模型无法直接替代可靠的工作流,在企业级高可靠场景中,结构化、可控制的智能体工作流,仍是现阶段落地的核心。 在最受关注的就业冲击上,他给出冷静而务实的结论:AI 不会大面积取代岗位,但会用 AI 的人,会取代不会用 AI 的人。只有呼叫中心、翻译、配音等极少数工作会被近乎完全自动化,绝大多数职业只会被 AI 部分赋能。真正的危机不在失业,而在教育体系跟不上 AI 时代,大量非技术岗位 —— 营销、财务、人力 —— 都急需具备 AI 能力的人才。 关于中美 AI,吴恩达打破单一 “领先” 叙事:美国在闭源模型上占优,中国则在开源与开放权重模型上走在世界前列,两国各有所长、多维竞争,共同构成全球 AI 最重要的两极。 访谈最后,吴恩达回归技术初心:他做研究、办教育、投创业,核心只有两点 ——让人类更强大,帮助更多人实现自己的梦想。AI 不是带来快乐的工具,快乐来自帮助他人的过程;而 AI 的终极意义,是把 “智能” 这种曾经昂贵的资源,变成每个人都可使用的能力。 整场对话像一剂 “降温针”:在狂热的概念竞赛中,吴恩达把 AI 拉回现实 ——不赌 AGI 何时到来,只做当下最有价值的事。这不仅是一位行业领袖的判断,更是一条更稳健、更普惠、更值得期待的 AI 发展路径。 以下为完整对话内容,经由 InfoQ 翻译及整理: 主持人:我一上来就想问问关于 AGI 这个问题,你几个小时前刚发布相关内容,可以从这个话题切入吗? 吴恩达:就任何合理的 AGI 定义而言,我的答案是:2026 年我们不会实现 AGI。除非有人大幅降低 AGI 的标准,才可能有公司宣称跨过了这个门槛。 主持人:那你如何解释、定义 AGI? 吴恩达:我最熟悉的 AGI 定义是:能够完成人类能做的任何智力任务的 AI。现在人类可能只需要花几十个小时,就能学会一项新技能,比如在森林里开卡车、在呼叫中心接电话并按企业要求回答问题。这些都是智力任务,而非体力任务。要让 AI 完成这些任务,目前仍需要工程师投入大量工作,去搭建定制化的 AI 工作流 —— 这本身很有价值,但这并不是大众心目中的 AGI。虽然我希望有朝一日计算机能在各方面都达到人类智能,但我认为我们离那一天还非常遥远。 主持人:你今天刚刚提出了一个新版图灵测试,能解释一下你的设想吗? 吴恩达:我对此很期待。因为 AGI 现在被炒得太热,已经从一个严谨的技术概念变成了营销术语,这在误导很多人。既然大家都关注 AGI、为之兴奋,那我们不如设计一个测试,来判断我们到底有没有接近 AGI。我把它叫做实用 AGI 测试:让人类评委设计一个持续数天的任务流程,比如通过电脑进行入职培训等;测试对象要么是 AI,要么是可以使用电脑、浏览器、Zoom 等普通软件的人类。如果在几天的过程中,AI 能够像一名熟练的专业人类一样,完成有经济价值的实际工作,在我看来这才是更合理的 AGI 定义。这也更贴近大众对 AGI 的理解 —— 大家认为 AGI 到来,就是 AI 能真正代替人工作,而不是某些企业为了公关、政策或融资而宣传的其他标准。 主持人:我之前采访过 2020 年诺贝尔物理奖得主 Sir Roger Penrose,他认为数学是封闭系统,AI 只是像玩游戏一样处理它。吴教授,你难道不担心根本不存在有效的 AI 测试吗? 吴恩达:AI 测试或基准的一个问题是:如果提前设定好测试集,就只能衡量 AI 的某一个特定维度。现在很多大模型都有标准基准,比如 SweetBench、GBQA 等,研究团队很难避免去针对已知测试集做优化,哪怕不是直接针对。而且 AI 的智能是 “参差不齐” 的,有些方面很强,有些方面很弱。但大家心中的 AGI,是能完成人类所有智力任务的 AI。固定测试集基准,和让人类评委实时探索、检验 AI 的强弱,这两者有很大区别。真正的 AGI,应该让人类评委找不到它在有经济价值的工作任务上明显弱于人类的地方。 主持人:那基准测试还在衡量真实有效的东西吗?有时候基准分数到 90%,用户却感觉 AI 更笨了。 吴恩达:我认为基准测试确实在衡量真实的东西,但只是非常窄的一部分。很多基准的弱点在于,我们更擅长设计客观型基准,比如数学题、事实类问题,有明确的对错。但现实中大量事情没有唯一最优解,比如对话、写研究报告,只有好坏程度之分。 我们很难设计出能衡量这些主观、灰度空间的测试,而人类大量实际工作都处在这个灰度里。现有的基准在这方面表现很弱。 主持人:如果 2026 年实现不了 AGI,那我们可以期待什么?OpenAI 的总裁 Greg Brockman 说,2026 年 AI 的两大方向会是智能体普及和科研加速。你怎么看? 吴恩达:我认为纠结 AGI 反而会分散注意力,我们离它还很远,短期内也实现不了。但即便没有 AGI,2026 年依然有大量极具价值的工作可以做、会继续做。我提出了智能体式 AI(Agentic AI) 这个概念,这是一个正在崛起的趋势。虽然构建能落地的商业流程 AI 需要大量工作,但一旦做成,价值巨大。 2026 年及之后,会有大量工作投入到 AI 智能体与智能体工作流中,去完成高价值、高经济意义的任务。我在 AION 的团队,已经在用智能体工作流写代码、审查文件、检查关税合规、阅读复杂法律文档辅助律师工作、做医疗辅助任务、支持客服等。把人类完成这些任务的思考过程编码进 AI 智能体或工作流,让 AI 代劳,这件事会持续很多年,价值会非常巨大。 主持人:谈到智能体工作流,“强化学习之父” Richard Sutton 有句名言:“纯粹的算力终将胜过人类的巧思”。你专注做智能体工作流,难道不是和这个观点相悖吗? 吴恩达:Sutton 的《苦涩的教训》影响很大,写得也很好。我先明确:我是支持规模化的。我创立 Google Brain 时,给团队的首要使命就是规模化—— 把神经网络做大、喂入大量数据。可以说我是 AI 规模化时代最早的推动者之一,当时很多人还觉得这很奇怪。也正是因为 Google Brain 以规模为核心基因,才诞生了 Transformer 架构,它是史上扩展性最强的神经网络架构,也推动了生成式 AI 革命。所以我真的相信规模化。但这不代表只靠规模化就能实现所有目标。在不同阶段,规模化与注入其他知识需要取得平衡。规模化规律确实存在,扩大系统和数据能较可预测地提升效果,这也成为融资的有力理由。但正因为规模化有其价值,它被过度炒作了 —— 它很有价值,但没被吹得那么神。而智能体工作流,可以在规模化大模型的基础上,再注入其他类型的知识,构建更可靠、性能更强的工作流。 主持人:那你现在真的认为规模化的时代已经结束了吗? 吴恩达:不,我不认为规模化时代已经结束。只是难度变得越来越大。AI 的进步可能呈指数级发展,但推动这种指数级进步所需的资金也同样呈指数级增长。用指数级增长的投入换来指数级快速的提升,这并不算差,而且非常有价值,因为研发成本可以分摊到大量用户身上。我认为规模化仍然有更多潜力可挖,但在现阶段,它不再是提升 AI 的唯一途径。 主持人:什么情况会改变你对规模化的看法? 吴恩达:你是说什么会让我放弃规模化?如果在很长一段时间内,进一步扩大模型规模都不再带来收益,那我才会改变看法。 但有一个重要的补充:就像过去几十年摩尔定律推动技术进步,但期间不断有不同技术迭代,才能让半导体持续变强。生成式 AI 早期的路径很简单:获取更多数据、训练更大的模型。这正是十多年前 Google Brain 设立时的目标。但现在,AI 模型几乎已经读完了整个公开互联网,这种简单的规模化方式不再有效。因此现在很多团队都在大力做合成数据生成,投入更多人力工程,研究不同的强化学习方案。所以即便规模化仍在带来收益,过去两三年里,实现规模化的具体方式已经发生了非常显著的转变。 主持人:从另一个角度看,一个更聪明的模型,能否直接胜过精巧的工作流? 吴恩达:理论上是可以的。我也希望事情这么简单,但在实践中,它比大多数人想象的要难得多。随着模型越来越智能,比如 GPT-4.5、Gemini 3、GPT-5 等,我们确实越来越能直接给大模型一套工具,然后放手让它去执行任务。比如给它读写文件系统的权限,让它清理硬盘冗余文件,效果确实非常惊人。但对很多工作流来说,可靠性还不足以投入生产环境。所以虽然更聪明的模型很好,但在大量实际商业场景中,团队还是会把工作流拆解、分步实现,以保证稳定可用,让系统可以稳定运行成千上万次。 随着模型越来越智能,我们确实在逐步放开限制,减少 “护栏”。我们半年前做的系统,约束和脚本会更多;现在我们会不断拆掉脚手架,不再给非常详细的分步指令,而是让模型自己做决策。比如深度研究智能体,一两年前我们还会规定:搜索多少次、下载多少页面、如何总结。现在的 AI 更有能力自己决定要不要继续搜索、要不要总结。我经常会把半年前、一年前的原型系统里的指令删掉,让模型自己判断。但这方面还有很长的路要走。这类方式在深度研究这类场景可行,就算漏引文献也问题不大;但对很多高风险企业级场景,直接放任 AI 自主行动,可靠性差距仍然比一些人认为的要大,尽管这个差距正在缩小。 主持人:我想问一下你关于 Yann LeCun 与 Demis Hassabis 之争的看法。Yann LeCun 认为,人类智能是专业化的,而非通用智能;Hassabis 则认为大脑是通用的学习系统。你站在哪一边? 吴恩达:我不觉得这两者有矛盾,可能是我没理解到分歧点。在我看来,人类大脑(可以看作非人工的 AGI)最了不起的地方,是它的可塑性与学习能力。我理解的 AGI,不应该是那种 “什么都已经知道” 的 AI,那既困难也不现实。人类大脑在经济活动中如此有价值,原因之一就是它能学习去做新的事情。正是通过学习,我们才获得了高度专业化的能力。比如一个大脑可以通过数学博士训练,去解决极难的数学问题,最终成为高度专业化的智能;但同一个大脑,如果接受不同训练,也可以成为国际象棋大师、网球高手。所以人类大脑的 “通用”,不在于它生来什么都懂,而在于它能适应、能学习极广泛的事情。 主持人:这听上去你其实更偏向 Yann LeCun? 吴恩达:是的。当年我创立 Google Brain 时,有个理念对我影响很大,现在大家提得少了:人类的学习可能来自单一的学习算法。我们的 DNA 长度有限,携带的信息不多,但 DNA 编码出了大脑的生理结构,而大脑是一个相当通用的学习算法。正因如此,大脑才能学会做数学博士、骑摩托车、用电脑、在呼叫中心工作。正是这套通用学习算法,让大脑可以通过学习,在几乎任何领域变得专业。是这种学习能力,让智能显得 “通用”。 主持人:几个月前有人说,谷歌注定失败,因为他们只是把 AI 嫁接在旧搜索上,而 OpenAI 是从头构建。你认为谷歌能把旧体系和新技术结合起来吗?竞争已经开始了,这难道不令人激动吗? 吴恩达:Sam Altman 曾是我在斯坦福的学生,我在谷歌也有很多朋友。我既支持 OpenAI,也支持谷歌。回顾技术变革的历史,每当出现颠覆性技术时,有时是新入局者胜出,有时是老牌企业胜出,双方都有机会。这场博弈还远未结束。以互联网变革为例,谷歌是伴随互联网崛起的公司,但微软、苹果这些早在互联网出现前就成立的老牌企业,同样发展得很好。显然,AI 对谷歌这类现有企业极具颠覆性,但谷歌的应对做得不错。Gemini 3 是非常出色的模型,我认为它优于 ChatGPT。我自己经常同时使用 Gemini、ChatGPT、Claude 等多款模型。 主持人:你多次谈到 AGI。五年前,能解决任何编程问题都会被称作 AGI,如今我们已经实现了,却只把它当成工具。 吴恩达:其实我并不喜欢谈论 AGI,但其他人讨论得太多、炒作得太厉害。作为行业从业者,我认为 AGI 被严重过度炒作了。至少在大众认知里,AGI 是 AI 达到人类水平的通用智能,我们离这一步还非常遥远。我希望能实现 AGI,但现实地说,我们还需要几十年甚至更久。认为再过几个季度就能实现 AGI,这是不可能的,除非重新定义、降低 AGI 的标准。 AI 发展史上曾出现过几次 AI 寒冬,正是因为人们过度炒作,期望过高无法兑现,最终投资和关注度崩塌,这对行业伤害很大。如今 AI 效果很好、价值巨大,几乎没有什么能阻挡它的发展势头。我真正担心的问题之一,就是过度炒作导致失望,进而引发泡沫破裂,这对世界和 AI 领域都不是好事。因此,给 AGI 降温,是为 AI 行业实现更可持续发展打下基础。 主持人:那你认为我们是在移动目标门槛吗?也就是说在降低 AGI 的判断标准? 吴恩达:我不记得有靠谱的团队宣称已经实现 AGI。我记得很多团队说 AGI 很快就会到来,但三年前他们也没说自己已经做成了。到目前为止,还没有人真正做到。 如果非要说变化,反而是很多团队在试图降低 AGI 的定义门槛。AGI 原本的标准 —— 能完成人类任何智力任务,是非常高的标准,我们远未达到。但如果团队提出更容易实现的定义,就可以宣称更快达成。我不介意如何定义 AGI,但问题在于,大众心中的 AGI 就是类人通用智能。当不同团队用不同定义套上 “AGI” 这个词时,这个词就失去了意义。就像 “蓝色” 本来有明确指向,如果所有人把各种颜色都叫作蓝色,这个词就不再有共识。现在 AGI 就是这种情况。有人用狭隘的技术定义宣称 AGI 即将到来,而公众却理解为 “两年内 AI 就会拥有人类智能”,这与事实不符。 主持人:那我们现在到底处在什么阶段?实现难度重要,还是实用价值更重要? 吴恩达:我认为实现细节和工程难度非常重要。比如 Anthropic 推出 Claude Code 及其 SDK,就是为了让大家能更好地驾驭模型能力。提示词如何构造、提供哪些工具、整体框架如何设计,这些细节至今仍然至关重要。 举个小例子:当前模型已经非常智能,调用工具的能力也在变强,但如果给大模型太多工具,会占用大量上下文窗口,模型更容易出错,调用错误的 API 或工具。哪怕到了 2026 年,这些工程细节依然影响巨大。很多团队使用 MCP(模型控制协议),如果 MCP 服务器里工具列表太长,会大量消耗上下文,模型反而无法有效选择。这就需要上下文工程和合理的框架来让决策更顺畅。 主持人:Anthropic 预测持续学习(continual learning)会在 2026 年解决,你是否同样期待? 吴恩达:我非常期待持续学习能被攻克。如果 2026 年真的完全实现,那会是惊人的突破。我认为我们会取得进展,持续学习非常重要。人类孩子学走路,只需要跌倒几次就能学会;而强化学习往往需要数百万次模拟。 主持人:我们只能靠暴力训练吗? 吴恩达:暴力训练的问题在于,人类智能的核心是学习算法的通用性,这让人类能极快地学会新事物。人类员工沟通后就能上岗工作,这非常有价值;但如果训练 AI 完成某项任务需要花费百万美元,对很多任务来说就不划算。如果样本效率不重要,那只有极少数几家公司能负担得起训练前沿模型。 主持人:开源、开放权重模型与闭源模型的格局会如何演变?我们会走向 AI 寡头垄断吗? 吴恩达:我不希望出现那样的未来。以移动开发平台为例,如今创新空间已经不大,部分原因就是存在少数守门人 —— 在美国,做移动端开发需要获得 iOS 或 Android 的许可,封闭平台限制了很多创新。我们 AI 行业很多人都希望,未来不会出现只有两三家守门人掌控前沿 AI 的局面。我希望所有人都能在大模型之上自由创新,开源与开放权重模型是避免出现少数守门人的关键。如果我们能保住 AI 行业如今比移动领域更高的创新自由度,就会涌现更多发明与应用,整个社会也会因此更加丰富。 主持人:目前也有一些关于非文本表示的研究,但现在大部分记忆还是基于文本。而且我们搭建的这些记忆系统,基本都不会去更新大模型本身的权重,这是不是意味着我们还缺少关键的一块拼图?持续学习当前最大的瓶颈是什么? 吴恩达:我认为我们还没有找到正确的思路,或者说还不确定什么才是正确的方向。目前只有一些看上去有希望的想法,但我还没来得及验证,也不确定能不能成。这就像在问:一个还没解决的重大科研问题,瓶颈到底是什么?因为路径不清晰,我甚至没法明确说出具体瓶颈是什么 ——我们就是还不知道该怎么做。 主持人:AI 知名学者 Eliezer Yudkowsky 认为,如果有人造出 AGI,人类会灭亡;但每年因为癌症、衰老、疾病死去的人数以百万计,而 AI 可能解决这些问题。你认为哪种风险更大? 吴恩达:我读他的很多观点时,经常理不清逻辑,有些论述在我看来循环性太强,我甚至不知道该怎么反驳。我认为 AI 今天已经在为世界带来巨大的正向价值,任何能加速 AI 进步的事,都会让生活变得更好、拯救更多生命、让更多人富裕、摆脱贫困。AI 的整体净收益远大于潜在危害。确实存在一些有害的应用场景,我们应该明确并清除这些场景。但就目前而言,我非常确信:推动 AI 进步对人类是有益的。 主持人:未来是不可预测的,对吧?我们是否需要更多 AI 安全工具? 吴恩达:未来当然不可预测,但这不代表我们没有高度确信的趋势。让计算机变得更智能,显然是一件好事;让智能触手可及、实现民主化,也非常重要。因为世界上最昂贵的东西之一,就是 “智能”—— 请一位优秀的医生、优秀的老师,成本都很高。当然,我们应该致力于让 AI 系统更可靠、降低风险。同时,大家身边的人大多在专注于能创造价值的事。很多人对硅谷有刻板印象,觉得这里的人只在乎钱,这完全是错的。我认识很多行业里的朋友,确实有极少数人只在乎利润,但那是非常小的一部分。我认识十多年的很多同行,是真的想做正确的事。他们非常重视安全,认真对待负责任的 AI,会坐下来认真思考 AI 系统可能出现的各种问题,并尽力降低风险。那种 “硅谷从业者只为利益不择手段” 的印象,是完全不符合事实的。不可否认,面对几十亿美元的诱惑,确实有少数公司会动心,但那真的只是极少数。 主持人:开源时代结束了吗? 吴恩达:开源现在发展得很好。一个有意思的现象是,目前很多顶尖的开源、开放权重模型来自中国。回顾过去几年,每年可用的开源 / 开放权重模型都在快速增长,所以我认为开源生态非常强劲。同时,闭源方案也在快速发展,但这没关系,重要的是开源选择也在同步强劲增长。 主持人:回看 AI 发展的现阶段,你心里在想什么? 吴恩达:我希望赋能每一个人去构建 AI。作为开发者,我再也不想手动写代码了,我希望 AI 尽可能帮我写代码。AI 给软件工程带来的效率提升是非常明显的。但很多人没意识到的是:不只程序员,所有人都会因为会用 AI、会用 AI 搭建工具而受益。我在团队里已经看到这种现象:懂 AI 的营销人员,效率远超不懂 AI 的同行;我旗下 AI 基金的 CFO,会借助 AI 写代码,工作效率也远高于不会用 AI 的 CFO。 AI 工具,尤其是用 AI 构建软件,将会是每个人都必须具备的重要新能力。有人拥抱这些能力,就能大幅提升生产力;也有人不愿接受,就可能被甩在后面。对此我其实挺担心的。一个很大的挑战是:大学系统的适应速度偏慢,很多课程还在培养适应 2022 年岗位的学生,而很多当年的岗位现在已经不存在了。企业现在极度缺乏懂 AI 的人才 —— 不只是程序员,而是营销、招聘、财务等各行各业的人。把教育体系转向让学生和成年人都能使用这些工具、大幅提升效率,需要巨大的转型。但现阶段要真正做到,我认为仍然非常困难。 主持人:程序员会失业吗? 吴恩达:不使用 AI 的程序员,处境会很艰难;而真正精通 AI 的程序员,生产力极高,市场上根本供不应求。说他们会彻底消失有点夸张。 大多数岗位不会消失,但有句话说得很对:AI 不会取代人,但会用 AI 的人会取代不会用 AI 的人,这在很多领域都成立。坦白说,确实有少数岗位会被 AI 完全自动化。比如很多翻译人员、配音演员,他们的工作面临较大冲击。对于这些会被完全自动化的少数岗位,我深表同情。作为 AI 从业者,我有责任帮助他们掌握新技能、重返职场,找到有意义的新工作。但对绝大多数岗位而言,AI 只能完成部分工作。比如放射科,AI 自动化的进程比人们预想的慢得多;法律行业受监管保护,完全取代人类律师也很难。但不用 AI 的律师,效率会远低于用 AI 的同行,因为 AI 在法律检索等方面表现极佳。关键在于:如果 AI 能完成一项工作的 30%,剩下 70% 仍需要人来做,但这个人必须会用 AI,否则就会在效率上落后。 主持人:你能预测哪些工作最终会消失吗? 吴恩达:明确会消失的,主要是那些几乎 100% 的工作内容都能被自动化的岗位,比如大量呼叫中心工作、翻译、配音演员等。但绝大多数工作都复杂且多面,AI 擅长文本处理,在非文本领域能力有限。很多研究将工作拆解为具体任务后发现,AI 通常只能自动化 30%-40% 的工作,剩下 60%-70% 仍需人类完成。只有极少数岗位,AI 能覆盖几乎全部工作,这些岗位才会面临危机,但这只是很小一部分。 主持人:你 2017 年离开百度,当时的决定原因是什么? 吴恩达:我在百度的工作经历非常愉快。很多人好奇我从谷歌大脑到百度,再到创立 AI 基金和其他项目的原因。当时我负责百度的 AI 团队,团队非常优秀,在优化在线广告、网站等核心业务上做得很好。我看着组织架构图意识到,即便我离开,这支优秀的团队也能运转良好。我发现自己工作中最有乐趣的部分,是创建新业务板块。比如我带领的百度自动驾驶团队,至今在中国发展得很好;我负责的智能音箱团队,如今也表现出色。虽然我能为母公司创造利润,但我真正投入的是从零到一创建新业务。我觉得跳出大公司,创立 AI 基金这样的风投工作室,从零开始打造企业,或许能做得更好。因此我离开百度,创立了 DeepLearning.ai,继续深耕 AI 教育,赋能更多人使用 AI;同时运营 AI 基金,孵化初创企业。 主持人:你认为中国现在在 AI 领域领先吗? 吴恩达:目前美国在闭源大模型方面仍处于领先地位,但中国在开源、开放权重模型领域已经大幅领先美国。过去一两年,中国推出了大量顶尖的开源模型(如 DeepSeek、Qwen 系列等),全球开发者可免费下载使用,生态活力极强。中美都是 AI 领域的巨头,中国凭借激烈的市场竞争、快速的技术传播和强大的开源生态,拥有巨大的发展势能。两国各有优势,整体处于并跑、互补的状态,而非一方绝对领先。 主持人:你对自己当年的选择不后悔吗? 吴恩达:我和中国团队一起做过一些工作,那段经历很棒。现在我和 DeepLearning.ai、AI Fund、Landing AI 等团队合作也非常开心。我对现在做的事情很满意,没有遗憾。 主持人:单纯从规模和动能来看,中国是不是更有活力? 吴恩达:中国有很多优势,美国也有很多优势。 主持人:接下来我们可以期待你的公司带来什么? 吴恩达:我希望赋能每一个人用 AI 构建东西。我们一直专注于帮助开发者用上最新工具,未来也会继续做这件事。除了支持 AI 开发者发展职业、成长,我还想把范围扩大,让开发者和所有人都能用 AI 创造价值。这是 DeepLearning.ai 的重心。我离开百度的一个原因是:有些业务适合在谷歌、百度这样的大公司内部做,但有些业务不适合,比如关税合规这类事情,互联网公司不会重点关注。而 AI Fund 可以孵化各种各样的创业公司,业务类型非常多元,我对此很期待。另外,AI Aspire 是我和朋友新启动的项目,和贝恩等机构合作,为大型企业提供 AI 咨询。想要真正推动 AI 落地,开发者很重要,个人用户很重要,大型企业同样关键。我们花了很多精力,帮助大企业用 AI 创造真实价值、获得竞争力。 主持人:你还把自己定位成 AI 传播者、沟通者,为什么? 吴恩达:这触及到我最核心的价值观。我做事有两个最高优先级:第一,让人类变得更强大。这是我做研究员、在斯坦福当教授的原因 —— 通过研究、发明新技术,推动前沿发展,让人类更强大。第二,帮助他人实现他们的梦想,而不是把我的梦想强加给别人。如果我们能给别人工具和技能,他们就更有机会实现自己的梦想。这也是我做教育一直以来的动力。 主持人:回顾你的人生,如果时光可以倒流,你会改变什么决定吗? 吴恩达:当然有很多事我会换一种做法。我很幸运,做对了一些决定,但也做错了很多。比如是否该聘用某个人、是否该坚持某个项目、是否该更努力而不是放弃。但整体上,我接受这一路的经历。 主持人:如果关于世界本质,你只能弄明白一个问题,你会选什么? 吴恩达:我希望能理解智能的本质。 主持人:你是指意识吗?物质如何在人脑中变成意识? 吴恩达:其实不是意识。意识是重要的哲学问题,但我不懂什么是意识。哲学上的意识是指 “自我感知”,但你无法确认我是否真的有意识,我也无法确认你有。我们只是出于礼貌,假定彼此都有意识。因为意识无法被测量,所以它是哲学问题,不是科学问题。而我更关注科学问题:智能的本质到底是什么?人脑或其他生物大脑,究竟是通过什么机制,表现出如此广泛的智能行为?它到底是怎么运行的?很多人不知道,在创立 Google Brain 之前,我花了大量时间和神经科学家朋友交流,读了成堆的神经科学论文,最后得出结论:神经科学目前基本还不知道大脑是如何工作的。所以我放弃了从神经科学直接造智能的路线。但我很确定,智能不只是一个靠规模放大的 Transformer,肯定还有更多东西。我真心希望能搞懂它。 主持人:包括推理的本质吗? 吴恩达:对,推理是智能的一部分。能真正理解推理如何工作,也会非常迷人。 主持人:为什么西方世界看起来这么不快乐? 吴恩达:我不认同 “西方世界普遍不快乐” 这种概括。你不会从一杯水里寻找快乐,但水让你更健康。同样,把快乐寄托在 AI 上是一种误区。AI 能支撑我们、帮助我们创造、赋予我们技能,但快乐更多来自内心,而不是我们创造的工具。真正的快乐,更多来自努力帮助他人的过程。我希望通过 AI 工作帮助别人,也在做对他人有用的工作中获得了很多快乐。 参考链接:
吴恩达:AGI 短期内无法实现
大模型 Scaling Law 结束了?
持续学习当前最大的瓶颈是什么?
开源时代结束了吗?
中美 AI 发展的差异
点赞 + 关注 + 收藏 = 学会了 在刚开始写 CSS 时,我们经常会用到百分比( 是的,你没有听错。哪怕是 假设我们有一个父元素 很多初学者会误以为 由于 以创建一个 1:1 的正方形为例,由于 以上就是本文的全部内容啦,想了解更多前端调试玩法欢迎关注《前端Debug不求人》👏 点赞 + 关注 + 收藏 = 学会了整理了一个「前端调试小专栏」,有兴趣的工友可以关注一下 👉 《前端Debug不求人》
%)来实现响应式布局。但在这个过程中,有一个非常经典且常常让初学者感到“反直觉”的隐藏规则:当元素的 margin(外边距)或 padding(内边距)的值被设置为百分比时,无论方向是水平(左右)还是垂直(上下),它们的计算基准都是其父元素(容器)的宽度!margin-top 或者 padding-bottom,它们计算时参考的也是父元素的宽度,而不是高度。垂直方向的外边距(margin-top)
.p,它的宽度是 100px,高度是 200px。里面包含一个子元素 .c,并且我们给子元素设置了 margin-top: 50%。margin-top 是基于父元素的高度(200px)来算的,从而得出 100px 的结果。但实际上,它是基于父元素的宽度(100px)来计算的:100px * 50% = 50px。
<!DOCTYPE html>
<html lang="zh-CN">
<head>
<meta charset="UTF-8">
<title>百分比 Margin 测试</title>
<style>
/* 父元素 */
.p {
width: 100px;
height: 200px;
background-color: #e0e0e0; /* 灰色背景方便观察 */
border: 1px solid #333;
position: relative; /* 使子元素的 margin-top 以父元素为参考 */
}
/* 伪元素用于显示父元素高度 50% 的位置在哪 */
.p::after {
content: "50%";
position: absolute;
top: 100px;
left: 0;
width: 100%;
height: 1px;
background: red;
display: flex;
align-items: center;
justify-content: center;
color: #333;
}
/* 子元素 */
.c {
margin-top: 50%; /* 实际计算结果为:父元素宽度 100px 的 50%,即 50px */
background-color: #ff7675; /* 红色背景 */
color: white;
text-align: center;
}
</style>
</head>
<body>
<div class="p">
<div class="c">子元素 c</div>
</div>
</body>
</html>经典的等比例缩放黑科技(保持 1:1 宽高比)
padding-bottom(或 padding-top)设置为百分比时也是基于父元素的宽度,前端老手们经常利用这个特性来创建一个可以随屏幕大小缩放,但始终保持固定比例(比如 1:1 正方形、16:9 视频框)的元素。width: 100% 等于父元素的宽度,而 padding-bottom: 100% 也等于父元素的宽度,这样就在视觉上撑出了一个完美的正方形!
<!DOCTYPE html>
<html lang="zh-CN">
<head>
<meta charset="UTF-8">
<title>百分比 Padding 等比例测试</title>
<style>
/* 限制一下外层容器的宽度,方便观察缩放 */
.container {
width: 300px; /* 你可以尝试修改这个宽度,里面的正方形会自动跟着变大变小 */
margin: 50px;
border: 2px dashed #0984e3;
}
/* 核心逻辑:利用 padding 撑开高度 */
.ratio {
width: 100%;
padding-bottom: 100%; /* 高度由基于宽度的 padding 撑开,实现 1:1 */
background-color: #74b9ff;
/* 注意:因为内容区高度实际为0,如果里面要放文字或图片,
通常需要配合相对/绝对定位来实现 */
position: relative;
}
/* 如果要在等比容器里放内容,通常这么做: */
.ratio-content {
position: absolute;
top: 0;
left: 0;
width: 100%;
height: 100%;
display: flex;
align-items: center;
justify-content: center;
color: white;
font-weight: bold;
}
</style>
</head>
<body>
<div class="container">
<div class="ratio">
<div class="ratio-content">我是一个 1:1 的正方形</div>
</div>
</div>
</body>
</html>
最近做了个小玩具:把 OpenClaw 的模型调用记录,做成了一个像素风“养虾”游戏。
核心玩法很简单:
我做这个的初衷是:
平时看调用日志太抽象了,想把“今天到底用了多少模型”变成一个更直观、可玩的反馈。
现在是本地运行的一体化服务,数据落在 SQLite ,开箱就能用;也可以配合 OpenClaw 的 skill ,让它在每轮回复后自动喂一次。
https://github.com/murongg/lobster-farmer
截图:
