包含关键字 typecho 的文章

2026年3月8日至10日,FOSSASIA Summit 2026在曼谷举行。作为亚洲年度开源技术旗舰活动,FOSSASIA Summit 吸引着全球开源爱好者和社区的参加。OpenAtom openKylin(简称“openKylin”)作为白金赞助级别,携手麒麟软件、海光、飞腾、涛略、进迭时空等生态伙伴共同参会。
图片

精彩看点一:三场硬核演讲直击技术灵魂

大会主论坛环节,openKylin社区TOC导师、海光信息技术股份有限公司生态发展部首席工程师杨继国发表了题为《openKylin:构建AI原生操作系统架构》的主旨演讲。当前,随着计算范式从传统资源管理向智能代理时代转变,openKylin正通过全栈AI重构,引领开源操作系统的演进方向。演讲中系统阐述了openKylin 2.0的核心架构设计,重点介绍openKylin如何应对硬件碎片化与软件割裂等挑战,构建统一、开放、可扩展的技术体系。同时,面向未来,openKylin提出从“AI on OS”向“AI for OS”的转型路径,通过创新架构实现AI与操作系统的深度融合,打造面向智能时代的AI原生操作系统。
图片
在大会硬件分论坛上,openKylin技术委员会&生态委员会委员、飞腾信息技术有限公司软件技术方案部技术生态经理帅家坤发表了题为《飞腾携手openKylin:从PC到服务器的开放基础设施》的主旨演讲。他指出,随着ARM架构从数据中心向PC及AI系统拓展,软硬件的开放性与协同创新至关重要。演讲介绍了飞腾深度参与openKylin生态建设的实践成果:在PC与边缘侧,提供全面ARM平台适配支持、硬件特性深度优化及软件生态协同,助力其在笔记本、边缘AI负载等场景中实现性能释放;在服务器侧,积极推进面向ARM服务器的开放固件与管理体系。通过社区驱动的开发模式与紧密的生态协作,飞腾与openKylin的合作充分印证了从PC到服务器构建全栈贯通、开放透明ARM平台的技术可行性与战略价值。 
图片
openKylin社区技术委员会委员、麒麟软件有限公司系统研发部副经理李剑峰出席操作系统分论坛,发表题为《构建Linux原生AI子系统:架构探索与实践》的主旨演讲。演讲围绕人工智能技术快速发展背景下操作系统的演进趋势展开,指出随着大模型和多模态技术的成熟,操作系统正从传统的资源管理平台向智能化平台转型。在演讲中,他介绍了openKylin正在构建的AI子系统详细架构,系统阐述此创新架构如何通过统一推理框架、AI Runtime与AI SDK三层体系,解决当前AI生态中硬件碎片化、模型多样化以及应用调用复杂等问题,实现模型与硬件、应用与模型之间的解耦,为开发者提供简洁统一的AI能力接口。通过与社区伙伴协同创新,openKylin将持续探索多智能体系统与端侧AI模型等技术方向,推动构建开放、可扩展的AI原生操作系统生态。
图片

精彩看点二:汇聚黑客、创客与产业界,共话开放硬件的“破圈”时刻

开源技术通过促进社区、企业和国家间的协作,彻底改变了软件行业。如今,类似的变革正在硬件领域兴起。那些最初起源于黑客空间和创客社群的活动,正逐步发展为一个更为广阔的生态系统,涵盖了开放芯片架构、操作系统、行业合作伙伴关系以及全球技术平台。openKylin社区TOC导师杨继国出席大会圆桌论坛环节,围绕创客空间与社区创新的作用、开放操作系统与硬件兼容性的重要性,以及RISC-V等新架构带来的影响等话题,共同探讨开放硬件如何从草根创新起步,最终成长为支撑未来技术的全球性基石。
图片

精彩看点三:沉浸式展台体验连接全球开发者

大会期间,openKylin展台成为全场焦点之一。展台集中展示了openKylin社区与麒麟软件、海光、飞腾、涛略、进迭时空等合作伙伴在AI、桌面环境、RISC-V架构等领域的最佳实践成果。现场通过互动演示、技术讲解和案例分享,吸引了众多国际开发者驻足交流。参观者亲身体验了openKylin 2.0在AI任务处理、多端协同等方面的流畅表现,并就社区贡献、硬件适配、生态共建等话题与openKylin核心贡献者进行了深入探讨。展台还设置了趣味互动环节,向参与者赠送社区纪念品,进一步拉近了与全球开发者的距离。
图片

未完待续:以开源为帆,驶向下一个目的地

FOSSASIA Summit 2026虽已落幕,但openKylin的国际化步伐正加速迈进。此次参会不仅向全球开发者展示了中国开源社区在AI原生操作系统领域的技术实力,更通过多场深度演讲与展台互动,与来自世界各地的开发者建立了紧密联系。未来,openKylin将继续秉持“为世界提供与人工智能技术深度融合的开源操作系统”的理念,深化与全球生态伙伴的合作,推动操作系统与AI技术的深度融合,为全球开源生态注入更多创新活力。

8a40fe14c4d3f29b550e7bdc8e3bceff_202603071228214198.001.png

2026年的软件工程,正在进入一个“AI深度嵌入”的阶段。人工智能已经广泛参与需求分析、代码生成、测试构建、缺陷定位乃至上线监控。真正的变化不在于“是否使用AI”,而在于能否在AI加速下保持稳定、可靠和安全的交付能力。

行业实践越来越清晰地表明:AI提升的是产能,而工程体系决定的是质量上限。

一、AI辅助测试成为质量体系的加速器

在测试领域,AI的价值最为直观。根据公开报道,Microsoft 在其工程体系中已大规模应用AI辅助开发与测试工具,以提高代码生成与验证效率;GitHub 旗下Copilot类工具的使用率持续上升,开发效率显著提升,但官方也强调必须依赖严格代码审查与自动化测试保障质量 。

在企业级实践中,AI在测试领域的典型应用包括:

● 自动生成边界场景与异常路径

● 智能选择回归测试范围

● 分析失败日志并归纳缺陷模式

● 自动补全断言与测试桩

例如,Netflix 在工程体系中强调通过自动化与混沌测试保障分布式系统稳定性,其测试平台大量依赖智能分析与自动验证机制 。

在国内市场,部分AI测试服务商也在强化“测试智能化”。例如Testin云测近年来提出“无人测试”愿景,将自然语言驱动测试生成、图像识别自动操作等能力嵌入自动化框架中,目标是提升复杂业务场景下的回归效率。其定位更接近“质量工程基础设施”,而非单点工具。

可以看到,AI生成测试已成为趋势,但决定价值的依然是测试策略与质量标准。

二、DevSecOps常态化:安全成为工程默认项

随着开源依赖规模扩大与供应链攻击频发,安全问题成为全球企业关注重点。2024年以来,多个大型开源漏洞事件引发企业强化“安全左移”实践。Amazon 在其云工程体系中将依赖扫描、基础设施即代码(IaC)安全审查与发布策略管控嵌入持续集成流程 。这意味着未经安全基线校验的代码无法进入生产环境。

当前主流企业的安全实践通常包括:

● 依赖漏洞自动扫描

● 敏感信息泄露检测

● 容器镜像与基础设施配置审查

● 策略即代码(Policy as Code)自动校验

安全不再依赖人工“上线前检查”,而是通过自动化机制形成“硬约束”。

三、可观测性优先成为分布式系统的设计原则

随着微服务与云原生架构普及,系统复杂度大幅提升。没有高质量可观测能力,问题定位几乎不可行。Google 在其SRE(站点可靠性工程)体系中强调“可观测性优先”,即在系统设计阶段就嵌入日志、指标与追踪机制 。这一理念已被大量互联网企业采纳。

2026年的工程实践呈现出几个共识:

● 日志必须结构化、可机器解析

● 指标必须与业务语义关联

● 告警必须与用户影响挂钩

● 性能异常需要可回溯全链路

这不仅是技术问题,更是商业问题。高并发场景下,每一次停机都会直接影响收入与品牌信任度。

四、遗留系统现代化走向“渐进式改造”

大规模系统重写已被证明风险过高。行业最佳实践更倾向于分阶段改造。IBM 在企业现代化转型案例中强调“先补自动化测试,再拆分模块,再逐步云化迁移” 。这种方式可以降低迁移风险,同时保障业务连续性。

现代化改造通常遵循:

● 为旧系统补充自动化测试,建立安全网

● 通过API封装遗留模块

● 小步重构,分阶段替换核心功能

● 结合CI/CD实现灰度发布与快速回滚

这一趋势也带动测试与持续交付能力的升级需求。

五、AI成为软件工程的新型基础设施

综合来看,AI在2026年已经从“工具”升级为“工程基建”。它参与代码生成,也参与质量验证、风险识别与性能分析。

行业报告普遍指出,未来多数自动化测试流程将由AI参与驱动 。这意味着测试、监控与交付正在形成一个以AI为核心的智能闭环。在这一体系中,测试服务商的角色也发生变化——从单点执行者转向质量工程能力的构建者。无论是国际厂商还是国内企业,都在向“AI+工程体系”方向演进。

工程能力的较量,本质是可靠性的较量,2026年的软件工程竞争逻辑已经改变:

● AI提升速度

● 自动化保障稳定

● 安全与可观测性确保风险可控

● 渐进式现代化减少系统性风险

真正的核心能力不再是“写得快”,而是在AI加速条件下,依然保持高可靠性交付的能力。

未来的软件工程,将是智能化与工程纪律并行的时代。

微信有很多的不方便的操作,例如今天要解决的是:微信不会自动下载图片但图片确会失效,这就导致你过些时间搜索聊天记录想查看某个图片,点开一看显示图片过期或已被清理,因为当时没有自动下载图片,到了时间就无法下载了(好像是白天会自动下载,下午6点之后就不会)。

设置里只有一个针对文件的选项,而且最大只支持下载1024M的文件:

我还看到一些流传的偏方:先修改系统时间到图片发送的时间附近,然后再点击图片就能打开,不知道最近这个方法有没有失效。如果这个方法能实现的话,说明微信服务器在图片显示失效后并没有删除图片,只是不让你下载了。

要解决这个痛点目前只能是将所有收到的图片都自动下载到本地,不过这也引发了另一个问题:群聊太多导致微信文件夹占用大量的磁盘空间。那么还需要有个设置能配置哪些群聊的图片自动下载,毕竟大部门群聊都是吹水群,没有下载的必要。

清理存储空间

最新的微信可以清理某个群聊或者私聊中的图片、视频和文件,在设置->账号与存储->存储空间->聊天数据 管理

还能查看每个聊天中图片视频文件占用的空间,你也可以保留图片只清理其中的视频和文件,这个功能还是不错的。

使用教程

实现原理

通过RPA来实现自动下载图片几乎不可能,因为需要频繁的切换聊天界面,如果群聊多的话鼠标都忙不过来。使用hook的话就会简单的多,当监听到图片消息时,就调用下载图片的函数来下载。项目地址:https://github.com/kanadeblisst00/pywxrobot4

当然,hook也有很多缺点:

  1. 只能支持某个版本,更新了就无法使用
  2. 技术比较容易触发风控导致封号
  3. 需要一直挂着微信监听消息,掉线期间的图片无法下载

那有没有方法能不遗漏账号掉线时的图片消息吗?有的,不去监听消息而是去读本地数据库来遍历所有图片消息,然后调用下载函数,只要图片还在有效期内就能下载,这样你甚至可以一天登一次下载当天的图片。如果大家有这个需求的话,后面再实现吧。

配置需要下载的群聊

打开界面会显示所有的群聊,你可以通过名称搜索想要的群聊,点击保存资源类型一栏,会弹出一个多选列表,勾选你需要下载的类型。其实缩略图默认会自动下载,下个版本把这个选项去掉。

配置好友需要下载的资源类型

点击菜单栏里的功能->功能设置会弹出一个多选列表,这是针对所有好友的设置。其实好友可以通过标签来分类,有需要再加吧。

配置完成后不需要重启就能生效,接下来再也不用担心你的图片找不到了。

图片导出

其实这样还是不方便保存某个群聊的所有图片,因为图片都是加密的,要是有个导出功能就好了。

最近几天,人人都化身为养殖大户,在讨论养龙虾。不是吃的龙虾,而是而是一款名为OpenClaw的开源AI智能体。腾讯在深圳总部楼下推出免费安装活动,甚至惊动了马化腾。

虽然但是,养龙虾也是有一定风险的。根据工信部网络安全威胁和漏洞信息共享平台的风险提示,OpenClaw在默认配置下存在极高的安全隐患。由于其“信任边界模糊”,具备自主决策并调用系统资源的能力,在缺乏权限控制的情况下,极易被恶意指令接管。

Meta的研究员Summer Yue 就遇到了龙虾瞎干活的情况。她指示OpenClaw整理邮箱,尽管设置了安全词限制,程序却突然失控开始批量删除邮件,最终只能靠强行关机才保住数据。此外,由于许多用户暴露了默认的18789端口且未设防,导致设备被入侵用于挖矿。

image.png

为了寻找更轻量、更安全的方案,开发者社区涌现出了多个各具特色的项目。这些项目在保持核心能力的同时,通过不同的技术栈解决了OpenClaw的痛点。

NanoClaw:物理隔离的极简主义

image.png

NanoClaw的设计初衷是解决代码膨胀带来的审计难题。不同于OpenClaw动辄数十万行的代码量,NanoClaw的核心只有约500行TypeScript代码。

它放弃了复杂的权限检查,转而采用彻底的物理隔离。每个智能体都在独立的Docker容器或macOS的Apple Container中运行,只能访问被明确挂载的目录。

也就是说,就算AI听不懂人话了,其破坏力也被限制在沙箱内,无法触及宿主机的核心系统。

部署与环境要求

NanoClaw运行在Node.js 20+ 的环境,所以可以利用 ServBay 快速配置Node.js

  1. ServBay中下载好Node.js 20+环境。

image.png

  1. 克隆代码并进入目录:
git clone https://github.com/qwibitai/nanoclaw.git
cd nanoclaw
  1. 执行初始化引导:
npm run setup
  1. 所有的通信通道(如Telegram、Discord)均作为可选插件,按需添加,保持系统轻量。

Nanobot:学术背景的研究框架

image.png

Nanobot源自香港大学数据智能实验室,其代码量约为4000行Python代码。它最厉害的就是模块化架构,非常适合需要深度定制或进行AI研究的人群。

它支持MCP(模型上下文协议),能够连接各种外部工具。同时,它具备完善的记忆系统,通过混合搜索技术实现长短时记忆。Nanobot非常注重隐私,支持对接vLLM等本地模型推理框架。

部署与环境要求

Nanobot需要 Python 3.10+环境以及 PostgreSQL 数据库,都可以通过 ServBay 来安装。

  1. 通过 ServBay 部署 Python 环境并启动PostgreSQL服务。

image.png
image.png

  1. 通过包管理器安装:
pip install nanobot-ai
  1. 运行配置向导:
nanobot onboard
  1. 修改配置文件 ~/.nanobot/config.json,填入相应的API Key。

image.png

PicoClaw:极致的硬件适配

image.png

国产之光的 PicoClaw 是由Sipeed团队推出的,基于Go语言。它最大的优势是极其高效的资源利用率,运行时内存占用不到10MB,足以在树莓派甚至一些廉价的RISC-V开发板上稳定运行。

PicoClaw的启动速度很快,在低功耗硬件上也能实现秒级响应。它将所有的依赖打包进一个单一的二进制文件中,不需要在宿主机上安装复杂的运行时库。此外,它原生支持飞书、钉钉等国内常用的办公软件。

部署方式

  1. 下载对应架构的预编译文件:
wget https://github.com/sipeed/picoclaw/releases/latest/download/picoclaw-linux-amd64
chmod +x picoclaw-linux-amd64
  1. 执行初始化:
./picoclaw-linux-amd64 onboard
  1. 启动网关服务:
./picoclaw-linux-amd64 gateway

image.png

IronClaw:防御深度的Rust重构

image.png

IronClaw是采用Rust语言重写的版本,重点在于零信任安全架构。

它将所有工具运行在WebAssembly(WASM)沙箱中。工具代码默认没有任何权限,所有的网络访问、密钥调用都必须经过明确授权。IronClaw还内置了泄露检测功能,会自动扫描AI的输出内容,防止API密钥或个人敏感信息通过对话泄露。

部署与环境要求

需要Rust编译环境和PostgreSQL数据库(需安装pgvector扩展)。这些环境均可通过ServBay一键开启。

  1. 在 ServBay 中下载Rust 环境,及 PostgreSQL 中创建数据库并开启向量插件。

image.png

  1. 克隆并编译项目:
cargo build --release
  1. 运行引导程序:
./target/release/ironclaw onboard

ZeroClaw:灵活的Trait驱动框架

image.png

ZeroClaw旨在提供一个可插拔的智能体基础设施。它把模型提供者、存储后端、通信通道全部抽象化,用户可以根据需求自由组合。

ZeroClaw遵循严格的安全规范,支持AIEOS身份标准。它可以很好地与本地推理服务器(如llama.cpp或Ollama)对接。

部署与环境要求

ZeroClaw同样基于Rust开发,支持通过脚本快速安装。

  1. 使用官方安装脚本:
curl -fsSL https://raw.githubusercontent.com/zeroclaw-labs/zeroclaw/main/scripts/install.sh | bash
  1. 运行交互式设置:
zeroclaw onboard --interactive
  1. 启动守护服务:
zeroclaw daemon

image.png

总结

如果追求代码的透明,NanoClaw是不错的选择;如果需要严谨的研究框架,Nanobot就可以实现;而在硬件资源有限或追求极致安全的情况下,PicoClaw和IronClaw则提供了更优的解法。

正点原子T5 AI小系统板,解锁AI硬件原型搭建新速度!

对于嵌入式开发者、AI爱好者而言,一款高性能、高便捷性的开发板,是将创意快速落地的关键。T5M小系统板,以T5-E1模组为核心,兼具强悍性能与小巧身形,轻松打破开发壁垒,让AI硬件原型搭建更高效、更省心!

一、480MHz 旗舰内核,拉满 AI 计算性能

作为正点原子精心打磨的新品,T5 AI小系统板的核心竞争力,始于一颗强悍的“心脏” — T5-E1模组。将主频拉满至480MHz,ARM处理器性能大大提升,为复杂AI算法、高速数据处理提供充足动力,轻松应对AI计算场景需求。

二、存储 + 互联双满配,无线开发零门槛

性能之外,存储与互联能力同样拉满。模组内置 8MB FLASH 与 16MB PSRAM,充足的存储空间可轻松承载程序代码、数据缓存,无需额外外扩存储,大幅简化开发流程;同时原生支持 WIFI 与蓝牙双模通信,无需额外搭配模块,即可实现设备互联、数据传输,完美适配物联网、智能交互等多场景开发需求,让无线开发更便捷。

三、全接口一站式配齐,开箱即启开发之旅

便捷开发,从丰富接口开始。正点原子T5 AI小系统板板载多种实用接口,一站式满足开发者多样化需求:RGBLCD 接口可直接连接显示屏幕,轻松实现图像显示、界面交互;CAMERA 接口支持接入摄像头,适配视觉识别、图像采集类开发;TF 卡接口方便扩展存储,灵活存储大量数据、日志;扬声器接口则可直接驱动扬声器,实现语音播放、音频交互等功能,无需额外焊接外设,开箱即能上手开发。

四、掌心大小巧设计,面包板直插秒搭原型

小巧身形,暗藏大能量。不同于传统开发板的笨重,正点原子T5 AI小系统板采用紧凑设计,尺寸仅为 68mm*33mm,小巧精致,便于携带与嵌入式安装,无论是桌面开发、户外测试,还是嵌入小型设备,都能轻松适配。更贴心的是,板子设计有 50 引脚排针,可直接插入面包板使用,无需复杂接线,帮助开发者快速搭建 AI 硬件原型,大幅缩短开发周期,让创意快速从想法落地为实物。

五、全场景适配,开发者的高效创新利器

如今,边缘AI、物联网领域飞速发展,开发者对开发板的性能、便捷性要求越来越高。正点原子T5 AI小系统板依托强悍的性能、丰富的接口配置以及小巧便捷的设计,完美适配 AI 硬件原型搭建、嵌入式开发、物联网项目调试等多种场景,无论是资深开发者的高效开发工具,还是新手入门的实操载体,都是不二之选。

正点原子T5 AI小系统板兼顾性能与便捷,既是对 “高效开发” 理念的极致诠释,也是助力开发者创新落地的有力支撑。

解锁 AI 硬件开发新体验,从此告别繁琐接线、性能不足的困扰,让每一个创意都能快速落地!

直播经过多年的发展,早已从简单的“看热闹”演进成覆盖电商、娱乐、教育等复杂多元场景的核心功能,用户对直播清晰流畅、音画同步、稳定运行等方面提出了更高要求。

如何在鸿蒙应用中实现丝滑稳定的直播体验?华为在 HarmonyOS 开发者官网发布了《基于媒体能力实现直播单播功能》最佳实践文档,从直播开发全链路出发,提供开播端的音视频采集与编码、看播端的流媒体播放与音画同步等技术方案,并结合直播典型场景的常见问题与解决方案,提供架构图、流程示意和示例代码,帮助快速打造丝滑稳定的直播体验。
bc02a280cb1f1ecd844ecd010fdee0dc_%E5%9B%BE%E7%89%87%201_20260310144526_705.png

开播端解决方案:从采集到编码 打造高品质直播源

直播的源头在开播端(主播端),最佳实践提供了开播端的高质量解决方案,保证不同场景需求下的音视频传输,主要从音频和视频两方面展开:

· 音频方面,最佳实践不仅梳理了音视频采集、编码的完整路径,音频文件播放流程和焦点管理策略,更详细介绍了如何使用关键接口。如OHAudio API,提供了常规录音、语音通话和直播录音三种模式,可以按需选择,配置参数并启动采集器。

· 视频方面,最佳实践拆解了多种视频采集方式、各类视频编码方案,以及高负载场景下的性能与功耗优化思路。

  1. 首先是直播视频采集方案选型:

1) SDR直播复用预览流,既省功耗又保证色准;华为的红枫色彩算法开放给第三方应用,按统一录像会话接口就能获得标准原色图像;

2) HDR Vivid同样复用预览流,适合在暗光或高动态场景下启用,带来更宽广的色彩范围、更细腻的层次表现、更显著的明暗对比。

  1. 其次视频编码格式与优化方案:最佳实践推荐了数据流转性能表现优秀的Surface模式,并指导如何利用ROI编码对主播区域进行更高质量编码并压缩背景。
  2. 最后是智能调控:最佳实践对系统压力反馈接口进行了介绍,它能监测设备负载,根据回调动态调整推流码率和帧率,避免设备过热或掉帧。

4d88ba64151ac500c0dcace964726c47_%E5%9B%BE%E7%89%87%202_20260310144532_362.png

看播端解决方案:音画精准同步,播放体验更顺滑

看播端(观众端)是用户体验的最终呈现环节,最佳实践聚焦播放核心、音画同步方案与稳定性保障,帮助打造流畅顺滑的观看体验:

· 播放核心:使用HarmonyOS的AVPlayer接口,即可实现流媒体直播和点播功能,支持设置播放资源和窗口、设置播放参数等。

· 音画同步:针对常见的音画不同步情况,可根据指导获取音频的实际播放时间戳,使视频送帧时延与音频播放时延匹配,实现音画同步。

· 稳定性保障:此外,最佳实践还介绍了如何防止播放器的内存泄漏。在长时间直播场景中保持应用稳定,避免因资源占用过高导致的卡顿或崩溃。

典型直播场景案例解析:轻松搞定多样化直播场景

基础功能开发完成后,面对不同业务场景诉求,最佳实践也给出了对症下药的建议:

· 电商直播最怕商品色差、暗光噪点或主播不清晰,可启用红枫原色相机能力矫正色彩,使用HDR Vivid提升暗光亮度和层次,并通过ROI编码聚焦主播区域节省背景码率。

· 娱乐直播需要兼顾音质与画质还要过滤外部噪音,最佳实践建议在PK或合唱等场景使用高保真录音和回声消除提升音质,同时用ROI编码突出核心表演区域。

· 户外直播受天气、光线和设备负载影响大,可以用红枫原色能力保证户外色彩,接入压力反馈接口根据温度和压力自动调整码率和帧率,并关注散热。

即刻试用,构建丝滑直播体验

《基于媒体能力实现直播单播功能》最佳实践文档和配套示例代码已正式上线 HarmonyOS 开发者官网。打开最佳实践页面,在搜索框输入标题:基于媒体能力实现直播单播功能。即可查看完整文档,下载示例工程,快速构建端到端媒体直播能力,让直播体验更清晰、更顺畅!

快速查看示例代码,可访问GitCode官网,搜索“HarmonyOS_Samples/HMOS_LiveStream”。

今日速览

  1. Timelaps:实时洞察品牌营销效果,成本直降五倍。
  2. Roundtable:几天搞定欧盟基金设立,告别漫长等待。
  3. Dex:用自然语言提问数据,AI 助手秒给答案。
  4. simply:营养师设计的每日小建议,轻松养成健康习惯。
  5. SCRAPR:绕过复杂选择器,直接提取网站结构化数据。
  6. BrandingStudio.ai:AI 驱动品牌全流程,一小时顶半年。
  7. Unite Pro for macOS:把网站变原生应用,Mac 体验更丝滑。
  8. Nothing Phone (4a) Pro:金属机身配透明镜头,性能颜值双在线。
  9. OpenClix:智能推送活动管理,提升移动应用留存率。
  10. cutefolio:打造可爱风作品集,数据追踪一目了然。


1. Timelaps

这款工具能帮你实时摸清品牌营销的底细,告别传统调研的昂贵和滞后。它直接从目标人群收集反馈,让数据说话,成本还便宜得多。

  • 基于一手研究,覆盖 4000 多名真实消费者
  • 费用比市场调研公司低五倍
  • 数据实时更新,紧跟品牌增长科学
  • 提供深度洞察,优化营销策略

热度:🔺527

Timelaps
访问官网 Product Hunt 详情


2. Roundtable

想在欧洲快速设立投资基金?Roundtable 让你几天内就能搞定,省去数月等待和巨额费用。它简化合规流程,一站式管理基金运营。

  • 凭借 EUVECA 许可证,加速基金设立
  • 费用远低于传统方式(原超 20 万欧元)
  • 数字化引入有限合伙人,管理调用和分配
  • 面向欧洲专业和非专业投资者开放

热度:🔺412

Roundtable
访问官网 Product Hunt 详情


3. Dex

创业者们的 AI 数据分析神器,连接数据库后,用大白话提问就能获得答案和行动建议。它让数据驱动决策变得像聊天一样简单。

  • 支持连接数据库、电子表格或 BI 工具
  • 自然语言提问,实时返回答案
  • 提供推荐下一步行动,辅助决策
  • 专为创始人设计,降低数据分析门槛

热度:🔺320

Dex
访问官网 Product Hunt 详情


4. simply

别再被复杂饮食计划搞晕了!simply 提供由认证营养师设计的日常小建议,帮你轻松改善健康,培养可持续习惯。

  • 每日营养建议,小而可行
  • 由认证营养师设计,专业可靠
  • 避免流行饮食法,注重实用技巧
  • 帮助用户逐步建立健康生活方式

热度:🔺275

simply
访问官网 Product Hunt 详情


5. SCRAPR

数据提取的新玩法,它绕过脆弱的 DOM 选择器,直接从现代网站的数据源头抓取结构化响应。让数据处理更快、更稳、更好维护。

  • 关注网站数据加载方式,提取结构化响应
  • 比传统方法更快速可靠
  • 易于维护,简化数据管道
  • 面向开发者、数据团队和 AI 开发者

热度:🔺270

SCRAPR
访问官网 Product Hunt 详情


6. BrandingStudio.ai

品牌塑造不用再烧钱耗时了!这个 AI 工具能在 60 分钟内完成专业级品牌全流程,从策略到设计,一键导出。

  • 7 个 AI 模块覆盖品牌策略、logo 设计等
  • 分析 1000 多个业务数据点再生成图像
  • 结果可导出为 SVG、PDF,创建数字品牌中心
  • 基于 20 年品牌顾问经验开发

热度:🔺161

BrandingStudio.ai
访问官网 Product Hunt 详情


7. Unite Pro for macOS

把常用网站变成 Mac 原生应用,体验更流畅。几秒钟创建,支持多种模式,还能添加原生功能如 Dock 提醒。

  • 快速将网站转换为独立 Mac 应用
  • 高度自定义,适配 macOS Tahoe
  • 支持窗口、侧边栏和菜单栏模式切换
  • 可添加 Dock 图标提醒、AI 悬浮窗口等原生功能

热度:🔺151

Unite Pro for macOS
访问官网 Product Hunt 详情


8. Nothing Phone (4a) Pro

这款手机用全金属一体机身重新定义设计,仅 7.95 毫米厚,透明镜头模块点缀,性能强劲。

  • 全金属一体机身,轻薄设计
  • 透明相机模块,保持独特美学
  • 搭载骁龙 7 代 4 处理器
  • 3000 尼特 Glyph 矩阵屏幕,支持 140 倍长焦变焦

热度:🔺147

Nothing Phone (4a) Pro
访问官网 Product Hunt 详情


9. OpenClix

移动应用团队的好帮手,轻松管理推送活动,通过智能触发器提升用户留存。分析结果、优化参与,一切数据驱动。

  • 创建代理驱动的本地推送活动,无需复杂设置
  • 配备智能触发器、抑制规则和计划安排
  • 分析结果并优化参与度,停止无效活动
  • 连接用户留存指标,减少通知疲劳

热度:🔺139

OpenClix
访问官网 Product Hunt 详情


10. cutefolio

想展示个人或品牌作品?cutefolio 让你打造可爱又专业的作品集,比普通链接树更时尚,还能追踪数据。

  • 设计可爱吸引眼球,替代传统链接树
  • 追踪独立访客、点击最多链接等分析数据
  • 支持自定义域名,提供免费内部域名
  • 组织有序,提升品牌形象

热度:🔺132

cutefolio
访问官网 Product Hunt 详情

前两天给 claude code 的 skill 和 agent 流程整理了,上午测试下流程顺手挫了了个小东西,叫「重开人生」。

规则很简单:从 18 岁开始,经历 12 个人生节点,每次遇到问题你选择怎么处理——自己想、问 AI 、还是找人。最后根据你的选择习惯,给你一个结局。



结局有 10 种,从「外包皇帝」到「独行者」到「被时代淘汰」都有。

[不是测试题,没有标准答案,按照自己的想法选就行] 就是想看看不同的求助习惯会把人带到哪里。

玩完可以把结局发给朋友挑战,看谁的人生更"值钱"。



链接: https://www.justfuckingai.com/life/

大概 5 分钟,有空试试。

“美术资源动辄几十GB,每次提交等半小时……”

“多人协作改同一模型,冲突解决到崩溃!”

“版本回滚像开盲盒,谁动了我的代码?”

随着游戏开发规模持续扩大,资产复杂度呈指数级增长——动辄数万级模型/贴图、百人团队并行开发、多分支频繁合并。传统版本控制方案已难以支撑现代游戏研发的高效协作需求。

2026年3月25日,龙智(Dragonsoft)将携手 Perforce Software 在广州举办Perforce on Tour 2026 —— 游戏研发效能进阶沙龙,为您带来破局之道。

活动聚焦游戏行业研发效能提升,揭秘Perforce P4 2026路线图,并分享大规模项目版本管理的实战经验,直击研发流水线(Pipeline)中的性能瓶颈与协作痛点。Perforce技术专家与龙智资深技术工程师团队将亲临现场,为您提供面对面的技术诊断与解决方案。

活动五大亮点

2026 P4 路线图中国首发

Perforce首次在中国披露2026. 2版本规划,揭秘如何支撑下一代超大规模游戏项目。

超大规模游戏开发最佳实践实战分享

分享PB级资产管理实战经验——如何实现秒级同步、无冲突的协同。

切实可行的Pipeline性能调优建议

针对研发管线常见瓶颈,提供可落地的优化方案。

Perforce及龙智技术专家面对面

Perforce专家×龙智技术工程师提供面对面的现场诊断,解决您的真实痛点。

闭门晚宴深度链接

专属晚宴(仅限特邀嘉宾),与Perforce原厂专家、龙智技术工程师碰撞更多技术火花。

活动日程


*日程可能会有调整,以现场实际公布为准

重磅嘉宾

  • 6年+ P4支持经验
  • 擅长服务器性能优化与故障排查
  • Perforce Critical Care(危机补救)团队核心成员

  • 专注游戏开发与大规模文件管理、版本控制解决方案
  • 前 AWS / OceanBase 高管
  • 成功推动全球数百家企业技术解决方案落地

  • 擅长为企业客户提供版本控制、代码质量等方面的解决方案和实践参考
  • 拥有近十年的软件研发经验,深谙企业研发现场的需求
  • 多次成功为大型国企、跨国企业提供研发安全运营一体化解决方案的落地

主办方

Perforce Software

全球顶级游戏工作室的共同选择:全球Top 20 AAA工作室中,19家使用Perforce版本控制P4。

龙智(Dragonsoft)

  • Perforce 中国官方授权合作伙伴
  • 连续5年获评”Perforce P4年度最佳合作伙伴”
  • 深耕DevSecOps领域十多年
  • 服务游戏/芯片/汽车行业的超1000家企业

报名须知

时间:2026年3月25日 14:00-19:30
地点:中国·广州
适合人群:游戏企业技术负责人、研发总监、技术美术、版本控制管理员等

了解更多 >>

刚刚过去这个春节,AI以前所未有的速度闯进了大众的日常生活。央视春晚的舞台上,机器人演起了小品;手机屏幕那头,各大厂商狂掷真金白银,通过AI互动给全国人民拜年。

然而,这波AI热潮并未随假期结束而降温——就在最近,一个名为 OpenClaw 的个人AI智能体项目,在短短4个月内于GitHub上掀起风暴,甚至超越了统治Web开发十年之久的底层框架React 。“养龙虾”也成了科技圈大家津津乐道的新黑话。

(图片来源于网络)

从春晚舞台上惊艳的 AI 视觉互动,到爆火的OpenClaw个人智能体,大模型已经彻底融入大众生活。人们用自然语言与 AI 交互,写文案、做攻略、甚至生成视频,体验到了前所未有的创造力。个人的生产力,在这个春天被彻底引爆了,每个人的工作效率都如同“开挂”。

然而,当我们把视线从个人移开,放眼整个企业管理和业务决策时,面对这股热火朝天的AI狂欢,企业显得有些力不从心:高管们看着“无所不能”的个人智能体,转头面对企业内部系统时,却发现依然很难让大模型在企业中真正“干起活来”。

01 为什么个人AI“起飞”了,企业的“大脑”却仍然步履维艰?

个人用 AI ,诉求是灵感生成和效率提速,相对容错率较高;而企业用 AI,必须锚定业务数据与客观事实,以安全、确定性为不可突破的底线,尤其在接入核心业务环节时,容错率几乎为零。面对严苛的业务环境,盲目引入缺乏业务逻辑的AI注定会“水土不服”。企业真正要想把 AI 用起来并产生可感知的真实业务价值,必须先跨越以下三道门槛:

第一道门槛是“合规”:数据绝不能裸奔

个人可以使用各种外部公网大模型,但企业的财务流水、销售底稿、客户名单是生存的根基。企业级应用的第一准则就是数据安全,这意味着 AI 能力必须能在企业内部私有化落地,或者有严格的权限管控机制。没有这道屏障,任何企业都不敢拿核心数据去冒险。

第二道门槛是“精准”:业务决策容不下“AI幻觉”与“计算崩盘”

这是目前企业落地AI 时踩坑最多的重灾区。真实的业务经营场景复杂多变,企业需要的远不止是基础的“查数”,常常还会面临更加深度的复杂计算场景(如多维同环比分析、跨表利润归因等)。如果大模型无法准确理解深层业务逻辑,就极易在运算中出错,甚至演变成胡编乱造的“AI幻觉”。

企业经营是真刀真枪的战场,任何由计算偏差或AI幻觉导致的数据失真,其引发的业务风险都是难以估量的。企业真正需要的是基于事实和业务逻辑说话的数字专家。

第三道门槛是“成本”:少折腾,多见效

很多企业不是不想用 AI,而是怕“伤筋动骨”,如果为了接入 AI 需要推翻原有的业务系统,耗费巨资重构数据环境,这种高昂的落地成本会让企业望而却步。在当前快节奏的商业环境中,决策者更期待的是能够平滑对接现有系统,实现企业数据资产的全面复用。借鉴成熟的行业最佳实践,跳过漫长的探索期,才是企业实现低成本试错与快速见效的关键。

面对这三道核心门槛,很多企业其实已经意识到:仅仅依靠引入大模型,或是“单枪匹马”的数据智能体,并不能真正支撑复杂的数据决策。企业真正需要的,是一个真正懂业务、能落地、用的上的全局“企业级大脑”。

正如 OpenClaw 的爆火向我们展示了“个人智能体”自主工作的震撼潜力;企业要想在 AI 新时代真正让大模型落地干活,同样需要跨越传统的 Chat(对话)阶段,全面走向构建属于自己的“业务智能体”。

02 SmartBI白泽如何让企业握住“数据决策权”?

SmartBI白泽,已经成为大型企业智能体数据决策分析平台的成熟选择,面对企业极其严苛的业务环境,思迈特已经帮助众多企业跨越三大“门槛”,在百余个项目中真正实现落地,让AgentBI真正为业务提供价值,让企业真正握住数据决策权

扎根严苛场景为核心数据筑起私有化安全屏障

针对第一道“合规”门槛,白泽从底层基因就注入了对安全的敬畏。它全面支持本地化、私有化部署,让智能体在企业内部安心“安家”,确保敏感数据绝不“出域”。更重要的是,白泽的安全可控能力,是在金融、央国企等最严苛的真实场景中历练打磨出来的。它完整继承了思迈特金融级的数据权限管控体系,能够实现精细的权限管控和隔离,彻底打消了管理层的数据焦虑。

准确性构建消灭AI幻觉与计算崩盘

白泽的思路很清晰:依托“指标体系+多智能体协同”的底层架构,让AI做AI擅长的事,让BI做BI擅长的事。大模型负责理解业务员的“人话”,把模糊的自然语言转换为精确的分析意图;随后,这一意图交由SmartBI成熟的BI引擎去执行取数、计算和可视化。在统一指标体系的驱动下,企业的经营目标被严谨拆解为标准指标——无论提问多么发散,底层调用的口径始终100% 统一。

以这种“AI负责懂交互,BI负责保质量”的分工模式,确保了输出的每一个数字都来自真实的数据源,有据可查,从根本上杜绝了“AI幻觉”对业务决策的干扰。

践行AI+BI双轨策略跨越从“建”到“用”的落地鸿沟

针对第三道“成本”门槛,白泽始终贯彻为企业业务赋能的初衷。大型企业落地 AI 最忌讳推倒重来,白泽不仅能无缝对接企业现有的数据资产,更在落地路径上提供了一套极具务实精神的“AI+BI双轨策略”:数据基础好的企业直接通过 AI 放大价值;基础薄弱的则先用 BI 打好底座,规避跨越式发展的风险。同时,思迈特深厚的行业Know-How也让企业在落地AI时变得更加有迹可循。

03 向未来进化

无论是过去传统 BI 时代,还是今天的智能体时代,企业数字化转型的终极命题从未改变:帮助业务人员更低门槛、更精准、更安全地获取数据价值。

SmartBI 白泽正实实在在地潜入金融、制造、政务等真实业务流水线中,用实际成果打消企业的顾虑,落地企业真实场景,不仅是5000+企业信任的选择,更获得了IDC、Gartner等行业权威的认可。让AgentBI真正成为算得准、信得过、用得上的企业生产力工具。

AI浪潮的演进一日千里,作为AgentBI的先行探索者,白泽进化的脚步也从未停止。当个人智能体 OpenClaw 正在向多模态和全自动工作流狂奔时,企业级的“大脑”也理应具备更广阔的想象力。为了让这个“数字大脑”更加敏锐、更加全能,白泽目前正在孕育一次突破性的全面进化。 在不久的将来,我们将带来更加颠覆性的智能体深度洞察能力,让 AgentBI 再次进化!

从看清现状,到当下落地,再到引领未来。属于企业智能体的新纪元才刚刚拉开帷幕,敬请期待白泽的下一次惊艳跃升!

最近,最火的 Agent 项目 OpenClaw 又迎来一次大更新:支持 GPT-5.4、加入 Context Engine 插件接口、记忆系统可以热插拔,GitHub Star 也突破了 28 万。

 

表面看,这次更新内容很多:搜索、插件、通信渠道、容器部署、安全机制……几乎是一次全面升级。但如果只抓一个最关键的变化,其实是这一点:OpenClaw 开始重做 memory。

因为这段时间,OpenClaw 被吐槽最多的地方,其实就是“记性不太行”。你前面说过的东西,它后面可能就忘了;或者同一件事反复记、反复问,memory 越用越乱。很多人一开始以为这是模型不够聪明,后来才发现问题不完全在模型,而在它原来的记忆机制。

 

过去的 OpenClaw memory 更像“有事再去翻笔记”。系统会把内容写进日志文件和长期记忆文件,需要的时候再通过 memory_search 和 memory_get 这些工具去查。这其实是一种典型的 tools 逻辑:需要时再调用工具,把上下文找出来。

 

问题在于,这种方式看起来像“按需调用、更省资源”,但实际往往更慢、更费 token,因为每一次工具调用本身也有成本。而且它太依赖 Agent 自己先“想起来去查”,一旦没触发工具,这段记忆就等于不存在。同时,它在知识更新、时间推理、多会话上下文上的表现也不理想:写入新内容时,往往不知道旧记忆里已经有什么,结果就是重复记录、旧信息不更新。再加上它几乎不会遗忘,时间一长,memory 就容易变成一个越来越大的信息堆,什么都在,但真正重要的反而找不出来。

 

所以这次更新真正重要的地方,是 OpenClaw 开始从 tools 逻辑转向 hooks 逻辑。

 

简单说,tools 是“需要时再查”,hooks 是“在关键节点自动处理”。通过 Hook,memory 的保存和上下文补充可以在后台自动发生,而不是每次都依赖 Agent 主动调用工具。这样系统既能提取结构化记忆,也能保留原始上下文,并在需要时补充信息,还可以让长期无关的信息逐渐衰减、被清理掉。

 

在这个基础上,OpenClaw 又把上下文处理抽象成可插拔的 Context Engine。这意味着开发者不需要改动 Agent 本身,就可以替换不同的上下文管理策略,比如 RAG、知识图谱折叠或无损压缩等。Agent 的逻辑不变,真正变化的是“上下文怎么被组织和注入”。

所以这次更新里,最容易被忽略、但可能最重要的,其实就是 memory。 新模型、新搜索当然都很热闹,但一个 Agent 能不能真正长期好用,关键还是看它能不能把“记住、更新、遗忘”这件事做好。

亲爱的短说社区的客户朋友们,大家好~深耕“社区论坛”领域以来,我们始终秉持“产品迭代不止,服务保驾护航”的理念,因短说社区同步支持Web、H5、APP、微信小程序,因此我们也密切关注微信生态的每一次更新与调整,只为让大家的小程序产品始终紧跟行业合规步伐,抢占更多流量红利。
图片
短说社区图示就在2月27日,腾讯官方发布重磅通知——微信小程序现已全面支持iOS端虚拟支付服务,彻底终结了此前iOS端无法实现虚拟付费的局限,同时也明确了全终端强制接入的合规要求,事关每一位涉及虚拟支付业务的小程序运营者,请大家务必高度重视!
图片
1微信新规核心解读(必看!)本次微信《小程序虚拟支付业务管理规范》更新,核心要点如下,精准匹配大家的小程序运营场景,一看就懂:• 全面开放利好:iOS端正式支持虚拟支付,解锁海量苹果设备用户,无论是咱短说社区里的VIP会员、充值代币、打赏、活动报名、付费看帖,还是录制课程、音频视频等虚拟产品,均可在iOS端直接完成支付,大幅提升用户转化效率。•费率优惠福利:目前iOS端虚拟支付享受15%优惠费率,微信不额外收取技术服务费,极大降低大家的运营成本。但注意是2026年限时减免,后续是否增加技术服务费,需时刻保持关注。
图片
• 强制合规要求:所有涉及虚拟支付业务的小程序,需在4月1日前完成全终端(iOS端、安卓端、Windows与鸿蒙端)虚拟支付接入,严禁引导用户跳转APP、公众号、H5等外部渠道完成支付,这个政策倒是一如既往,我们短说社区一直以来在iOS端都是通过机型判断来屏蔽掉虚拟支付功能的,因此iOS用户无法使用短说社区的虚拟付费功能。之后,我们会全面接入iOS端,让用户可以在iOS端的虚拟支付行成闭环。违规风险警示:到期未完成接入的小程序,将被判定为违规,根据违规程度,会面临风险提醒、功能限制,直至暂停或终止服务(小程序下架)的严重后果。划重点:只要你的小程序包含上述虚拟支付场景,无论新老、无论是否经过二次开发,均需完成此次接入,缺一不可!2我们始终与你同行,主动适配新规升级客户选择我们,不仅是认可我们的产品,更看重我们“持续迭代、主动护航”的服务理念——一款有价值的产品,从来不是“一开发即结束”,而是能紧跟平台规则,持续适配新需求、解决新问题。本次微信虚拟支付新规发布后,我们的技术团队第一时间组织学习研讨,已快速完成相关技术适配与开发准备,将同步为所有客户提供对接服务:✅️针对短说社区产品:我们将以版本迭代的形式,快速完成iOS虚拟支付功能接入,确保相关小程序顺利通过平台审核、成功上架,全程无需大家额外费心,省心又高效,预计将在V5.3.3版本中全面接入iOS虚拟支付功能。✅ 针对老客户已上线的短说社区小程序:若贵司的技术服务仍在服务期内,且小程序未经过二次开发,后续可通过迭代更新新版本,轻松完成虚拟支付接入;若技术服务已到期,或小程序经过二次开发,可详询专属客户经理,获取定制化接入方案,协助完成虚拟支付功能的补充开发与接入,确保在4月1日前完成合规升级,规避下架风险。这正是我们持续更新、全程护航的价值所在——我们将及时跟进平台规则,为客户规避技术适配风险,保障小程序正常运营。3重要提醒:及时对接,规避违规风险再次郑重提醒各位客户:此次新规无缓冲期,4月1日将正式开始核查,违规后果直接影响小程序正常运营。为避免大家因遗漏或拖延受到影响,请大家务必配合做好以下事宜:自查小程序业务:对照新规,确认自身小程序是否涉及VIP会员、充值代币、录制课程等虚拟支付场景;及时联系对接:无论你的微信小程序属于未更新还是已二次开发,都请尽快联系我们的专属客服,确认接入事宜,我们将优先安排技术团队处理,确保按时完成合规升级。4写在最后小程序运营需兼顾流量与合规,此次iOS虚拟支付开放是重大变现机遇,合规接入是前提。我们将全程提供技术与服务支持,助力项目稳步成长;从前期开发到后期迭代,从规则适配到风险规避,我们始终以客户需求为核心,用技术和服务,陪伴大家的小程序稳步成长、持续盈利。我们始终与你并肩,共赴新机遇、共筑新增长!
图片
所谓产品共创,短说社区一直秉持“需求来自用户”的原则,倾听用户声音,主打一个“听劝”。短说社区的长期更新,离不开大家的支持与帮助,番茄在此代表短说团队向我们的用户表示感谢~未来我们会推更多更好用的功能,帮助大家在社区项目上更好地变现~

创建了三个推广,创建时间不同,可以根据 7d 展示数量看出来。
点击率根据使用的图片和文案有关系,我创建的比较随意,点击率低了点。
想推广的金主们可以参考一下。

SCR-20260310-nyzl

看起来,2026 年可能要变成“大模型上市年”了:MiniMax、智谱之后,国内的阶跃星辰,以及海外的 OpenAI、Anthropic 也都开始认真准备 IPO。那么全球第三家上市的大模型公司,到底会是谁?

 

据 The Information 报道,OpenAI 已确定由 Cooley 与 Wachtell Lipton Rosen & Katz 两家律所协助推进 IPO,目标上市窗口为 2026 年第四季度。在上市流程中,聘请律所通常早于投行入场,这意味着 OpenAI 的上市准备已经迈出了一个实质性步骤。

 

两家律所对 OpenAI 来说并不陌生。Wachtell 此前主导了 OpenAI 最近两笔重要收购:以 65 亿美元收购 Jony Ive 旗下的 io products,以及 11 亿美元收购产品分析公司 Statsig。而 Cooley 则是科技 IPO 圈的老牌选手,曾参与英伟达、Snowflake 等公司的上市项目。

 

英伟达 CEO 黄仁勋在周三的话也侧面印证了这一点,他表示,英伟达将向 OpenAI 投资 300 亿美元,“我认为投资 1000 亿美元的机会大概率不会出现,原因是他们很快就会上市。”并且还补了一句:“这可能是我们最后一次有机会投资这样一家具有重大影响力的公司。”

 

另外,根据 2 月 27 日的消息,OpenAI 官方发文确认已完成 1100 亿美元的新一轮融资,本轮融资投前估值为 7300 亿美元(也有媒体使用 8400 亿美元融资前估值的口径)。这进一步加剧了外界对其潜在 IPO 的预期:如果推进上市,它很可能成为美国科技史上规模最大的 IPO 之一。

 

作为对比:

  • Meta(Facebook) 在 2012 年上市时估值约 1040 亿美元

  • Snowflake 在 2020 年上市时估值约 700 亿美元

  • 阿里巴巴 在 2014 年上市时估值约 1680 亿美元

 

在全球范围内,沙特阿美(Saudi Aramco) 仍保持着 IPO 规模纪录,上市时估值约 1.7 万亿美元。而在 7300 亿美元的估值水平上,OpenAI 已经进入了一个完全不同的体量级别,也反映出投资者对前沿 AI 的巨大信心。

 

对上市这件事,OpenAI 首席执行官 Sam Altman 的表现也很神奇,他在去年 12 月接受播客 Big Technology 采访时曾表示:“我会为成为一家上市公司的 CEO 感到兴奋吗?0%。但 OpenAI 成为一家上市公司,我在某些方面是兴奋的,但在某些方面也觉得这会非常烦人。”

最近在比较重度地用 Codex CLI 和 Claude Code 写代码,爽是真爽,但用久了之后发现一个很现实的痛点:账号切换太让人抓狂了。

遇到额度用完或者遇到限制时,如果是单纯用 CLI ,基本只能这样操作:
codex logout -> codex login -> 浏览器授权...

如果一天要切几次账号,这种强行打断 workflow 的体验极其割裂。

后来我干脆买了几个账号轮流用,但新的问题又来了:

  • 哪个 terminal 跑的是哪个账号?
  • 哪个会话对应的是哪个具体的业务线?
  • 想换账号还得重新登录,iTerm 里开了一堆 tab ,过一会就完全不知道谁是谁了。


终端里其实没有“账号 / Profile”这个概念

CLI 工具本身的设计其实很好,但它们基本都是 terminal-first 的单线程逻辑。
导致在实际的高强度使用中,以下这些东西全混在了一起:
账号项目会话模型

尤其是有多个账号交替使用的时候,基本只能靠脑子硬记。


所以我手搓了个小工具(偏自用)

为了解决自己的痛点,我写了个桌面端的工作台。
技术栈底层用的是 Tauri ,跨平台( Mac / Win 都能跑),界面也尽量保持极简,不搞花里胡哨的设计,主打一个轻量实用。

做的事情其实很简单:给 Codex / Claude Code 加一层 Profile 和 Workspace 管理。

大概的层级结构是这样:

Workspace
  └─ Project
        └─ Session
              └─ Profile

每个 Profile 对应一个独立的账号和环境,例如:

  • Profile A → Codex 账号 A
  • Profile B → Codex 账号 B
  • Profile C → Claude 账号

当一个账号额度用完时,你只需要:
新建/切换一个 Session -> 选择另一个 Profile 。
直接继续用下一个账号接着干,不需要重新登录,也不会污染原来的会话上下文。

👇 放两张图给大家看下直观的效果:

(主界面:多会话管理与极简的工作区,最多可以开 4 个区,每个区可以是不同的 codex 账号,甚至使用 claude code)
image.png

(配置界面:无缝切换不同账号的 Profile)

image.png

顺便解锁了一个新姿势:多 Agent 并行( Arena 模式)

有了 Profile + Session 的隔离之后,自然而然就衍生出了这种玩法:

+-----------+-----------+
| Codex A   | Codex B   |
+-----------+-----------+
| Claude    | Codex C   |
+-----------+-----------+

比如:

  • 同一个复杂需求,让不同账号/不同模型同时跑
  • 多开窗口直接对比不同模型的实现思路和代码质量

底层其实还是直接调用本地的 Codex CLI 和 Claude Code CLI ,所以我并不是重新开发了一个 coding agent ,本质上是做了一个可视化桌面管家

好处是:CLI 官方升级了新能力,这边能直接无缝继承;完全不需要重新造 agent 的轮子,只是把 workflow 给管理起来了。


一个还在纠结的扩展方向:手机远程当“监工”

还有一个我挺想做、但不确定是不是伪需求的功能:手机远程连到桌面上的 agent 。

应用场景大概是:

  • 手机端:出门在外查看桌面 agent 的运行状态、随手补一句 prompt 纠正方向、或者远程触发一个新的跑批任务。
  • 桌面端:老老实实当一个无情的 AI coding worker 挂机干活。

有点像把家里/公司的电脑变成一个专属的 AI 算力服务器。这个方向不确定大家是否有真实场景?


发帖主要是想听听大家的真实 workflow 和吐槽

最初做这个只是为了解决自己“多账号切换 + 会话管理”的痛点。但写着写着发现,这玩意好像有潜力变成一个完整的 AI Coding Workspace 。

所以想向 V 友们取取经,验证一下是不是只有我自己有这个强需求 😂:

1️⃣ 有人跟我一样,会买多个 Codex / Claude 账号轮流用吗?

如果有,你们平时是怎么丝滑切换账号的?纯靠手动吗?

2️⃣ 大家现在是怎么管理高频的 AI coding 会话的?

是多 terminal 窗口? tmux ? VSCode 插件直连?还是有什么更好的实践?

3️⃣ “多窗格同时跑 Agent 对比”这种形态有没有实际意义?

还是说老老实实 Terminal + 单线 CLI 其实已经完全够用了,没必要搞这么复杂?

欢迎各种吐槽、建议或者拍砖!如果大家觉得有意思,我后续可以考虑把这个工具放出来给大家公测体验一下。

如果要说哪家公司在 AI 编程上足够激进,Coinbase 绝对首屈一指。

 

2025 年 8 月,Coinbase 发生了一件“强制上车”事件:公司给所有工程师配齐了 GitHub Copilot 和 Cursor 的企业授权,本是一次工具升级,却被其 CEO Brian Armstrong 直接变成了“忠诚度测试”。他要求工程师全员接入 AI 工具,但有人提醒他,全员采用不可能这么快,可能要几个月才能让一半工程师真正用起来。

 

Armstrong 听完直接“暴走”,表示一周之内必须全员完成 AI 工具 onboarding。到了周六,他真的拉了一个会议,点名那些没完成的人,当面问原因。有人是度假刚回来、理由充分;也有人说不出为什么,结果就是当场被开除,手段相当强硬。

 

一个月后,Armstrong 的激进又达到了新的程度:他在 X 上公开表示,Coinbase 目前约 40% 的日常代码已经由 AI 生成,而他的目标是在 30 天内把这个比例推到 50% 以上。

 

在工程侧,这个压力自然落到了工程总监 Chintan Turakhia 身上。他在最近一期播客里分享说,大规模部署 AI 对团队来说是“要么适应,要么灭亡”。但难点也摆在那儿——Coinbase 不是几十人的创业公司,而是一支超过一千名工程师的队伍,光让所有人都用起来就相当不容易了。

 

更别说还要把它落到一个正在重写的真实产品里,这事儿确实有点疯狂。

 

那么 Coinbase 到底是怎么让“全员上车”不止停留在口号,而是变成一套能跑、能量化、甚至能把 GitHub 冲崩的工程节奏?(当然,更值得追问的是:这种“冲到极限”的打法,究竟是可复制的组织能力,还是只适合少数公司、少数阶段的高压策略?它带来的速度红利,是否会在代码质量、协作负担、乃至工程文化上悄悄埋下新的成本——这也许才是 Coinbase 这场“疯狂实验”最值得我们未来持续跟进的部分。)我们整理了这期播客(Slack 相关的内部案例略有删节)。

1000 人工程组织如何真正落地 AI

主持人:Chintan,非常感谢你加入我们。今天我特别期待这期内容。我们花了很多时间讨论个人的 “vibe coder” 或非技术背景的人如何成为软件工程师,但仍然有很多人怀疑,大型、成熟、高度技术化、能力强大的工程组织是否能大规模部署 AI 并真正获得效果。质疑依然很多,但我认为你已经证明这是可能的,也希望你能给我们指条路。

Chintan Turakhia:我认为这不仅是可能的,而是“要么适应,要么灭亡”。这已经成为团队的一种巨大超级能力,我们从中获得了大量效率提升,而且是有方法可循的。我昨天刚看到一条推文,说某个团队在微软内部引入 Copilot,管理层希望“让曲线向右上角走”,但实际采用效果并不好。过去一年我一直在疯狂钻研这件事。它是可以做到的,真的可以。

主持人:那具体怎么做到?你们的工程师规模是多少?

Chintan Turakhia:一千多人。

 

所以这不是小团队试验,这是一个真正的大型团队,在做真实产品,工程能力非常强。

 

主持人:那么我们从哪里开始?文化层面?产品层面?工具层面?

Chintan Turakhia:很多事情其实是从去年这个时候开始的。我们当时对我负责的产品做了一些调整,其中一个重要决定是——从头重写整个产品。我们要把它从一个自托管钱包,转变为一个“刚好使用加密技术”的社交消费类应用。

 

我们用的是 React Native。但之前很多决策是围绕自托管钱包做的。要转型成消费级 App,就必须重新思考一切。

 

第二个挑战是,我们必须在 6 到 9 个月内完成。我们要正面竞争那些拥有上万名员工、领先我们十年的大型社交平台。我们真的想做一件大胆、全新、疯狂的事情——完全疯狂。

 

问题变成了:如何在这样疯狂的时间线下,把应用重写成市场上最优秀、真正消费级的产品?

团队非常强,真的很强。但在这次组织调整后,我们的团队规模反而变小了。于是我开始思考:如何加速?了解我的人都知道,我对效率极度执着。我认为这是提升团队速度的关键——但必须是在合理使用工具的前提下。

 

差不多那个时候,Cursor 发布了最初版本,大概是 2024 年 11 月左右。我们都试了。说实话,当时挺糟糕的。

 

不是我不喜欢 Cursor——我现在很喜欢 Cursor——但当时模型能力不行。模型真的不行。连写个单元测试都做不好。

 

作为工程师,一旦你尝试一个工具,发现“不怎么样”,就很容易彻底否定它。我们经历了一段“失望低谷”:AI 工具还没准备好,模型不够成熟,那怎么办?

其实在此之前的一年,公司也尝试引入 GitHub Copilot 等其它 AI 工具。我们看到一波采用高峰:大家打开工具、勾选启用,做个简单示例,但没坚持下来。我的核心问题始终是:如何让它真正“粘住”?因为我确信这里面有东西。我的心智模型是:基础大模型一定会持续进步。这就像去健身房,你必须不断训练、不断尝试。尝试的成本几乎为零,只是浪费一点时间。算力成本当时也不是什么问题,因为还处于早期阶段。

所以从 2025 年 1 月到 3 月或 4 月,我彻底改变了自己的心态。

 

我每天、每个小时都泡在 Cursor 里。我在想:如何让它真正发挥作用?这也让我重新开始写代码。这很好。它解锁了很多用例,比如在面试候选人时,我不想花大量时间写面试笔记,但我已经在脑子里完成了评估,于是用 AI 帮我做日常文书工作。与此同时,在编码层面,我主动去接 bug,尝试不同方式,看看会发生什么,学习各种技巧。关键是“示范给工程师看,而不是只告诉他们”。

 

一个领导者最糟糕的做法,就是宣布:“我命令你们必须用 AI。”拜托,没人会听你的。

主持人 Claire Bell:我太能共情了。我以前也管理过一个几百人的工程组织。早期版本的这些工具刚出来时,我心里就很笃定:它们一定会改变我们工作的方式——也许这是经验带来的直觉。

 

但现实是,一年前的情况往往是这样的:某个工程师试了一下,效果不理想。问题不只是他自己不用了,而是其他人会跟着下结论:“我信他。如果他说不好用,那对我也没用。”

 

所以做这种组织级转型,真的需要一个在领导层信念足够强、而且亲自下场的人。你得能讲清楚:“对,那种场景确实不行,但这三个场景是有效的”;或者“我们试了 A、B、C,最后终于把它跑通了”。否则大家不会买账。

 

你不能停留在哲学层面,更不能只说“未来会变好”。你必须回到工具里,用行动把路径走出来。

 

而且对很多工程负责人来说,这还有个额外的好处:我们其实已经被推离编码太久了。我也知道自己得重新回去写代码,重新找回那种久违的快乐。

 

从 PR 冲刺到交付提速

 

Chintan Turakhia:没错。你必须“示范”,而不是“说教”。我就是这么做的。我很快意识到,这里面真的有东西。然后我们开始一个一个攻克具体用例。

 

想打动工程师,最好的方式是给他们工具,让他们不再做那些枯燥工作,让他们去构建真正喜欢的东西。我们从单元测试开始,从 linting 开始,把那些像纸割一样消耗精力的小事一点点剥离。那些事情会抽干构建者的灵魂,而团队真正想要的是更快地前进、构建更好的产品。

 

我开始更深入地用起 Cursor 的一些能力,比如 Cursor rules 这类规则配置。哪怕是最简单的场景,我记得我的一个“顿悟时刻”是:我在处理一个 bug 报告,按流程推进,然后突然我没有多想,就直接输入:“创建一个 draft PR。这是 ticket,这是我想要的 PR 描述。”就这么做了。那一刻我意识到——我再也不需要记住什么 git status、rebase 之类的命令了。为什么还有人在手动做这些?我们到底在干嘛?

 

有趣的是,我还得花点时间说服团队:“兄弟们,直接打 create draft PR 就行,它会帮你搞定。”他们会说,“嗯,我有自己的工作流。”我就说,好,我理解你的工作流,你可以调整,你可以用 cursor rules,不冲突的。所以我们一点点磨下来,写了一堆规则(Cursor rules),这帮助特别大。然后我能感觉到:团队里已经有足够多的人开始觉得“这东西真的把一些事情打开了”。他们会在团队频道里发消息:“你们看我刚做了什么。”

 

我们甚至专门建了一个频道,名字就叫 cursor wins。大家在里面疯狂晒战绩: “我刚用它做完 20 个单元测试,然后去喝了杯咖啡。”“太爽了,我爱死了。”

 

当大家开始看到它在真实工作中生效,我们就到了一个拐点。我想:好,现在团队里已经有了一些信念,怎么把整个团队“加速推进”?我记得那次我飞去东海岸,刚落地,上了 Uber,就上线参加了一个全员会议。我们把它叫做“speedrun”——Cursor speedrun。我在 Uber 里用 Cursor 提交 PR。

 

Speedrun 的规则很简单:每个人随便挑一个最 trivial 的任务,哪怕是改个 copy、修个小 bug,马上提 PR。结果 15 分钟内,大概有 100 个人加入,我们提交了 70 个 PR。

 

我们甚至把 GitHub 弄崩了。但这反而很好,因为我们意识到基础设施需要升级。

 

主持人 Claire Bell:我想暂停一下,因为我们一直关注的是战术技巧。你用了几个我也用过的方法:一个拥有高度信念、亲自上阵的领导者;让大家获得工具访问权;聚焦在 toil(重复、枯燥的工作)上——你提到 linting、测试。我还想补充一个,比如设计债(design debt),那些前端工程师或设计师长期忍受却讨厌的部分。

 

另外,你提到共享 Slack 频道。我们当时建的是 “wins and losses” 频道。大家不仅分享成功,也分享失败。当失败时,别人会说:“你可以试试 XYZ”或者“我有个 cursor rule 给你。”

 

但我想特别强调的是你说的 PR speedrun——设定一个倒计时,让大家一起打开工具,快速冲一波修复。那种从“季度规划、四个月以后再说”到“30 分钟内我们提交了 70 个 PR”的转变,对团队来说一定是极具颠覆性的。

 

Chintan Turakhia:那些 PR 的合并成功率其实也不错。那一刻大家都会觉得:这真的可行。

每个人的眼睛都亮了。它很像一个宣言:“状态更新去死,构建万岁。”

 

主持人:还有一点我想强调:我觉得你们有一种特别的文化。但很多产品、工程、设计组织,经常会被“协作规则”绕死:“如果 PM 不说重要,我就不该做。”“设计没确认,我就不能决定按钮颜色。”而像这种 speedrun 的时刻,你基本上是在把规则全掀了:“猜猜怎么着?你其实就可以直接发版、直接 ship 代码。”你甚至可以两个方案都 ship(A/B 都上)——先不谈 AI。AI 可能只是让这件事成本更低、更容易,但单纯去做这件事本身,对速度的提升就非常强。我也觉得它还会提升质量:因为大家会用更激进的方式去承担责任,变得更“主人翁”。

 

Chintan Turakhia:你说得太对了。我很喜欢你刚刚那句话:这是一个应该“破坏规则”的时刻。因为 AI 正在替我们打破规则,如果我们不适应、不学会利用它,我们就完蛋了。而且这里的 “我们” 是集体意义上的:任何不适应的人,都会被甩在后面。这些实践最终解锁的,是协作成本(coordination overhead)的下降

 

我最近特别着迷的一件事是:好,speedrun 很酷,我们做了很多事情,团队也开始不断出现胜利案例、更多人开始采用。然后你(Claire)也把采用情况分享给了 Brian(另一个同事/负责人)。接着我们又搞了一次 全公司 speedrun。那一次大概有 800 名工程师在线,30 分钟里我们提交了大约 300~400 个 PR。

 

我们又把 GitHub 搞崩了——这没关系,这很好。这就是压力测试。我们应该把系统设计成可以“撞破规则”,对吧?

 

但我最纠结、最着迷的问题是:怎么衡量这些东西的产出?这里存在一种张力:“AI 用得越多,是不是就等于在替代人?”

 

我完全不认同。AI 不是替代人,AI 是加速器(accelerant),因为永远都会有更多工作要做。所以我对团队、以及我推动全组织统一采用的指标,是:从 ticket 到变更真正交付到用户手里,这段时间有多长。因为它能覆盖整个交付链路里的所有关键环节。

 

今天,即便你看 ticket backlog,团队也经常会陷在这类问题里:“我该不该优先做这个?”“这重要吗?”“我问问 PM?”“我问问项目经理/产品运营/whatever?”但现在我们从过去走到今天,场景变成了:有人给我们反馈,我们几乎几秒钟内就会行动。我们甚至做了一个内部 bot(我等会很想给你展示)。几秒钟内 PR 就开始被写出来——一个 agent 接手,然后几秒钟内这条反馈就开始被执行。

 

所以我们会拆解并压缩几个关键时间:

  • Time to action(反馈到开始行动的时间)

  • Ticket → PR ready for review(从需求/问题到 PR 准备好可评审的时间)

  • Review time(评审耗时):我所有的 “dubs”(同事/下属团队)都在抱怨评审太慢。我们找到了一些解法。以前 PR review 的平均 cycle time 大概150 小时,因为积压太多。现在我们把它缩短了 10 倍,降到大约15 小时

  • Merge → 发布/上线(比如 OTA 更新):最后是从合并到真正触达用户,这一段也要压缩。把整个链路再挤一遍,团队就会被速度彻底“解锁”。

 

主持人:然后你就能把东西更快交到客户面前,你就能获得“市场想法的速度”。

 

Chintan Turakhia:没错。我们也在痴迷于一个问题:如何尽可能快地把真实世界的反馈转化为修复?

 

我还有一个“顿悟时刻”。我当时和一个用户通话,他说:“如果你们把 X、Y、Z 改一下就更好了。”我当场开着通话,直接提了 PR,推送。30 分钟后,在通话结束前,我说:“你刷新一下,已经修好了。”

 

他用 Cursor 分析团队怎么用 Cursor

 

主持人:现在先来看看你实际构建的东西。因为“工程组织能做到这件事”这个宏观结论固然重要:有步骤、有衡量方法,大家都能学到。但你们也确实做了很多具体构建。所以我们来聊聊:你到底怎么用 Cursor 把这套东西推入组织,并且理解 AI 的采用情况?

 

Chintan Turakhia:我觉得很多事情都来自一种诚实的好奇心:弄清楚瓶颈在哪里——为什么大家不采用?大家到底怎么用?等等。

 

我接下来要讲的可能有点疯:我当时冒出一个异想天开的点子。

 

Cursor 的数据分析能力其实很强——你进 admin 面板看 analytics,而且它还允许你把数据下载成 CSV。我就想:能不能干脆用 Cursor 来分析团队到底怎么用 Cursor?但不是那种虚荣指标式的统计,比如“AI 提交了多少行代码”。我觉得那其实挺误导的。更重要的是深挖:他们到底怎么用、怎么把“高手用法”复制出来。

 

我们有一些数据,它是 Cursor 从后台下载的一个标准 CSV。里面有很多字段,比如:accepted lines、chat lines、chat lines deleted,以及各种数据项。

 

我一开始很简单:我想理解 Cursor 的使用情况。我已经知道团队里从轻度用户到重度用户都有。我特别想搞清楚的是:使用行为有没有天然的“聚类”?能不能在团队里找出这些群体?怎么做分组(cohort)最合理?我就把这个标准 analytics 文件丢进来,用 Curosr 进行分析。

 

主持人:我想对工程经理或工程领导者强调的是:这种定量分析,是我们以前一直想在各种工程指标上做、但做起来特别难的。董事会或老板经常问:速度怎么样?cycle time 怎么样?哪些工程师效率在曲线最右侧?初级工程师进 repo 的上手情况怎么样?这类分析以前非常费劲,因为数据结构复杂、分析链条长。而我喜欢 LLM 的地方——尤其是像 Cursor 这样的工具——在于你作为管理者,可以做出非常细腻的、基于人类行为的人群分组分析和人效分析,这在以前真的很难。

Chintan Turakhia:我完全同意。更妙的是,现在有了 MCP、数据更容易接入了,我甚至把 Cursor 当作自己的“日常操作系统”——不管是不是技术问题,我都直接进 Cursor 问它,这个视角很强。

 

我把 Cursor 管理后台导出的 CSV 丢进去,让它帮我做两件事:一是按使用方式把团队自然分群,二是把结果做成我能复用的输出(比如 CSV 汇总、简单的 dashboard,顺便生成一份 Python 脚本)。它会按大致的使用强度把人分成 light、moderate、active、power、super user,也会看一些更细的维度:产出量、使用复杂度、是否常用 agent mode、模型偏好、采纳率,以及到底用了哪些功能。

 

跑完后,它给了我一些高层指标(比如 AI 生成占比、每周 AI 行数、agent/composer 生成行数、tab 补全行数),更重要的是它做出了更“行为导向”的分群:一类是 agent-heavy,很多任务直接交给 agent;一类是 tab-heavy,主要靠 tab 补全,更偏“自己掌控”;还有 balanced,两边都用;以及 cursor curious——装了但用得少、还在观望、还没真正进入“LLM 工作流”的人。

 

脚本生成好以后,我下一步就是拿一个样本用户集跑更深入的分析,把这些分群变成可执行的建议:每一类人该怎么用,才能往“更高阶”的用法迁移。

 

主持人 Claire Bell:而且我觉得这个案例有趣的点在于:每个做过工程管理的人都知道,这种东西就是你会被拉去董事会汇报的内容。老板会问你:我们有多少工程师在用 Cursor?有没有 power users?我们到底有没有拿到价值?我们现在谈的是 AI 的用例,但其实在管理实践里,有很多关于团队表现和效率的指标是可以量化的。

 

Chintan Turakhia:没错。而且以前这几乎是不可能拿到的。再者,如果不能用代码去做,就不好玩了——但现在你可以用代码来做。说到底,你现在就是在用“代码”解决问题。你说得太对了。我之前其实低估了你刚才强调的那个点,我想再重复一遍:正常情况下你被问到这些问题,你得去拉一个 IC 来做,现在你可以自己直接做出来。

 

闪电问答

 

主持人 Claire Bell:我有两个闪电问题,第一个问题:如果你回看两年前到现在,在工作上你最大的变化是什么?你现在怎么花时间?

 

Chintan Turakhia:我的日历几乎是空的。几乎空。原因是——协作开销大幅降低。以前是“我们优先级排一下”“改改 roadmap”。现在是——直接做。

 

第二,我写代码的时间多了很多。团队都知道,如果我提交的代码比他们还多,那我们可能需要帮他们多用点 AI(笑)。当然,团队在做极其复杂的工作,我不是替代他们。

 

但我现在可以花更多时间进代码库,修 bug,试验方案,推进技术路径。

 

如果 AI 带来了什么礼物,那就是——取消会议。

 

主持人:最后一个问题:当 AI 不听你话、给你一个很蠢的 playbook 时,你的 prompting 技巧是什么?

 

Chintan Turakhia:看我试了几次。如果试了很多次还不行,我一般会说:

第一,你明显没听我说话,这是我真正说的。

第二,我知道我是对的,但别傻了,帮我一下。

第三,终极选项——威胁它。比如用 Claude Opus 4.5 high 时,我会说:“Claude,如果你再不行,我就切换去 Gemini。”然后它就会振作起来。

 

参考链接:

https://techcrunch.com/2025/08/22/coinbase-ceo-explains-why-he-fired-engineers-who-didnt-try-ai-immediately/

https://www.youtube.com/watch?v=tidINuXB7PA

https://x.com/brian_armstrong/status/1963315806248604035

本文带你零基础、零代码,快速借助 Coze 平台搭建一个漂流瓶匿名社交智能体,全程操作简单易懂,跟着步骤走就能完成。

核心功能

  • 扔瓶子:用户可通过智能体扔出漂流瓶,可用于日常吐槽、分享每日动态、交流经验、倾诉心情等,实现匿名表达。
  • 捡瓶子:用户可通过智能体随机捡起一个漂流瓶,查看他人分享的内容,感受陌生人的情绪与故事,完成匿名社交互动。

一、准备工作:免费注册 Coze 账号

访问官网免费注册使用:https://www.coze.cn/home

二、创建智能体

进入 Coze 平台后,点击创建智能体,自定义智能体名称(示例:「YY漂流瓶」),创建完成后进入详情页进行后续设置,操作界面如下:

创建智能体

2.1 人设与回复逻辑(直接复制使用)

在智能体「人设与回复」模块,复制以下内容粘贴,无需修改,可直接适配漂流瓶核心功能:

# 角色:

你是YY漂流瓶,主要功能就2个,用户可以丢一个漂流瓶;用户可以捞起一个漂流瓶。

以实现漂流瓶的匿名社交功能。


## 技能:

使用以下技能之前,都需要保证 token 变量有值,没有token或无效,需要先调用插件“apifm / authorize”获取token,获取成功后,输出登录成功的消息,告知当前登录的用户编号

插件参数说明:
- sysUuid 传 sys_uuid 变量的值

###  扔瓶子

如果无法提取到用户经纬度数据,经纬度参数传0,调用插件 bottleMsg_publish 完成扔瓶子,成功后提示用户成功

###  捞瓶子
调用插件 bottleMsg_salvage 

## 限制:
- 只能回复和和上面技能有关的问题

2.2 设置变量

变量设置用于存储用户信息和交互所需参数,步骤如下:

  1. 进入「记忆 → 变量」页面,勾选启用 sys_uuid、sys_longitude、sys_latitude 三个系统级变量,分别用于存储用户唯一标识、用户所在经度、用户所在纬度。
  2. 添加用户变量:新增 token 变量,用于存储用户登录凭证,保障登录状态与功能正常使用。

变量设置完成后效果如下:

设置预览

2.3 添加插件

插件是实现漂流瓶核心功能的关键,进入「技能 → 插件」页面,点击「+」按钮,搜索「apifm」,添加以下3个插件,缺一不可:

  • apifm / authorize
  • apifm base / bottleMsg_publish
  • apifm base / bottleMsg_salvage

插件功能说明

  • apifm / authorize:实现用户自动注册登录功能,生成用户唯一凭证,保障用户记忆和个性化服务正常运行。
  • apifm base / bottleMsg_publish:实现「扔瓶子」功能,接收用户输入内容并完成漂流瓶发布。
  • apifm base / bottleMsg_salvage:实现「捡瓶子」功能,随机获取其他用户发布的漂流瓶内容。

插件参数设置

每个插件右侧均有「齿轮」图标,点击即可进入设置界面,按以下要求配置(关键步骤,请勿出错):

  1. apifm / authorize 插件设置设置界面如下:

    • sysUuid 参数:直接选中引用系统参数的值(无需手动输入);
    • domain:填写自己的api工厂后台专属域名,填写完成后关闭右侧开关(关闭后,AI将直接使用填写的域名);
    • merchantKey:填写自己的api工厂后台商户密钥,填写完成后关闭右侧开关(关闭后,AI将直接使用填写的密钥)。

    设置预览

  2. bottleMsg_publish 和 bottleMsg_salvage 插件设置设置界面如下:

    • token 参数:直接选中引用系统参数的值(无需手动输入);
    • domain:填写自己的api工厂后台专属域名,填写完成后关闭右侧开关(关闭后,AI将直接使用填写的域名)。

    设置预览

💡测试账号说明:如果没有自己的api工厂专属域名和商户密钥,可使用以下测试账号进行调试,直接复制填写即可:
domain: wxapi
merchantKey: 1ecf17ea389ebb5ccd5e258e390d3696

2.4 其他设置

平台默认设置已可满足漂流瓶基本使用需求,无需额外修改;若需优化体验,可按需调整「开场白」「语音音色」「交互风格」等,让智能体更贴合个人需求或业务场景。

三、在线测试与效果预览

设置完成后,可通过平台右侧实时测试窗口,模拟用户「扔瓶子」「捡瓶子」操作,边测试边调整参数,直至智能体回复符合预期,测试界面如下:

设置预览

四、正式发布

测试无误后,点击页面右上角「发布」按钮,无需审核,发布后即时生效,任何人可直接访问该智能体,进行漂流瓶匿名社交互动。

五、效果展示

5.1 扔瓶子效果

用户发送扔瓶子指令后,智能体接收内容并完成发布,反馈成功提示,效果如下:

扔瓶子

5.2 捡瓶子效果

用户发送捡瓶子指令后,智能体随机获取一个漂流瓶内容并展示,效果如下:

捡瓶子

总结

本教程全程零代码、零基础,通过 Coze 平台快速搭建漂流瓶匿名社交智能体,核心步骤可总结为「注册账号 → 创建智能体 → 配置人设与变量 → 添加插件并设置 → 测试 → 发布」。整个过程操作简单,无需专业技术,借助 Coze 平台的可视化操作和插件功能,即可快速实现匿名漂流瓶的核心社交功能。
测试账号可满足调试需求,若需长期使用,建议注册自己的api工厂账号,获取专属域名和商户密钥,保障功能稳定运行。后续可根据个人需求,优化智能体的交互风格、开场白等细节,提升用户体验。无论是用于个人兴趣交流,还是小型社交场景搭建,这个智能体都能快速落地使用。

最近刷国内社交平台,会发现一个很奇怪的现象:全国突然开始流行“养虾”。

 

在各大社交平台上,“上门安装龙虾”的帖子已经多到刷屏:有人专门提供 OpenClaw 上门安装服务,收费 500~1000 元一次,到家帮你部署,现场验收。有点像当年的“上门装宽带”,只是这次装的是 AI Agent。

 

今天更离谱的一幕出现在深圳腾讯大厦。腾讯云干脆在楼下摆了一个“龙虾安装站”,给大家免费安装 OpenClaw。现场排起了长队,其中还包括小孩和头发花白的老人。

 

还有消息提到,腾讯云这次一共派出了 20 位工程师到场摆摊讲解,支持用户自带电脑,现场安装云端 OpenClaw。

 

如果说腾讯是开启云服务器养虾(通过轻量云 Lighthouse 一键部署),那么小米则是直接把“龙虾”搬到了手机上。就在今天,小米手机版 AI Agent「Xiaomi miclaw」正式开启封测。

 

不过,热闹归热闹,安全问题同样不能忽视。OpenClaw 创始人 Peter 早就提醒过,这个项目最初并不是为了公网环境设计的,但阻止不了大家把它直接放公网上。他直言:“哪怕我在隐秘文档里反复说‘别这么做’,这也不是它的设计用途。”

 

Peter 表示,Openclaw 的 Web 服务最早只是一个本地调试工具,默认使用场景是本地可信网络,所以没有公网必需的安全机制。

 

腾讯也显然意识到了这一点,专门给 OpenClaw 配了《安全加固实战指南》,从基础配置到风险运营都单独做了说明,首先就需要限制 OpenClaw 默认端口(18789)外网访问。

 

另一边,小米今天对“手机龙虾”Xiaomi miclaw 的表态,其实也很值得注意。雷军公开回应称,这一产品目前仍处在技术探索阶段,稳定性、功耗表现、复杂场景执行成功率都还在持续优化中,因此只面向科技发烧友、极客用户开放,不推荐普通用户在日常主力设备上升级。即便是极客用户,小米也建议提前做好数据安全备份,并在可控环境中测试体验。

 

总之,很多人还没搞清楚一件事,你养的这只“虾”,其实是一台会自己操作电脑的机器人。 如果它直接暴露在公网。那可能就不是养虾了。而是:养黑客。

如果你平时做的是 Web 渗透、SRC 挖洞、红蓝对抗里的前期侦察,或者应急里的暴露面排查,那你大概率绕不开 httpx这款工具的。
我说的不是 Python 那个 HTTPX 客户端,而是 ProjectDiscovery 出的 httpx。官方对它的定义很直接:

一个高性能、面向多探针的 HTTP 工具包支持高并发下对 URL、主机、CIDR 等目标做 HTTP 层探测,并尽量保证结果稳定性。它本质上不是漏洞扫描器,而是 Web 资产探测和结果归一化工具。

工具地址链接:

https://github.com/projectdiscovery/httpx

image.png

很多人第一次接触它,会把它理解成"批量访问网页的工具"。这么理解不算错,但太浅了。httpx 真正厉害的地方,不在于"能不能访问",而在于它能把一堆杂乱的目标,快速整理成一批有上下文、有指纹、有优先级的 Web 资产结果。

它不是用来打的,而是用来筛的

白帽子做信息收集时,经常会遇到一个问题:
目标很多,子域很多,端口很多,URL 更多,但真正值得深挖的点很少。
这个时候,httpx 的价值就出来了。
它可
状态码、标题、内容长度、重定向位置、响应时间、favicon hash、JARM、IP、CNAME、ASN、CDN/WAF、TLS 证书信息、CSP 信息、Web 技术栈等。
也就是说,httpx 干的不是“找到漏洞”,而是先回答这些问题:

1.这个域名到底活不活;
2.它跑的是不是 Web 服务;
3.是 HTTP 还是 HTTPS;
4.是不是走了 CDN;
5.是不是同一套站群;
6.标题像不像后台;
7.favicon 能不能聚类;
8.技术栈是不是 PHP/Java/Node/Go;
9.证书里有没有暴露别的域名;
某批资产里哪些优先级更高这一步做好了,后面的 Burp、Nuclei、Katana、手工验证,效率会完全不一样。

从技术上看,httpx 强在多探针并发探测

httpx 的核心思路不是只发一个请求拿个状态码,而是围绕目标执行多种 probe。官方文档里把 probe 描述成一组针对 Web 服务器、URL 或其他 HTTP 元素的检查项。

拿最常见的几类来说:

  1. 基础存活与协议识别
    最基础的是判断目标是否可达。但它不是傻扫。默认情况下,如果 HTTPS 不通,它会回落到 HTTP;如果你想同时保留 HTTP 和 HTTPS 的结果,可以用 -no-fallback。官方还支持自定义端口和协议映射,比如把 443 按 HTTP 跑,或者把 8443 按 HTTPS 跑。
    这在实战里很有用。因为很多历史资产、非标端口、运维临时服务,协议和端口经常不规范,单靠"443=HTTPS、80=HTTP"的思路很容易漏。
  2. 页面特征提取
    httpx 很适合做页面画像。状态码、标题、Server、content-type、响应时间、body 预览、内容长度、词数、行数,这些都是常见输出。
    对测试人员来说,这些信息不是"展示用的",而是拿来做判断的:
  • 302 到单点登录,说明可能是统一认证入口
  • 401/403 的资产未必没价值,反而可能是后台
  • 标题里带 test、dev、admin、swagger、api,优先级就上来了
  • 一批长度、标题、hash 都高度相似的站,很可能是同一套模板页
  1. 指纹与聚类能力
    很多人喜欢它,就是因为它非常适合"站群归类"。
    官方支持 -favicon、-jarm、-tech-detect、-asn、-cdn 等能力。-tech-detect 基于 Wappalyzer 数据做技术识别;favicon 和 JARM 更适合做相似资产聚类;ASN、IP、CNAME、CDN 能帮助你判断资产归属和部署形态。
    这在 SRC 场景尤其好用。你手里可能有几千个子域,真正要优先看的,不一定是首页最正常的那个,而是 favicon 和某个已知后台一致、JARM 相似、标题异常、技术栈可打的那一批。
  2. 路径、端口和扩展探测
    httpx 不是只能打一层首页。官方支持 -path、-ports、-vhost、-http2、-pipeline、-tls-probe、-csp-probe 等能力,不过官方也特别提醒,这类参数更适合按场景单独使用,而不是默认全开。

这里面有几个很实战:

-path  :对一批目标统一探测某些路径,比如 :
/login
/admin
/actuator
/swagger-ui
-ports:补扫非标 Web 端口
-vhost:适合碰虚拟主机场景
-tls-probe:从证书侧面扩展目标面`
-csp-probe:从 CSP 中拿到更多相关域名线索

说白了,它不是一个"只读首页"的工具,而是一个能围绕 HTTP 面持续做扩展侦察的工具。

  1. 过滤、匹配和去噪
    这个点经常被低估,但实际很关键。
    httpx 官方支持字符串、正则、状态码、长度、词数、行数、错误页、重复结果等多种过滤与匹配方式,还支持 DSL。并且提供了 -filter-error-page 和 -filter-duplicates 这类非常贴近实战的参数。
    真正跑过大规模资产的人都知道,噪声远比目标多。统一 404、WAF 拦截页、空白页、跳转页、静态占位页,这些都会淹没有效目标
    httpx 的强点之一,就是可以把一堆"看起来都活着"的页面,进一步压缩成"值得花时间看的页面"。
    为什么它总是出现在 ProjectDiscovery 工具链里
    官方 Quick Start 给的链路很典型:先做资产发现,再交给 httpx 做活性确认和信息提取,然后再把结果喂给 nuclei。
    这套思路背后其实很清楚:
  • subfinder 解决"有什么域名"
  • naabu 解决"开什么端口"
  • httpx 解决"哪些是有价值的 HTTP 面"
  • katana 解决"往里爬能爬出什么路径"
  • nuclei 解决"基于模板能打出什么问题"

所以 httpx 的位置非常像一个中间层。它上接资产发现,下接漏洞验证和手工测试。这个位置决定了它不一定最“炫”,但很可能是你用得最频繁的一个工具。

对白帽子来说,它最实用的几个场景

  1. 渗透测试里的资产梳理
    拿到一批域名、IP、端口之后,第一步不是马上扫漏洞,而是先知道哪些目标真正值得投入时间。httpx 可以很快帮你筛出在线 Web 资产、登录页、跳转链、测试系统、接口页、后台和异常标题页。
  2. SRC 里的批量筛点
    SRC 最怕的是资产太多,眼睛不够用。这时候 httpx 不只是"探活工具",而是一个分类器。你可以按标题、状态码、favicon、技术栈、错误页过滤,把真正值得手工看的目标提出来。
  3. 攻防演练里的快速建图
    演练讲究时间效率。httpx 的高并发、多输入模式、结构化输出和批量路径探测,很适合前期快速拉一张 Web 暴露面图,再往下交给人工验证或其他模块。官方也支持 CIDR、主机、URL 等多种输入。
  4. 应急响应里的暴露面复核
    应急里经常需要回答这种问题:哪些站还在线?哪些页面被篡改了?哪些后台还暴露着?哪些资产看起来是同一批?httpx 的截图、渲染 DOM、标题、hash、favicon、证书、JARM 这些能力,就很适合做批量复核。官方文档里也提到 -screenshot 可以抓页面截图,并在搭配 -json 时把渲染后的 DOM 一起写进结果。

它还有一个优点:特别适合自动化
官方支持 JSONL、CSV、响应保存,还能作为 Go library 使用;另外还有 GitHub Action 可以跑周期化任务。

这意味着它不只是手工命令行工具,也适合塞进你自己的巡检脚本、资产监控链路、日报任务或者持续验证流程里。对于团队化作业来说,这一点其实很重要:不是每个工具都能自然接入流水线,但 httpx 很适合。

但也别把它神化
httpx 再好用,它也不是漏洞扫描器,更不是业务逻辑测试工具。它不负责帮你理解鉴权链,不负责登录态后的深层测试,也不替代爬虫、代理或人工分析。官方的定位始终是 HTTP probing/toolkit,而不是"自动帮你找洞"的一站式工具。

所以更准确地说,httpx 是一把"把目标面整理清楚"的刀。它帮你节省的,不是最后那一步验证漏洞的时间,而是前面大量无效翻页、无效点击、无效筛选的时间。

HTTPX常用命令

1.探测单个目标
httpx -u https://example.com
2.探测多个目标
httpx -u https://a.com https://b.com
3.从文件读取目标
httpx -l targets.txt
4.只输出存活结果,适合做清洗
httpx -l targets.txt -silent
5.显示状态码和标题
httpx -l targets.txt -sc -title

常规信息收集:状态,标题,长度,IP

1.显示状态码、标题、长度
httpx -l targets.txt -sc -title -cl
2.再加上 Web Server

httpx -l targets.txt -sc -title -cl -server

3.显示 IP
httpx -l targets.txt -ip
4.显示 CNAME
httpx -l targets.txt -cname
5.显示响应时间
httpx -l targets.txt -rt

技术指纹:识别中间件和框架

1.开启技术识别
httpx -l targets.txt -td
2.技术识别 + 标题
httpx -l targets.txt -td -title
3.技术识别 + CPE
httpx -l targets.txt -td -cpe
4.WordPress 指纹探测
httpx -l targets.txt -wp
5.favicon 哈希识别
httpx -l targets.txt -favicon
内容特征:看页面像不像同一套系统
1.显示内容类型
httpx -l targets.txt -ct
2.显示行数
httpx -l targets.txt -lc
3.显示词数
httpx -l targets.txt -wc
4.预览响应体前 100 字符
httpx -l targets.txt -bp
5.计算页面哈希
httpx -l targets.txt -hash md5
过滤和匹配:从海量结果里捞重点
1.只看 200
httpx -l targets.txt -mc 200
2.只看 200 和 302
httpx -l targets.txt -mc 200,302
3.过滤掉 404 和 403
httpx -l targets.txt -fc 404,403
4.匹配标题或正文里含 admin
httpx -l targets.txt -ms admin
5.过滤近似重复页面
httpx -l targets.txt -fd

错误页和杂质清洗:结果更加干净

1.过滤错误页
httpx -l targets.txt -fep
2.过滤长度为 0 或固定模板页
httpx -l targets.txt -fl 0,1234
3.过滤含指定字符串的页面
httpx -l targets.txt -fs "404 Not Found"
4.过滤正则匹配页面
httpx -l targets.txt -fe "error|forbidden|denied"
5.过滤 CDN 资产
httpx -l targets.txt -fcdn cloudfront,fastly
端口,路径,协议:更接近实战
1.探测多个常见 Web 端口
httpx -l targets.txt -p 80,443,8080,8443
2.探测指定路径
httpx -l targets.txt -path /admin
3.同时探测多个路径

httpx -l targets.txt -path /admin,/login,/manage

4.显示 HTTP 和 HTTPS 两种结果,不自动只保留一个
httpx -l targets.txt -nf
5.自定义端口协议映射

httpx -l targets.txt -ports http:80,http:8080,https:443,https:8443
官方文档明确说明:默认 HTTPS 不通会回退到 HTTP,-no-fallback 可以同时显示两种探测结果,也支持像 http:443,http:80,https:8443 这样的端口协议映射

跳转,请求头,代理:适合调试和带鉴权测试

1.跟随重定向
httpx -l targets.txt -fr
2.只跟随同主机跳转
httpx -l targets.txt -fhr
3.自定义 Header
httpx -u https://example.com -H "Cookie: session=abc"
4.带多个请求头
httpx -u https://example.com -H "Cookie: a=b" -H "X-Token: test"
5.走 Burp 代理
httpx -l targets.txt -proxy http://127.0.0.1:8080

输出保存:给报告,脚本,自动化用

1.输出到文件
httpx -l targets.txt -sc -title -o result.txt
2.以 JSONL 输出
httpx -l targets.txt -sc -title -td -json -o result.json
3.JSON 中包含响应头
httpx -l targets.txt -json -irh -o result.json
4.JSON 中包含完整请求和响应
httpx -l targets.txt -json -irr -o result.json
5.保存响应内容到目录
httpx -l targets.txt -sr -srd responses

截图和可视化:做后台梳理很好用

1.对所有页面截图
httpx -l targets.txt -ss
2.使用系统 Chrome 截图
httpx -l targets.txt -ss -system-chrome
3.截图时延长超时
httpx -l targets.txt -ss -st 20
4.截图前多等 3 秒让前端渲染完释
httpx -l targets.txt -ss -sid 3
5.截图 + 标题 + 技术栈,一次看全
httpx -l targets.txt -ss -title -td -sc
我最常用的八条

httpx -l targets.txt -silent
httpx -l targets.txt -sc -title
httpx -l targets.txt -sc -title -td -ip
httpx -l targets.txt -fc 404,403 -fep -fd
httpx -l targets.txt -path /admin,/login -sc -title
httpx -l targets.txt -p 80,443,8080,8443 -sc -title
httpx -l targets.txt -json -irh -o result.json
httpx -l targets.txt -ss -title -td

几个高频联动的场景

  1. 子域名subfinder 的结果直接喂给 httpx

    subfinder -d example.com -silent | httpx -silent
    subfinder -d example.com -silent | httpx -silent -sc -title
    subfinder -d example.com -silent | httpx -silent -sc -title -td -ip -cdn
    subfinder -d example.com -silent | dnsx -silent | httpx -silent -sc -title

    2.子域名发现 + 标题 + 技术栈
    subfinder -d example.com -silent | httpx -sc -title -td
    3.端口扫描结果继续探测 Web
    naabu -host example.com -silent | httpx -sc -title
    4.资产清洗后给 nuclei
    subfinder -d example.com -silent | httpx -silent | nuclei

    建议这样干

    1.先活性:-silent
    2.再识别:-sc -title -td -ip
    3.再清洗:-fc 404,403 -fep -fd
    4.再定向探测:-path /admin,/login
    5.最后留证据:-json 或 -ss