2026年3月

最近大家应该没少接收“AI 秒天秒地”、“前端死八百回了”、“其他行业等着吧”这样的输入,贴主就是,加上筹备跳槽累积的焦虑,昨天还高强度刷了会国际形势,搞得晚上只睡了 4 个多小时——梦到战火波及身边,人命如草芥,我就跟条 qu 一样东躲西藏,又冷又饿,冻醒了(被子没盖好)……

醒了之后先是刷了会社交媒体,不出意外依然各种焦虑,不过中途看到一条评论,原贴主把 AI 进步类比纺织机问世,但 TA 的结论并不是纺织工人玩完了,而是 AI 进步并不会直接导致行业消失,反而可能带来一波爆发,我感觉很有启发,就和 gpt-5.2 讨论了会儿,这里摘录一些内容,大伙也看看讨论下:

  • :做噩梦醒了,原因是行业受到 AI 冲击 balabala……不过今天又看到一个新的观点,对方拿纺织机的问世举例,纺织机问世后,以家庭或小手工业主为单位的纺织工并没有就此活不下去,而是改头换面进了纺织工厂工作,短期内,不管是稳定性还是薪酬甚至都可能迎来了一波爆发。现在我越想越觉得有道理,我们现在的应用开发模式,往往是一个团队集中维护若干领域应用,这是典型的脑力劳动模式,但由于编码 agent 带来的极致效率提升,未来的程序开发将会标准化、流水线化,这让我们可以将应用拆解的很细,比现在还细,细到现在这种人工组装模块的磨合过程也可以交由 Agent 完成,最终软件生产变成了流水线上的产品。那些业务定制的地方可以飞速迭代——就像工厂样品一样,一个不好用快速淘汰上下一个,成功之后大规模生产(这一点又有疑问因为程序的复制、分发可比一般手工业产品快多了),你怎么看待?以前靠软件研发和程序分发优势起家的大厂互联网公司是否会失去很多核心优势?

  • AI:(核心观点) 1.你焦虑的本质是对“不可控的巨变“的恐惧,战争和 AI 进步把这一切具象化了 balabala…… 2. 纺织机的类比成立,但是由于软件分发的特殊性,用工减少和需求爆发会同时发生,这意味着岗位数量不一定增加,反而岗位结构会重排; 3. 软件流水线化会发生,形态可能是“平台化/协议化”而不仅是“工厂化”,即“接口/规范/约束”更硬,但快迭代会被合规、审计、稳定性、SLA 抵消一部分; 4. “初级被挤压,中高级受冲击“,同时中高级的定义会变(定义问题/设计可演进系统/构建生产体系/对结果负责); 5. 大厂的研发优势/人海优势/规模优势/信息优势减少,但渠道/生态位/合规牌照/资本抗风险等优势依然存在且会放大。

  • :现代工业研发&上线一个产品的流程是怎样的?中间有多少环节,我想要从“他山之石”中找出软件行业未来发展的脉络,而不是局限在软件工程师视角。就以新能源汽车行业为例吧。看起来,软件工程和实业工程有诸多相似之处,那么一定有一些实业工程已经在进行的方法论,受益于 Agent 带来的效率提升和试错成本下降,从原来不适配变的更加适配软件工程?比方说前文提到的“流水线”,我们现在软件研发,拆分了前后端、基础组件、DB 设施等,其实也是一种形式的流水线化,但现在上下游步骤之间大幅度依赖人工沟通和文档约束,当 Agent 开始接手这些步骤之后,随着规格和接口愈发标准化(主动或被动),特别是沟通的提效( Agent 可以随时在线、高并发),是不是流水线效率还会上升?你觉得呢?你知道还有哪些方法论/生产模式面临这样的质变?

  • AI:介绍了 MBSE (模型驱动系统工程)、APQP (先期质量策划)、PPAP (生产件批准程序)、ECN/ECR (工程变更)、FMEA / FTA (失效模式/故障树)等方法论/生产模式,没太看懂。但再次强调了自动验证和闭环度量的重要性。

  • :听起来,如果有软件公司能够在自动化流程、质量验证方面取得先机,在未来发展可能就占据很大的优势。其实我一直有一个理解,我想到了编译器,我们构造编译器时,通常会用一个底层的比较晦涩的语言先构造一个新语言的内核,然后用这个内核,用新语言自己去开发更多标准库,最后再用这个标准库去解决实际问题。我们是不是可以把基模类比为那个底层语言,Agent 类比为那个新语言的内核,而标准库(包括社区的库)则类比为各公司利用 Agent 给出的软件生态解决方案,这一切不仅不会让软件行业消亡,反而可能加速了软件行业渗透到更多业务域的过程,因为造“标准库”变得更容易了,以前可能是一些大牛团队的活,或者需要社区非常多人的努力,现在只需要烧 token ?

  • AI:认为大方向是对的:Agent 更像一种新的“抽象层/元语言运行时”,会把大量过去需要资深工程团队长期打磨的“通用能力”做成更容易生成、组合、适配的资产;结果更可能是软件渗透加速而不是行业消亡。但是“烧 token”取代不了长期演化和行业壁垒,大公司/车企/金融愿不愿意用,不取决于“能不能生成”,而是取决于谁来负责、怎么审计、许可证和供应链安全等等。总之——低门槛生成带来长尾爆发;而被广泛复用的那一小撮“标准库/配方”会头部化,并绑定到强分发或强治理体系。

不知道大家怎么看到“基模和编码 Agent 进步不会导致行业消亡,反而更加标准化和流水线化,加速传统行业渗透”这种观点?我讨论下来的直观感触就是,如果大家做的依然是以纯研发为卖点的工作,那真得好好谋划下后路了。 以后系统视角是必备能力,或许可以通过操控大批 Agent,逼着自己向管理层视角进化?

究竟是通过限制无线充电器(磁力充电器、magsafe )还是设备或者软件实现的?
例如 watch ,如果买港行 watch ,国内还在售的磁力快速充电线是否能为港版充电呢?
16pm 和 17pm 听说 magsafe 并未限制,依旧可以达到 25w 充电功率?

大家好,最近因为国产化办公的需求,一直在折腾 UOS 20 (ARM64) 环境下的自动化。发现官方的 KeymouseGo 在麒麟芯片和 X11 环境下直接运行会有一些兼容性问题,于是花时间做了一次深度适配和重新编译。

现在的版本在 HUAWEI Kirin 9000C 上跑得非常稳,解决了 AArch64 架构下的一些依赖报错。

🛠 适配技术细节:

  • 架构: ARM64 (AArch64)
  • 环境: UOS 20 (UnionTech OS)
  • 显示服务: X11 (XDG_SESSION_TYPE)
  • 核心工作: 针对国产芯 AArch64 指令集重新编译,集成了 UOS 下缺失的部分 runtime 库。

📸 运行情况:

环境截图预览:

  1. 系统配置与 CPU 信息:
  2. 软件运行界面:
  3. 录制与设置界面:
    软件运行过程以及界面

软件测试设备信息

软件测试环境更具体细节
💬 写在后面: 考虑到不少同在国产化平台奋斗的开发者可能也有类似需求,我把编译好的分发包和修改后的代码都发到了 GitHub 上。如果你也遇到了 ARM 环境下键鼠录制失效的问题,欢迎下载测试并反馈 Bug 。

  • 源码及 Release 下载(该版本专为国产化终端优化,支持华为麒麟芯片及 UOS 操作系统。): GitHub 仓库地址
  • 致敬原作: 感谢 taojy123/KeymouseGo 提供的优秀开源项目。

希望这个版本能帮到有需要的朋友,大家有什么适配上的问题也可以在帖子里交流!

大家好,最近在折腾 OpenClaw ,目前我尝试用钉钉作为交互终端,

当前遇到的问题:

  • 消息延迟明显:指令发出去后,OpenClaw 响应很慢,有时候要等十几秒甚至更久才有反应,交互体验很不流畅。
  • 回复断断续续:经常出现回复到一半突然中断的情况,或者一句话分成好几条消息发过来,有时候甚至直接“哑火”,不知道是任务卡住了还是网络问题。

想问问大家在用什么 IM 软件接入 OpenClaw ? Telegram 、Discord 这些国外的会不会好一些?

这个 b 玩意儿一弄就排队,而不是每个账号有一个固定可用的时长,半夜弄了一个视频,排队 9 小时,下午弄了第二个视频,排队 3 小时(实际排了大概半小时),或者你直接注册高级会员,可能会好点。用即梦主要是国外的大模型对中文的兼容性还是差点

我先尝试了 moviepilot ,但那个破认证我实在搞不定,我一个本地工具有啥好认证的。

实在不行就老三样 xarr 套件。Prowlarr+Radarr+Sonarr

配置上馒头的帐号和 tr 的下载器。测试了一下可以搜索馒头然后下载了,但操作也巨麻烦,要来回切。开始上龙虾聚合:

* 学会豆瓣等能力
* 学会 imdb/tmdb/tvdb 能力
* 学会 plex 的能力
* 学会 arr 套件使用能力

完事后就是个人版的影音系统。不知道看什么就让他全网找,看社区,看榜单,再根据我的 plex 观看距离和片列表进行推荐,介绍完我觉得不错就是一句下吧、好了告诉我一声就完事了。

想找什么片就给你更简单了,昨天媳妇说我娃喜欢看超能陆战队,但都是 b 站看的,正好试试龙虾好不好使:嘿,帮我看看我有没有超能陆战队。没有下一个。

在没有 pt 浏览器工具后终于再一次好用起来

就没可能恢复了?
我一直是在美区的,然后跨区更新 app ,有需求才转区下载 app , 这一搞没法日常待美区了,只有港区可以!
主要多个不同地区号嫌麻烦,转区也没啥难度,就是付费内购时需要 call 客服解封,但极少!

115 网盘的挂载功能存在一个严重限制:当你有两个 VPS 想挂载同一个 115 网盘账号时,你会发现:一边刚挂载成功,另一边就被踢下线。
这种满屏的报错,本质上是 115 网盘的防盗链机制:当刷新 token 的时候会导致旧 token 失效。对于同一 app 的不同挂载,同样成立。
如果没有防盗链:当有人窃取了你的 refreshtoken 之后,黑客就可以获取你的数据长达一年(除非你手动去吊销你的 token ,并重新获取)

这种方式诚然会提高安全性,但是在多端挂载的场景下反而成为了使用的阻碍。

因此我搓了一个基于 Cloudflare Serverless 的工具,使得你可以解决这个问题。
体验地址: https://115.115115.sbs/

Q: 这个和 Openlist 提供的免费工具( https://api.oplist.org/)相比有什么区别?

A:Openlist 的 token 获取工具的应用 id 是固定不变的,会导致上述问题;而通过工具获取到的 token 都是不同应用 id 的 token ,不存在上述问题。多端挂载不会有 token 冲突顶号的情况

Q:这个的安全性如何?会不会导致数据泄露?

A:如果你主动刷新一次 token ,一开始的 token 便失效,这便是 115 的防盗链带来的好处之一:任何人都不会长时间窃取你的文件。

应用 id 选自数据库的一小部分,存在一部分不可用的 id ,有更多需求可私信

智能客服网页版:官网问答新体验

在数字化时代,企业官网不仅是品牌展示的窗口,更是与用户互动的重要渠道。然而,传统的人工客服往往难以覆盖所有访问者,尤其是在非工作时间。这时,智能客服网页版应运而生,成为企业提升服务效率和用户体验的利器。

什么是智能客服网页版?

智能客服网页版是一种轻量化的智能问答解决方案,专为企业官网设计。它通过一行代码即可嵌入网站,无需技术团队介入,5分钟内就能上线专属的智能客服机器人。访答智能客服网页版基于深度优化的中文RAG(检索增强生成)技术,能够精准理解用户问题并提供基于官网内容的答案。

为什么选择智能客服网页版?

1. 零开发成本,快速部署

传统客服系统通常需要复杂的开发和配置,而智能客服网页版只需将生成的代码嵌入官网HTML即可。企业无需投入额外的人力或资源,就能实现“7×24小时不打烊”的客服能力。

2. 精准应答,提升用户体验

访答智能客服网页版通过深度学习官网内容构建专属知识库,能够精准匹配用户问题并提供可靠答案。此外,它还支持多模态内容识别,包括图片和图文混排资源,使回答更加直观和全面。

3. 溯源参考导航,增强可信度

智能客服在回答问题时,会自动提供官网参考链接,用户可一键跳转至原文页面。这不仅增强了回答的可信度,还引导用户深度浏览官网,提升网站留存率。

4. 一键更新,维护便捷

当官网内容更新时,企业只需一键更新知识库,无需修改前端代码。这种便捷的维护方式大大降低了运营成本,确保客服机器人始终与官网内容同步。

智能客服网页版的应用场景

企业官网

智能客服网页版可快速嵌入企业官网,根据官网内容智能回答用户问题。无论是产品咨询、服务介绍还是常见问题解答,它都能提供及时且准确的支持,从而节省人力客服成本,提升品牌形象与访问转化率。

教育机构与政府网站

对于教育机构和政府网站而言,智能客服网页版可以帮助用户快速找到所需信息,减少重复性问题的处理时间,提高服务效率。

如何部署智能客服网页版?

部署访答智能客服网页版非常简单,只需以下几步:

  1. 输入官网地址,系统自动爬取整个官网内容。
  2. 基于爬取内容构建专属知识库。
  3. 生成嵌入代码,并将其复制到官网HTML中。
  4. 完成部署,智能客服即刻上线。

智能客服网页版的未来展望

随着人工智能技术的不断发展,智能客服网页版将在准确性和智能化方面进一步提升。未来,它可能融合更多先进技术,如自然语言处理和情感分析,为用户提供更加人性化和个性化的服务。

结语

智能客服网页版是企业官网升级服务能力的重要工具。通过访答智能客服网页版,企业可以以零开发成本快速部署专属客服机器人,实现精准应答和高效服务。无论是提升用户体验,还是降低运营成本,智能客服网页版都能为企业带来显著的价值。

元宵佳节将至

开启元宵节限免活动

下载方式见文末

🎉 限免时间:2026 年 2 月 28 日 - 3 月 3 日 23:59

0 元领取终身会员,解锁全部高级功能。

本次更新带来了四大核心功能,希望能真正帮到你:

1. 压力看得见:源头精准定位

不仅仅是数字,我们让压力“可视化”。首页实时展示压力状态,新增压力源头精准定位,帮你分析是工作、睡眠还是其他因素导致了压力波动。试试搜索“压力自测”,让腕能帮你找到答案。

实时压力界面

▲ 首页实时压力状态

首页压力展示
压力源头定位

2. 身体还有电吗?行健与科学训练

身体就像电池,需要充放电管理。新版本引入“身体电量”概念,直观展示能量储备。针对跑步爱好者,我们提供科学的训练指导,拒绝无效堆跑量,让每一次流汗都更有价值。

身体电量
跑步训练指导
运动汇总

3. 深度睡眠监测:睡个好觉

睡眠是恢复能量的关键。我们强化了睡眠分析算法,特别关注深度睡眠时长与质量,帮你拆解睡眠结构,找到身体修复的秘密。

深度睡眠监测

4. 洞察与观照:看见身体规律

通过长期的“观照”,你会发现身体运行的规律。我们将每一个瞬间记录下来,生成可视化的健康趋势图,让你对自己的身体了如指掌。

观照身体规律
洞察记录
运动趋势


如何获取?

打开 App Store 搜索关键词 “压力自测”
(优先搜索此词,可以帮助我们提升关键词权重,感谢支持!)
或 “腕能”

立即下载体验

提前祝大家元宵快乐,愿你身心安康,电力满满!

think

现在发帖时编辑的内容未发布的话,大概全部输入和选择的内容都会在草稿中保存,并在恢复时提供二次编辑。若草稿中的匿名发布扩展是开启状态的话,草稿恢复后将不会恢复金币池与竞猜的内容,因为匿名发布不能选择竞猜与金币池扩展。

当前版本的一些其他更新:

  1. 弱化了平铺评论模式下,被回复评论的显示。现在不提供展开全部原评论内容,最多显示两行被原评论内容,提供点击原文高亮被回复评论
  2. 移动端通知列表的优化,现在应该不会出现内容溢出
  3. 修复移动端介绍页面中,轮播图过多时撑开页面宽度问题
  4. 移动端个人页面的雷达小图标现在也会正确显示属性数值
  5. 发帖节点选择的 AI 重试逻辑优化,减少选择不到节点的情况
  6. 个人页面的帖子列表,置顶的帖子现在会高亮显示内容以区分

🏮 预祝各位老板、V 友元宵快乐!春节开工大吉!


🎉 元宵福利:楼层抽奖送 100 刀余额 🎉

评论回复即可参与抽奖,多评无效,随机开奖,送送送!

抽奖信息 详情
参与条件 需先注册 API 站点 👉 https://api.aigc.bar
回复格式 在评论区留下您在 API 站点的 ID用户名(方便人工兑奖)
抽奖程序 由 Claude 回复随机选取楼层
每份金额 $100(比例 1:1 )
抽取人数 10 人
开奖时间 🕗 2026 年 3 月 3 日 20:00
兑奖派发 人工兑奖,2026.3. 20:00~24:00 到账站点用户余额订阅

🎁 奖品明细

奖品 额度 余额有效期 份数
🥉 开工大吉 · 余额一天有效 $100 1 天 5 份
🥈 开工大吉 · 余额三天有效 $100 3 天 3 份
🥇 开工大吉 · 余额七天有效 $100 7 天 2 份


🌟 AIGCBAR API 站点服务概览

WWW.AIGC.BAR — 您身边可靠且稳定的 AI 服务提供商。

特性 说明
模型全面 整合支持 300+ 主流 AI 模型,包括 GPT 全系列、Claude 全系列、Gemini 、Grok 等,满足多样化业务需求
价格透明 全分组透明倍率,CC 最低分组仅 ¥ 0.8 元/刀,无任何隐形消费,成本清晰可控
极致稳定 1Gbps 企业级带宽 + 自研智能负载均衡算法,7×24 小时高可用保障
安全可靠 站群自动故障转移,99.9% SLA,严格数据加密与安全防护


💎 Claude Prompt Caching 缓存深度优化

在稳定服务的基础上,我们持续更新底层号池技术以降低用户成本。近期已对 Claude Prompt Caching (提示词缓存)完成深度优化:

🔧 两大关键优化

① 优化缓存创建成本

相比常规缓存逻辑,我们的优化算法可为您节省 10% ~ 20% 的缓存创建( Cache Creation )费用。通过更智能的缓存复用策略,减少不必要的缓存重建,让每一分钱都花在刀刃上。

② 对话级账号锁定

实现「同一个对话定位到号池内同一个 Claude Max 账号」的智能调度机制。多轮对话中,系统会尽可能将请求路由到已创建缓存的后端账号,显著提高缓存命中率,大幅降低长对话场景下的 Token 消耗和延迟。


💰 价格与服务

服务项目 详细说明
最低费率 CC 分组最低 ¥ 0.8 元 / $1 额度
模型支持 GPT / Claude / Gemini / Grok 等 300+ 模型
技术支持 缓存优化、API 使用指导、技术咨询
企业服务 已对接多家企业,支持采购、定制化需求


🙋‍♂️ 常见问题( FAQ )

Q1: 平台是否支持退款?

支持! 按量付费,用多少付多少。退款按剩余金额扣除 5% 支付网关费用后退款。

例:剩余金额 100 元 → 扣除 5% → 到账 95 元

💡 建议新用户从最小额度开始充值体验。

Q2: ClaudeCode 分组是否支持再次分发/中转?

支持! 一手号池。需要对接请联系站长,添加好友请报量报并发再询价 🙃


🚀 站点入口

站点页面已附带 ClaudeCodeCodex 接入图文教程

🔗 官方网站:https://api.aigc.bar

WWW.AIGC.BAR — 您身边可靠且稳定的 AI 服务提供商 ✨


JMeterPlugins-Standard-1.4.0.zip是 JMeter 的标准插件包,装上它能让 JMeter 的监控图表更好看、指标更全,比如聚合报告、TPS、响应时间分布这些,压测时能一眼看出系统瓶颈。

一、准备工作
下载插件包​

安装包下载:https://pan.quark.cn/s/856bbbb8bbea

文件不大,几 MB,下完放桌面或容易找的地方。

确认已装 JMeter​

没装 JMeter 就去官网(https://jmeter.apache.org/
下载,装好能正常运行 jmeter.bat(Windows)或 jmeter.sh(Linux/Mac)。

解压工具​

用 7-Zip 或 WinRAR 解压 JMeterPlugins-Standard-1.4.0.zip,得到 lib和 lib/ext目录。

二、使用步骤(安装插件)
找到 JMeter 的 lib/ext 目录​

默认路径:JMETER_HOME/lib/ext/(JMETER_HOME是你 JMeter 的安装目录,比如 C:\apache-jmeter-5.6\lib\ext)。

复制插件 jar 包​

打开解压后的 JMeterPlugins-Standard-1.4.0.zip,进入 lib/ext目录。

把里面的所有 .jar文件复制到 JMeter 的 lib/ext目录里。

重启 JMeter​

关掉之前打开的 JMeter,重新双击 jmeter.bat启动。

验证插件是否装上​

打开 JMeter → 右键“测试计划” → 添加 → 监听器。

如果能看到 PerfMon Metrics Collector、Response Times Over Time、Transactions per Second​ 这些新监听器,说明插件装好了。

三、常用插件怎么用
PerfMon Metrics Collector(监控服务器性能)​

右键“线程组” → 添加 → 监听器 → PerfMon Metrics Collector。

点 “Add Row” 添加要监控的指标(CPU、内存、磁盘 IO、网络)。

填服务器的 IP、端口(默认 4444)、用户名密码(如果需要)。

运行压测时,就能实时看到服务器的 CPU、内存占用曲线。

Response Times Over Time(响应时间变化)​

右键“线程组” → 添加 → 监听器 → Response Times Over Time。

运行压测后,能看到每条请求的响应时间随时间变化的折线图,一眼看出什么时候变慢。

Transactions per Second(每秒事务数)​

右键“线程组” → 添加 → 监听器 → Transactions per Second。

压测时能看到 TPS 曲线,判断系统处理能力。

昨天花了一天时间写了个工具,今天迫不及待分享出来。

起因很简单:我想在手机上用 Claude Code ,但不想每次都开终端。

之前试过 Happy ,体验不错。但问题是——我得专门打开一个 App 。我的日常工作流在微信/飞书/钉钉里,消息在那儿,工作群在那儿,整天泡在那儿。

我就想:能不能直接在微信/飞书/钉钉里跟 Claude Code 聊天?

于是就有了 cc-connect。极速帮你把工作机器的 claude code 接入 im 软件。实现随时随地大小班。

名字灵感来自 cc-switch ,一个很棒的项目,向作者致敬。

github 地址:https://github.com/chenhg5/cc-connect

5ef6381ede17e1e77e14ad0d2ffd40d5.JPG

cc-connect 是什么?

一句话:把你的本地 AI 编程助手接到通讯平台上。

支持的 AI 工具:

  • Claude Code ✅
  • Cursor Agent (计划中)
  • Gemini CLI (计划中)
  • Codex (计划中)

支持的平台:

  • 飞书 ✅
  • 钉钉 ✅
  • 企业微信 ✅
  • Slack ✅
  • Telegram ✅
  • Discord ✅
  • LINE ✅

配好之后,你直接在微信/飞书/钉钉/Slack 里发消息,Claude Code 就会在你电脑上干活,然后把结果发回来。

为什么首选 Claude Code ?

可能有人会问:为什么不接 OpenClaw ?

我两个都用过,最后选择了 Claude Code ,原因有三:

1. 写代码能力更强

Claude Code 背后是 Anthropic 的最新模型,代码质量和理解能力都是目前顶尖的。同样的任务,Claude Code 经常能一次搞定,其他工具可能要来回几轮。

2. Agent 能力更强

Claude Code 的自主性更好。你给它一个目标,它能自己拆解步骤、自己调用工具、自己处理异常。不需要你手把手教它每一步。

3. 对生态支持更好

Claude Code 的 skill 扩展机制比较成熟,社区资源也多。虽然 OpenClaw 也有 skill 系统,但 Claude Code 的工具链更完善,调度也更强。

当然,cc-connect 的架构是插件化的,后续也会支持 OpenClaw 、Cursor Agent 等。但如果你现在就要用,我建议先从 Claude Code 开始。

我的典型使用场景

场景一:摸鱼时突然想到一个需求

中午吃饭刷手机,突然想到项目里有个 bug 可以修。

以前:回公司、开电脑、打开终端、启动 Claude Code...

现在:直接在飞书里给机器人发消息:"帮我修一下 xxx 的 bug"

吃完饭回来,代码已经改好了。

场景二:周末远程处理紧急问题

周六在外面,同事在钉钉群里艾特我:"线上出了个问题,能帮忙看下吗?"

以前:"我在外面,晚点处理"

现在:直接在钉钉群里让 Claude Code 查日志、定位问题、修代码。

同事以为我带着电脑加班,其实我就掏了个手机。

场景三:多项目管理

我同时维护几个项目。用 cc-connect 可以配多个:

  • 飞书机器人 A → 后端项目
  • 钉钉机器人 B → 前端项目

一个进程同时管理,互不干扰。

技术亮点

不需要公网 IP

大多数平台都支持 WebSocket 或长轮询,你不需要有公网 IP ,不需要配置内网穿透。

只有 LINE 和企业微信需要 webhook ,这种情况下用 ngrok 或 cloudflared 暴露端口就行。

四种权限模式

模式 行为 适用场景
default 每个工具调用都要你批准 日常开发,保持控制
acceptEdits 文件编辑自动批准,其他工具还是问你 信任编辑,控制其他
plan 只做规划,不执行,等你批准 复杂任务,先看方案
yolo 所有操作自动批准 可信环境,放手让它干
[projects.agent.options]
mode = "default"
# 也可以预先批准特定工具:
# allowed_tools = ["Read", "Grep", "Glob"]

聊天中随时可以切换模式:

/mode          # 查看当前模式和所有可用模式
/mode yolo     # 切换到 YOLO 模式
/mode default  # 切回默认模式

多会话管理

每个人有独立的会话,上下文完整保留。

还可以在聊天里用斜杠命令管理会话:

命令 说明
/new [name] 创建新会话
/list 列出所有会话
/switch <id> 切换会话
/current 显示当前会话信息
/history [n] 查看历史消息
/allow 预先批准某个工具
/mode [name] 查看或切换权限模式
/quiet 切换思考/工具进度消息显示
/stop 停止当前执行

插件化架构

用 Go 接口实现的,想加新平台或新 AI 工具都很简单:

// 加新平台
core.RegisterPlatform("myplatform", New)

// 加新 Agent
core.RegisterAgent("myagent", New)

快速上手

把下面这段话发给 Claude Code 或其他 AI 编程助手,它会帮你完成整个安装和配置过程:

请参考 https://raw.githubusercontent.com/chenhg5/cc-connect/refs/heads/main/INSTALL.md 帮我安装和配置 cc-connect

截屏 2026-03-01 01.03.24.png

各平台配置要点

企业微信

  1. 登录企业微信管理后台
  2. 应用管理 → 创建自建应用 → 记录 AgentId 和 Secret
  3. 我的企业 → 记录企业 ID ( Corp ID )
  4. 在应用里设置接收消息:
    • URL:http(s)://<你的域名>:<端口>/wecom/callback
    • Token:随机字符串
    • EncodingAESKey:点击随机生成
    • 先启动 cc-connect ,再保存以通过验证
  5. 可选:我的企业 → 微信插件 → 扫码关联个人微信,这样个人微信也能用

飞书

  1. 飞书开放平台创建应用
  2. 开启机器人能力
  3. 添加事件订阅:im.message.receive_v1
  4. 选择 WebSocket 长连接模式(不需要公网 IP )
  5. 复制 App ID 和 App Secret

钉钉

  1. 钉钉开放平台创建应用
  2. 创建机器人,选择 Stream 模式
  3. 复制 Client ID 和 Client Secret

Telegram

  1. 找 @BotFather 发送 /newbot
  2. 复制 bot token

Slack

  1. 创建 App ,开启 Socket Mode
  2. 订阅事件:message.channelsmessage.im
  3. 安装到工作区,复制 Bot Token 和 App Token

更多平台的配置说明看 README 。

架构图

┌──────────────┐     ┌────────────┐     ┌──────────────┐
│ 飞书/钉钉    │◄───►│   Engine   │◄───►│  Claude Code │
│ Slack/...    │     │  (Router)  │     │  Cursor/...  │
└──────────────┘     └────────────┘     └──────────────┘
    Platform              Core               Agent

三层结构,全部解耦,完全插件化。

相关链接

用户群

weixin


如果你也在用 Claude Code ,又恰好日常泡在飞书/钉钉/Slack 里,强烈建议试试。

配一次,以后手机随时派活。

老板以为你卷到 24 小时在线,其实你只是在正确的工具上花了点时间。

18380f9bad9ee94cbc2544c9e4de396a.JPG

多功能编码转换软件是款能转各种编码的小工具,像 UTF-8、GBK、Unicode、ANSI 这些,平时处理乱码、改文件编码、做开发、写文档都能用,比手动改省事多了。

一、准备工作

  1. 下载安装包

  2. 确认系统版本

    • 支持 Win7/Win10/Win11,32 位和 64 位系统都能用,老电脑装也没问题。
  3. 用管理员身份运行(推荐)

    • 右键 多功能编码转换软件.exe→ 选“以管理员身份运行”,防止权限不足装不上。

二、安装步骤

  1. 双击 多功能编码转换软件.exe运行(如果右键过了就直接双击)。
  2. 第一次打开会弹出“用户账户控制”提示 → 点  “是”
  3. 进入安装向导,选语言(默认中文)→ 点  “下一步”
  4. 阅读许可协议 → 选“我接受协议” → 点  “下一步”
  5. 选安装位置:

    • 默认是 C:\Program Files\多功能编码转换软件,可点“浏览”改到其他盘(比如 D 盘)。
  6. 附加任务:

    • 建议勾“创建桌面快捷方式”,以后找软件方便。
  7. 点  “安装” ​ 开始安装,等进度条走完(几十秒到一分钟)。
  8. 安装完会问是否立即启动 → 可先取消,等会儿再开。

三、首次使用与基本操作

  1. 在桌面或开始菜单找到 多功能编码转换软件​ → 点开。
  2. 第一次打开是主界面,一般有“选择文件”“选择编码”“开始转换”这些按钮。
  3. 选文件:点“添加文件”或“选择文件”,选要转编码的文件(txt、csv、html 等常见格式)。
  4. 选编码

    • 原编码:选文件现在的编码(比如乱码可能是 GBK 或 UTF-8)。
    • 目标编码:选要转成的编码(比如 UTF-8 通用,GBK 兼容老系统)。
  5. 开始转换:点“开始转换”或“执行”,等进度条走完,新文件会生成在源文件同目录,名字后面加个“_转换后”之类。

来分享一个最近在 Claude Code 帮助下写的 codex-collab skill (项目链接),基于 Codex 官方的 Codex App Server 协议让 CC 能够丝滑地实现对 Codex 的驱动和调用,效果如图。

demo

平时写代码一直在主用 CC ,偶尔也会用 Codex 来进行一些辅助的代码审查与反馈(如在 Codex 中使用 /review 命令),往往能发现一些 CC 没有考虑到或者忽略的地方。

为了能让 Claude 更自然地和 Codex 协作,也尝试过官方的 MCP 和一些开源的 skill ,但是效果总是不尽理想:MCP 会阻塞 Claude 的执行流程,而大多数 skill 都是通过命令行的方式来进行调用的,支持的交互方式受限,而且总觉得不够优雅和鲁棒,遂决定自己再手搓又双叒一个与 Codex 协作的 skill 出来。

最开始参考部分开源 skill 采用了 tmux 来实现和 Codex TUI 的交互,但是这种方式还是太不稳定了,需要手动键入指令、轮询检测 tmux 界面中的文本来判断是否执行完成。

后来看到了 Codex App Server 协议,支持使用 JSON-RPC 2.0 消息和 Codex 进行通信,并且提供了非常标准规范的 API ,于是就基于此协议来实现了和 Codex 的交互脚本,并且根据自己的使用经验,逐步微调了 SKILL.md 中的提示词。

安装 skill 之后,在 CC 里提及 Codex ,或者当 Claude 觉得需要参考第三方意见时,就会触发该 skill 调用 Codex 。

欢迎大家使用,因为目前只经过自己这些天的使用和测试,有什么意见或者遇到什么问题也请不吝赐教

OpenSwoole 26.2.0 发布:支持 PHP 8.5、io_uring 后端及协程调试改进

OpenSwoole 26.2.0 是一次重大版本更新,带来了 PHP 8.5 支持、原生 PHP Fiber 协程上下文、io_uring 事件驱动后端、协程内 Xdebug 断点调试、事件循环延迟指标等功能。

升级方式

通过 PECL 安装:

pecl install openswoole-26.2.0

或使用 Docker 镜像:

docker pull openswoole/openswoole:26.2-php8.5-alpine

新特性

PHP 8.5 支持

OpenSwoole 26.2.0 完全兼容 PHP 8.5,支持管道操作符、URI 扩展、Clone With 等新特性。

PHP 原生 Fiber 协程上下文

新增基于 PHP 原生 zend_fiber API 的协程上下文后端,替代 Boost ASM 或 ucontext。该实现支持与 Xdebug、性能分析器及 Fiber 感知扩展的正确集成。

运行时启用:

Co::set(['use_fiber_context' => true]);

或通过 INI 配置:openswoole.use_fiber_context=On

协程内 Xdebug 断点调试

启用 Fiber 上下文后,Xdebug 断点调试可在协程内正常工作。此前版本中"极其危险"的警告提示已被移除。

运行时选择事件驱动后端

支持在运行时选择事件驱动后端。

Co::set(['reactor_type' => OPENSWOOLE_IO_URING]);

新增常量:OPENSWOOLE_EPOLLOPENSWOOLE_KQUEUEOPENSWOOLE_POLLOPENSWOOLE_SELECTOPENSWOOLE_IO_URING

io_uring 事件驱动后端

新增基于 Linux io_uring 的事件驱动实现,使用 IORING_OP_POLL_ADD 作为 epoll 的替代方案。编译时需启用 --enable-io-uring(依赖 liburing)。内核 5.13+ 支持 multishot poll,旧内核自动回退。

io_uring 异步文件 I/O 引擎

专用 io_uring 环形缓冲区处理异步文件操作(open、read、write、fstat、fsync、unlink、rename、mkdir、rmdir),替代线程池方案。不支持的操作用优雅回退至线程池。

事件循环延迟指标

通过 $server->stats() 实现实时事件循环延迟监控。按工作进程、任务进程(启用协程时)及 Reactor 线程(进程模式)暴露 event_loop_lag_msevent_loop_lag_max_msevent_loop_lag_avg_ms 指标。适用于检测阻塞操作导致的事件循环停滞。

协程安全的 exit() 支持

PHP 8.4+ 上,协程内的 exit() 调用会被拦截并抛出 openswoole_exit_exception,防止整个进程终止。

HTTP 解析器迁移至 llhttp

将自定义 openswoole_http_parser 替换为 llhttp 解析器,提升标准兼容性与性能。

Bug 修复

  • 修复反射问题与作用域泄漏(#284):OSW_FUNCTION_ALIAS 导致全局函数在反射中显示为类方法且返回类型损坏,已替换为正确的 PHP_FE/PHP_FALIAS 条目
  • 修复 io_uring 下文件 I/O 挂起:排空与重新武装 single-shot POLL_ADD 之间可能丢失 eventfd 通知的竞态条件
  • 修复文件锁 Bug:非阻塞 flockLOCK_NB)现会在系统调用前正确检查进程内协程锁状态
  • 修复 CPU 亲和性编译检查:在 sched.h 前添加缺失的 _GNU_SOURCE 定义
  • 修复 futex 编译检查:在 linux/futex.h 前添加缺失的 _GNU_SOURCE 定义

破坏性变更

  • 移除 PHP 8.2 支持(最低要求 PHP 8.3)
  • 移除 PHP < 8.0 兼容代码
  • 命名空间规范化:openswoole_*

升级

如需安装 OpenSwoole 或查看其他更新方式,请参考 安装文档更新指南

安装核心库:

composer require openswoole/core:26.2.0

OpenSwoole 26.2.0 发布:支持 PHP 8.5、io_uring 后端及协程调试改进