2026年2月

PHP 用了十年了,也停滞在某个版本很多年了。

最近项目重构,用新的库,一开始用 laravel ,九牛二虎搞起来,感觉好复杂,还慢,就搞了 flightphp ,快十倍,也简单。但是,现在又发现 go ,flightphp 是猎豹,go 就是火箭啊。作为 web api ,也就基本 crud 工作,go 应该能很好的完成。数据库,ai 时代,完全可以用原生 SQL 了。

这次如果重构完成,那就要和 PHP 拜拜了,因为 WEBAPI 如果用 GO ,就没有地方用他了,测试用 PYTHON 大数据用 PYTHON EXCEL 用 PYTHON ,前端用 SVELTEKIT ,其他用 GO

这样子看,PHP 是不是快死了?微服务+ AI 时代,他没有擅长的技能,各个模块都被其他语言代替?

GitHub 仓库地址:https://github.com/fawdlstty/faml

什么是 FAML ?

FAML 是一种扩展自 TOML 的动态配置语言,专为需要运行时配置计算和更新的场景设计。它保留了 TOML 的简洁语法,同时增加了动态表达式、条件配置和运行时可变性等高级特性。

核心特性对比

特性 TOML KCL PKL FAML
语法风格 TOML 风格 JSON 风格 结构体风格 TOML 风格
动态表达式
条件配置
运行时修改
特殊数据类型

快速示例

基本语法

[server]
port = 8080
host = "localhost"

动态表达式

[database]
host = "localhost"
port = 5432
connection_string = $"postgresql://{host}:{port}/mydb"

条件配置

[app]
env = "production"

@if env == "development"
log_level = "debug"

@if env == "production"
log_level = "error"

特殊数据类型

[cache]
ttl = 5 minutes
max_size = 100 MB

[network]
timeout = 30 seconds
buffer_size = 4 KB

复杂表达式

[user]
age = 25
is_adult = age >= 18
welcome_message = is_adult ? $"Welcome, adult user!" : $"Welcome, young user!"

运行时动态修改

let mut config = FamlExpr::from_str(config_str)?;
config["server"]["port"].set_int(9000);  // 动态修改端口
let connection_string = config["database"]["connection_string"].evaluate()?.as_str();  // 自动更新连接字符串

今天心血来潮想用 rust 重写个项目
根据 ai 和网上的资料,导包很多函数名称都改名或者弃用了,还要去翻 docs.rs
大家平时都是去翻 https://docs.rs 的文档吗?
还是使用旧版本的 rust 和 旧版本的依赖?

文末广告 :)

2025

2024

I have much less spare time this year because I have a baby :p. And I'm looking for a sustainable way to contribute.

I joined the Rust compiler team (in 2024! :3).

LLVM: A performance regression in LLVM that affected Ajla and Python

This regression has been discussed elsewhere; see lobste.rs/s/9paxz2/performance_python_3_14_tail_call.

I introduced the regression due to a limit for compile time in llvm#78582.
Finally, I learned a resolve from GCC, and then I fixed the regression in llvm#114990 and llvm#132536.

Rust: Transforming “Clone” to “Copy”

To me, the most interesting issue is rust#128081.

The "Clone" method can be transformed to "Copy" in GVN. I have several PRs for this and am working on more.

The first key PR (rust#128299) exposed variant miscompilations. Camille Gillot identified the root cause in rust#147844:

We can reason with the value behind a reference because it is UB to directly assign to the underlying local while the reference is live. We allow creating new derefs, this means extending the liveness of references, so we are creating UB.

Rust: Debuginfo in MIR Basic Blocks

rust#129931 turns out that handling Debuginfo in MIR Basic Blocks is required. I implemented this in rust#142771.

This left some stuff:

Rust: 4 P-critical

I caused 4 P-critical issues. :(

The rust#124150 and rust#132353 are miscompilations in MIR opt. I'm investigating some translation validation tools, such as Miri, Alive2, and model checker, but I haven't made any progress. So far, I have only read Program Z3, and I have forgotten many things. Furthermore, I'm thinking about picking it up next year. :p

Other

While reviewing PRs can be exhausting, it's also a great learning opportunity. For instance, working through PRs like rust#142707, rust#143784, rust#136840, and rust#133832 taught me a great deal.

I realize that the knowledge of the LLVM backend is essential to me, since more and more issues happened in the LLVM backend. I'm not sure how to tackle these issues, but I have begun studying LLVM Code Generation: A deep dive into compiler backend development.

MIR optimizations are still important to me. I'd like to thank Camille Gillot for their help on MIR.

I'm trying to immerse myself in English, and I have stopped using LLM for Chinese-to-English translation anymore. :p

I'm also learning Japanese for fun. If you are interested in anime and manga, I recommend you read learnjapanese.moe.


家里没地方了 :(,卖掉我的 7950X 主机:

  • CPU:AMD 7950X
  • 主板:华硕 TUF GAMING B650M-PLUS
  • 内存 2 条:金士顿 FURY 32G D5 6000
  • 水冷:华硕 ROG STRIX 飞龙二代 360
  • 硬盘:ZHITAI TiPlus7100 2TB
  • 硬盘:Samsung SSD 980 PRO 2TB
  • 显卡:AMD 撼讯 RX6600
  • 电源:先马 XP850W 白金
  • 机箱:乔思伯 松果 D31

价格 11000 。

如题,目前实现了 windows 、macos

主要功能

  1. 拦截输入
  2. 监听输入
  3. 模拟输入
  4. 显示器信息

我对 linux 不是很了解(含桌面端),可视化图形界面框架不统一 x11 ,Wayland ...还有其他?

看了一些资料,说 x11 虽然开放,但逐步淘汰且不安全,wayland 安全且封闭是新标准,看了一下基本上都需要 root 用户或 input 权限用户才有可能实现这些功能

发帖想问问大佬们有没有什么思路,还是说只有这条路线可行?

目前打算先搁置 linux 平台功能,后续如果有好的方案再写(因为还没有准备好该这么做更好)。如果有大佬感兴趣的话可以一起写哈哈哈

GitHub: https://github.com/lete114/raw-input

最近 OpenClaw 大火,NanoClaw 也非常受欢迎。Opus4.6 出来后,这两天我就拿着 Claude 送的 50 刀额度试了试,开发了一个 Rust 版本的 NanoClaw ,名字就叫 MicroClaw ,目前支持了 NanoClaw 的部分功能。还有一些功能最近会逐步测试和完善。

项目地址: https://github.com/microclaw/microclaw
文档: https://microclaw.ai/巨资购买的.ai 域名)

目前还在持续迭代中,还没有进行充分的测试,大家可以先当个玩具看看哈。近期会逐步测试保障功能可用性,欢迎试用和提建议。


让 Codex 对比了下 MicroClaw 和 NanoClaw ,结果如下:

口径说明:基于你当前仓库的 README.md / AGENTS.md 和 NanoClaw 官方 README (截至 2026-02-08 )。

维度 NanoClaw MicroClaw
项目定位 极简、单用户、可理解优先;强调“不要做大而全” 面向聊天场景的通用 agent bot ,功能更全、可扩展面更大
灵感关系 原项目 明确参考 NanoClaw 设计思路并在其上扩展
默认通信渠道 WhatsApp (明确) Telegram-first ,且支持可选 WhatsApp Cloud webhook
对多渠道态度 倾向通过 skill 改造(如 /add-telegram )而不是主线内建 主线已经支持多聊天面( Telegram 为主)
技术栈 Node.js + Claude Agent SDK + 容器运行 Rust + Tokio + teloxide + reqwest
LLM 接入模型 强绑定 Claude Code / Agent SDK 原生 Anthropic + OpenAI-compatible 多提供商
工具系统 README 提到可做 web/schedule 等,但未给完整工具清单 明确工具注册表,含 bash/文件/web/调度/记忆/sub-agent/todo/skills 等
任务执行模型 通过容器内 agent 执行 显式 agentic tool loop ( tool_use/tool_result 循环)
安全模型主轴 OS 级隔离优先:容器沙箱( Apple Container/Docker ) 以应用内工具授权与边界控制为主(如 chat 级权限)
宿主机风险面 默认强调“在容器里跑”降低宿主风险 工具可触达运行环境,需靠权限和部署策略收敛风险
数据存储 SQLite ( README 架构图明确) SQLite ( messages/chats/scheduled_tasks/sessions 等)
会话恢复 README 未强调“完整 tool state 恢复”机制 明确支持 session resume (含工具块状态持久化)
上下文压缩 作为 skill 方向提到(/add-clear ) 主线已内置 context compaction (超长会话自动总结)
记忆机制 每组独立 CLAUDE.md ,并强调 group 隔离 全局 + 每 chat 双层 CLAUDE.md
调度任务 支持 recurring scheduled tasks 支持 cron + one-shot ,且有任务管理工具集
子代理能力 README 未见明确“sub-agent”能力 内置 sub_agent (受限工具集,防递归)
计划执行( Todo ) README 未见内置 todo 工具 内置 todo_read / todo_write
技能体系 强调“skills over features”,能力扩展主要靠 skill 改造代码 支持 Anthropic Skills 风格,含激活机制与内置技能
配置哲学 反配置文件倾向,鼓励“直接改代码” 提供配置项体系( provider/model/权限等)
部署形态 依赖 Claude Code + 容器环境( Apple Container/Docker ) Rust 单二进制部署友好(并可独立运行)
复杂度取向 小而专、为作者个人需求优化 功能覆盖更广,适合“拿来即用 + 渐进扩展”
适合人群 重视容器隔离、愿意按 skill 深度定制的个人用户 想要 Telegram 内直接可用、功能较全的开箱方案用户
License MIT MIT

一句话总结(可放帖里)

  • NanoClaw 更像“极简 + 容器隔离优先”的个人化基座。
  • MicroClaw 更像“功能完整 + 多能力内建”的 Telegram agent 产品化实现。

参考来源

二手鱼 现在 m5 16+512 全新大概 1w
m4pro 24+512 大概 11000

买哪个合适?

大家好,这是我最近在折腾的一个项目。

这是一个让 AI Agent (包括 OpenClaw )能够直接“操控”阿里云海量资源的 Skill 集合。

现在的 Agent 很多,但大多还停留在小功能层面。为了让 Agent 真正具备“手脚”,我通过消耗 2 亿 Tokens 对阿里云的 API 文档和 SDK 进行了深度解析和封装,最终产出了这个 alicloud-skills 。

你可以把它理解为:让阿里云折叠进了你的 AI Agent 对话框。

👉 GitHub: https://github.com/cinience/alicloud-skills

(有兴趣的 Star ⭐️,也欢迎 PR)

它能做什么?
不仅仅是简单的查查 ECS 状态,它实现了对阿里云资源的深度操控,列举几个例子,更多可以参考仓库 readme:

1. 一句话交付公网 Web 应用( Killer Feature )

你只需要对 Agent 说:“帮我部署一个 xxx 网站”。

它会自动搞定:域名解析(你已经备案和托管的前提下)、Web 函数发布、网关配置。

效果:直接给你一个可访问的公网 URL 。

2. All-in-One 的模型调用能力

集成了阿里云百炼( Model Studio )平台。

你可以在对话框里直接调用 Qwen (通义千问) 进行复杂推理。

调用 Wan (通义万相) 生成图片。

调用最新的视频生成模型和音频模型。

不需要自己切各种 API ,直接在 Agent 流程里无缝流转。

3. 云资源“自然语言”运维

不用再去控制台点点点了,让 Agent 帮你管理云资源。

🛠 核心逻辑

项目基于标准 claude skills 规范,将阿里云庞大的 API 体系转化为了 Agent 可理解、可执行的 Skills (工具/函数)。这也是为什么要消耗 2 亿 Tokens 的原因——为了保证 Agent 对 API 参数理解的准确性和覆盖度,做了很多验证。

👋 欢迎尝试

目前项目还在快速迭代中,如果你对 Agent 落地基础设施、自动化运维 或者 OpenClaw 感兴趣,欢迎在 GitHub 上提 Issue 或加入讨论。

如果有特别想支持的其他功能,也可以在评论区告诉我,我优先适配。

我其实做得一切,还不是因为喜欢她,为她花了这么多钱,这么多时间精力,请假和她出去旅游,我为了什么,她居然说,n 明天和闺蜜有约,你们 o 信吗?明天可他妈的是情人节哦,这是人说的话?我日吧,难道明天我他妈的要自己打飞机????。我难受啊,我有情商低,我他妈得想操她逼容易吗?????

我之前写一些小项目,基本都用 codex 就可以完成。
最近开始做一个对前端 UI 和交互要求稍微高一些的项目,codex 写出来的样式挺丑的,怎么调都不满意。
我试试用 Gemini 做的前端效果很好。但是这部分前端内容怎么移植到我原有的后端逻辑里呢。
咨询一下大家都是什么解决方案呀,我试了直接把 Gemini 前端代码给 codex ,改过来的还是跟 Gemini 原先生成的不一样。

今天真是大快人心,爽了一把。

本来说好今年年夜饭我来做,菜单也写好了。我想着今天才腊月二十六,有些要炸的东西也没必要提前准备好,昨晚就出去和同学打麻将打到一点才回。早上七点多我爸就经典霹雳哐啷地喊我吃早饭,还说今天我姐他们就要过来吃年夜饭(因为才结婚两年,大年初一他们要去男方家( 1000 多公里))我说我昨天去他们家吃饭不是告诉我后天才来吗?然后又睡了一会儿

后来八点多我起床了,我爸就一顿嘲讽 “年夜饭什么都不准备的” “看你做什么出来” “实在不行你炒两个菜意思一下就行了” 给我恶心坏了,我又不是说不弄,小年开始算起到过年也就 6 天,工期一下子少一半还嘲讽我完不成,这不是找茬是什么?我没管他就在厨房备菜了,他就在客厅坐着说我东西放得乱,其实就是前两天收拾行李把两瓶维生素放在餐桌上,然后吵了两句他就搁客厅沙发坐着,一脸不爽的。我也没管继续跟在厨房备菜,一上午我妈弄弄餐桌布置,我哥在厨房帮我打下手,弄到最后的时候我妈发现我没弄鱼(我想带鱼不也是鱼吗🤣)弄鱼的时候我爸过来指导了一下,我也不知道是因为客人来了还是因为怕我煎不好。反正最后十一点多弄好了一桌菜,除了个别卤菜是买的和排骨汤是早上起来他们炖的以外都是我弄的(猪皮冻得到大家一致好评;中间那个其实是三鲜锅仔,只不过我的蛋皮放多了,下面有肉丸之类的,上次兄弟们就吐槽我做菜怎么没有肉;)

IMG_0950.jpeg

我爸和大家经常吐槽的那种家长一模一样,npd 那种,窝里狠,对外唯唯诺诺,在我看来这种人就是蠢,为人处事是一点不会。从小到大我都怕过年,每年过年就是吵架,我跟我爸吵,我妈跟我爸吵,我哥跟我爸吵,那么问题在谁呢?好难猜啊!他总是看家里不顺眼,这里他觉得做的不好,那里他觉得做的不好,想方设法地说家里人的错,真是给我恶心坏了。

最后提前祝大家新年快乐,家庭和睦

(做虎皮凤爪的时候顺手写的)
IMG_0949.jpeg

豆包:

二、智驾性能差异(核心能力对比)
性能差距本质是 **“原生电子架构” vs “机械架构改造”** 的代差,电车在响应速度、算力支撑、功能迭代上全面领先。
1. 供电与算力(基础保障)
电车:400V/800V 高压平台,持续功率供应充足,轻松支撑 **500TOPS+** 算力芯片与多激光雷达同时运行,无电压波动风险。
油车:传统 12V 系统持续放电功率 **<50W**,智驾设备易宕机;升级 48V 后仍难支撑高阶算力,且存在供电不稳定问题。
2. 动力响应(执行精度)
电车:电机响应毫秒级,扭矩控制精准,ACC 巡航平顺,自动泊车耗时比油车少 15%。
油车:内燃机 + 变速箱存在 200-300 毫秒延迟,智驾指令需算法补偿,易出现顿挫,复杂路况控制精度不足。
3. 感知与决策(核心体验)
感知能力:电车传感器布局更合理,线束设计简单,同硬件配置下识别距离更远(如施工路段提前 200 米变道)。
决策效率:域控制器集中式计算,数据融合速度快;油车分布式 ECU 数据传输延迟高,决策滞后明显。
4. OTA 升级(功能迭代)
电车:中央式架构支持全栈 OTA ,智驾算法、高精地图可实时更新,功能持续进化。
油车:分布式架构限制,OTA 多为局部升级,高精地图更新周期长(通常 3 个月以上),智驾能力难以迭代。
5. 极端工况表现
电车:电池热管理系统可兼顾智驾芯片散热,低温下供电稳定,传感器性能衰减小。
油车:发动机启停易导致智驾系统断电,低温下 12V 电池容量骤降,智驾设备易 “罢工”。
三、优势总结与适用场景
1. 电车优势(全面且不可逆)
成本优势:规模化后高阶智驾成本可下探至数千元,10 万元级车型已能标配城区 NOA 。
性能优势:算力充足、响应迅速、功能可持续升级,L3 级自动驾驶落地更成熟。
适用场景:城市通勤、高阶智驾需求、追求科技体验的用户。

各位大佬们好,小弟有一个 2 位字符的 cn 域名,用它做什么好呢?尝试做社区类型的,没有什么流量,放弃了。尝试蹭点热度,发现挺难蹭,也放弃了。
一直没想到用做什么好,所以就先不放具体域名了。
烦请佬友们指点一二。感谢 🙏

加 v1 这个目的是为了版本的向后兼容吧,但这个 v1 版本雷打不动,比如 chat/completions 迁移到新的 responses api ,也没有用这个版本做迁移,而是换了一套新 api 接口。

很多第三方 ai 服务平台为了兼容 OpenAI 的 API ,有些也要加上这个 v1 ,而且很多第三方的应用,用户配置模型后端 api 时候,api base 也是要做 v1 的兼容,有时候加上 v1 不对,有时候少了 v1 还不行。。

感觉这个 v1 的设计南辕北辙了。

本来想分几条发的,但懒得折腾,一次说完吧

【福利】回馈一波

今天在多个论坛、社区发帖推广了一下社区,大家热情很足呀,一下把我顶成首富了,我也感受一把钞能力哈哈,在此贴回复(第一贴),会获得 200 金币的小小奖励,以此回馈大家的热情。


【反馈】看了下邀请数据,有些想法

从注册人数来看,大家对社区还是挺感兴趣的,趁热打铁提几个建议:

  1. 金币池补充功能
    希望发布后可继续注入金币(因为金币没了帖子也完结了)
  2. 增强互动机制
    用希望可以增加更多的互动内容,用户有参与感了,社区才能越来越活越。
  3. 徽章系统
    感觉可以加入徽章系统了,提升用户的成就感,毕竟谁不喜欢收集呢。
  4. 编辑器优化
    编辑器可否加个一键优化盘版功能呢?如果可以的话,毕竟调整排版太费脑袋了。


欢迎大家畅所欲言

现在不论是工作还是下班时间的编码已经几乎全部交给 codex 了,自己只负责部分 review 和手工处理一些实在没法用人话说清楚的场景代码,在 90%时候它一次产出已经足够好了

自己是大部分时候写不出 ai 产出那么规整的代码或文档的,主要是因为人会累,这体现在写多了代码后会感觉异常疲劳,脑力值用光情况下连一个 if 都不想写了,这时候哪里还顾得上什么优雅、质量,甚至连一开始设定编码目标都会遗漏,乃至出现 bug 。但 ai 不一样,只要给的上下文信息量充足,模型质量足够高,他可以写到地老天荒,甚至改多了还可以随时要求重构

我认为人写代码会累是因为写代码中 每一刻都在决策 就连最简单一个 if 都考虑逻辑分支的正确性,和上下文兼容性,拓展性等等,更不用说设计一些复杂模块、接口、数据结构。现在这些工作全部交由 ai 后,我再也感觉不到累(至少编码的脑力损耗没有了),只有在考虑怎么把话说清楚,考虑整体设计等等,这让我有点想起之前听过的一个说法:领导半夜都在拉会,看起来精力无限是因为他们根本不用做执行,大脑决策的频率远低于牛马们😂 ,我深以为然,在“沟通”这件事上把话说清楚显然不需要什么脑力消耗,我们可以把精力花在更重要的事情上

这里说一下,看到有蛮多人说用了 ai 反而更累了或效率变低了,我之前刚尝试本地 agent 时候也有这种感觉,后来摸索出自己还是要对分配给 ai 的任务有一个总体规划随后做细一点的拆分,比如对比这 2 种用法去迭代一个已有模块:

  1. 直接和 ai 提要求:xx 模块原来怎么怎么样,现在帮我改成 xx ,要求 1 、2 、3
  2. 先提要求:xx 模块原来怎么怎么样,先给我一个改造计划/先写代码骨架;然后人检查后给予 ai 反馈,再进行下一步细分迭代如此反复

区别就是前者是又 ai 自己规划一次性完成编码,后者是人不断参与 补充缺失上下文 ,后者的效果就好很多了

现在不论是工作还是下班时间的编码已经几乎全部交给 codex 了,自己只负责部分 review 和手工处理一些实在没法用人话说清楚的场景代码,在 90%时候它一次产出已经足够好了

自己是大部分时候写不出 ai 产出那么规整的代码或文档的,主要是因为人会累,这体现在写多了代码后会感觉异常疲劳,脑力值用光情况下连一个 if 都不想写了,这时候哪里还顾得上什么优雅、质量,甚至连一开始设定编码目标都会遗漏,乃至出现 bug 。但 ai 不一样,只要给的上下文信息量充足,模型质量足够高,他可以写到地老天荒,甚至改多了还可以随时要求重构

我认为人写代码会累是因为写代码中 每一刻都在决策 就连最简单一个 if 都考虑逻辑分支的正确性,和上下文兼容性,拓展性等等,更不用说设计一些复杂模块、接口、数据结构。现在这些工作全部交由 ai 后,我再也感觉不到累(至少编码的脑力损耗没有了),只有在考虑怎么把话说清楚,考虑整体设计等等,这让我有点想起之前听过的一个说法:领导半夜都在拉会,看起来精力无限是因为他们根本不用做执行,大脑决策的频率远低于牛马们😂 ,我深以为然,在“沟通”这件事上把话说清楚显然不需要什么脑力消耗,我们可以把精力花在更重要的事情上

这里说一下,看到有蛮多人说用了 ai 反而更累了或效率变低了,我之前刚尝试本地 agent 时候也有这种感觉,后来摸索出自己还是要对分配给 ai 的任务有一个总体规划随后做细一点的拆分,比如对比这 2 种用法去迭代一个已有模块:

  1. 直接和 ai 提要求:xx 模块原来怎么怎么样,现在帮我改成 xx ,要求 1 、2 、3
  2. 先提要求:xx 模块原来怎么怎么样,先给我一个改造计划/先写代码骨架;然后人检查后给予 ai 反馈,再进行下一步细分迭代如此反复

区别就是前者是又 ai 自己规划一次性完成编码,后者是人不断参与 补充缺失上下文 ,后者的效果就好很多了

开发者人手一个的剪切板管理器,
是的,我也有一个,
不过我这个是原生的,只有 4.6m,
快速查找并重复使用复制记录
自动去重,让剪贴板保持整洁
置顶常用片段,随时快速访问


最主要的是方便,开关控制,自动记录,鼠标一晃侧边栏就出来,一点就复制,随便粘贴。
下载地址: https://apps.apple.com/us/app/easycopy-smart-clipboard/id6753170496?mt=12

码:
67T9LMM7LL6K
FAXEFLN4JYNE
W3RFMTKFXJNL
JWWN44NJPWF9
3NYWTLFPPHMT
XPX6TPXNP7Y4
JTTJALFXPTWP
34KXJLP646LT
J3FYMRJHRFEW
TKX36HK3JH7Y
PA7W3LJYJ7A3
H97T46LL9YJM
4FMAPJT4LP7N
KJXTH3XA7T7K
LPTP6NFYFREP
R4ELWM9P99FA
MYA767HLH9M9
3RK49J4MJ9TW
NAYA6LXAT9HL
TMYNK4HJM634