2026年2月

自从安卓越权限越收越紧,想要虚拟定位也变得越来越困难,找了好久也没找到好使的方案
来看看 v 友们用什么方案远程打卡的,人肉 or 定制虚拟机 or 免 root 的虚拟定位软件?

前后大概花了一个月时间,结合抓包分析和网上资料,整理并推测了 Claude Code 可能的实现方式。代码逻辑部分几乎全部由 Codex 辅助编写,部分 UI 则由 Gemini 辅助完成。

目前还没有做到完整实现,也无法保证与真实 Claude Code 的实现完全一致;整体更像是对 “Claude Code 这类 Agent” 的一种可行实现路径的探索与复现。还有不少功能暂未实现,后续会**视情况**逐步完善。

* 项目地址:[https://github.com/yusifeng/formax]( https://github.com/yusifeng/formax)
* B 站视频:[https://www.bilibili.com/video/BV17uFCzKEAU]( https://www.bilibili.com/video/BV17uFCzKEAU)
* 不知道能不能骗一波 Star 。

国内给父母换个手机,他们一直用 Android 。
需求是 电池容量大 信号好,价格 2k 内。其他他们也就刷个抖音 西瓜视频啥的,用用微信

我是一个高中生,在高一上半学期上完后因为心理原因休学了。

在初三下半学期我已经开始出现解离、自伤和厌学的症状,原本可能在当地第一或第二的重点高中,现在到市区最后的普高。

在这个普高里,我只遇见同样“落榜”的同学,但更多是摆烂的人、没有门的肮脏厕所、经常没有饭偶尔还变质食堂和形式主义的枷锁。

我的父母是普通人,一个工作是长辈给的,一个在经济下行时开饭店经营。他们不懂教育,也不会学习教育,没事就刷短视频。他们也有些上进心,但去听课都是些“佛法”、“灵性”和“成功学”。但好消息是,家里还有一百个。

在浑浑噩噩的一年里,我了解到大环境的变化。但我更喜欢自学知识,经常玩多邻国,找到了 OpenCourseWare 和 MOOC ,刷 YouTube 和 bilibili 。( I took CS50 )

无论如何,我终于还是要面对人生的岔路口。

普高如果去的话可以省钱,但需要经历生理和心理的双重折磨。

国际班如果去的话,环境好一点,但每天还是上十几个小时,而且这一百个还不一定够。

似乎现在学历贬值严重,我想知道到底有多严重?如果钱留着躺平的话,是不是更好的选择?

(名字改的太快,暂定名 DroidCenter 把,原来想的是开热点,但后面加了虚机,等后面把其他做了可能就又想改了)

去年开的坑,今年终于填上了,适配一加,但是小米 888 之类的( K40Pro+)之类的也测试了可用。

https://imgur.com/OLxH4tj.png

实测支持双频并发热点

2.4GHz+5GHz 、2.4GHz+6GHz

https://imgur.com/ludMq0R.png

可以双发(测试了 Ace5Pro 和小米 K40Pro+),但是双发实测性能有衰减,不如单发,并且 2.4G 会检测 Overlapping ( 99%的情况下会落到 20MHz ),所以只能说是有,非必要不开。

5Ghz 可以开满血热点

( 160MHz ,OpenSpeedtest 测试>2.2Gbps )

https://imgur.com/nwuje6a.png

6Ghz 可以开满血热点

( 320MHz ,OpenSpeedtest 测试>3.6Gbps ,可能还可以更高)

https://imgur.com/XIDpPiK.png

书接上文: https://www.v2ex.com/t/1108368

反正是完全不走 Android 热点服务,直接去启动 hostapd 的,如果设备原先开热点不满血的(比如开出来热点只有 40 、80MHz 什么的),也可以试试,多半能开到设备满血性能。

现在手机热点也基本搞明白了,实际是可以优化的很快,驱动调整空间也很大( WCNSS 配置比较开放),可能秒了目前绝大多数 MiFi 和 CPE ,毕竟手机 x80/x85 基带遥遥领先。感觉是半个新思路了。。群友也有 dalao ,测试了中兴 F50 也可以起 OpenWRT 虚机啥的。

另外增加了亿些功能,包括常用路由,网桥,组网,路由管理,都有实现基本,

https://imgur.com/FIw9SX1.png

对于无法满足的需求,现已支持虚拟机!(也许 v 友对 Android 开虚机习以为常了 :)

https://imgur.com/Igxr7yi.png

基本的配置都做了支持,包括 VNC 等等

https://imgur.com/aI4NKeH.png

实测过了 Debian ,

https://imgur.com/bZNDrOC.png

RouterOS ,

https://imgur.com/eKIAAUj.png

https://imgur.com/ECKcarI.png

飞牛 OS ( arm 版),

https://imgur.com/tlV7V23.png

都能跑

支持 user (端口转发,适合简单不过流量的虚机,比如飞牛),

https://imgur.com/u0D2915.png

也支持挂载到网桥,可以将热点接口挂载在软路由下面。

(要是不在乎翻译效率,其实 x86 的也。。。)

如果手机支持 KVM 可调用 KVM ,不支持就是 TCG ,性能以实测为准(目前测试 NAS 性能还不错,从手机里开的飞牛,走 5GHz 热点下载有个 200MB/s 左右)。

https://imgur.com/Xmu6NMw.png

AT 命令,Web 终端也等等也做了支持的。

https://imgur.com/eJkR2ml.png

目前还有很多饼正在内测开发中,欢迎各位 dalao 品鉴吐槽,提提意见。当然 bug 可能也有的,有些功能没有加到细节(比如 iptables ,考虑到小白,就先 permit from lan 了),各种功能每天都在加 ing 。bug 的话早上提,晚上修,也可以来当裙友免费体验一下提需求当甲方的感觉(

还有很大优化空间,后面计划包括 USB 外挂网卡,RNDIS ,也会纳入管理,可以做真有线路由。

可能也适合那些无头 Android 5G 盒子,前提是能正常解 BL ,如果有合适的型号也可以推荐,这边看 ok 的话也适配一下

Make Android Great Again, Together

(开发消耗几个馒头 + 一撮头发 + 20B token ,Cursor + Claude + ChatGPT + Z.AI GLM Max + Kimi 2.5 Allegretto ,一堆订阅领衔主演)

淘宝买的,椅背调节角度是 3 档,113-125-135
但是到手安装后,现在后躺的角度,其实只有 2 个角度,就是下图 图 2,感觉上躺到底之后角度也不够,

因为前几天还买了 网易的 S9 pro + ,它也是介绍为 3 档,最大 135°,对比现在买的西昊,明显刚觉躺到底的角度更大
而且后躺是确实有 3 个角度锁定,也就是 图 1 所示

由于网易的椅子已经退回,所以没有很直接的比对,但是感觉上确实后仰角度差异较大

  • 问西昊淘宝的客服,说他们就是 图 2 情况,
  • 问京东呢,说是 图 1 的情况

想问下各位有没有买 西昊 B300 这个型号椅子的朋友,你们的后仰调节角度正常吗

670X296/image.png

  • 一个可以每天领取$V2EX 空投的网站, 但是在做的过程中发现缺少很多前置工具, 所以目前只是完成了一部分界面的逻辑


  • 为了完成一些前置工具, 我又开始了这个 chrome 插件的开发, 但是刚好赶上 livid 发布自定义节点, 所以也是暂时搁置了, 大概完成了 30%的工作, 这个项目的目标是在做的过程中, 能把一些用到的工具抽象成库文件供其他开发者使用.


  • 因为现在自定义节点的管理操作需要来回切换上下文, 所以我暂停了其他项目, 开始了这个项目, 目前完成了 90%左右, 但是前天突然心血来潮, 想做一个让 V 友写小说的节点, 所以我暂时暂停了这个项目.




  • 为了识别 V 友们在有故事的人节点中发布的小说能够合并成一本, 还有一个正在做的爬虫服务正在开发, 书籍仓库已经建好了V2EX-INFO/VBooks, 后面所有 V 友写的小说还有 AI 生成的小说都会放在这个仓库中, 开源使用了 MIT 协议, 所以转换小说到这个仓库的时候需要让 V 友确认一下他们写的小说允不允许被开源, 细节还没想好, 走一步看一步.


还有一些其他正在做的服务, 大部分处于知识积累阶段, 不知道什么时候能够开始. 比如一个去中心化的广告与流量平台

以及一些没有界面的纯 solana 链上的 dapp

附一张我使用 Planet 管理 todo 的截图:

ps: 以上应该是我最近会做的事情, 给自己的时间大概是 6 个月左右, 有些项目可能在做的过程中发现了更好的竞品, 如果能够直接使用的话, 这个项目就非常有可能会被我放弃掉, 哈哈哈哈.

Google 财报创纪录

Gemini App 月活用户超 7.5 亿,距离 ChatGPT 的 8 亿月活相差无几…

付费订阅用户超 3.25 亿,Gemini Enterprise 已售出超 800 万个付费席位(上线仅四个月)

年收入首次突破 4000 亿美元,达 4028 亿美元!

Q4 各业务线表现强劲:搜索加速增长 17%,YouTube 突破 600 亿。Google Cloud 收入增长 48%,年化运营收入超 700 亿美元,Cloud 积压订单环比增长 55%达到 2400 亿美元。

几乎每条业务线都在加速,而不是减速。

这在科技巨头中是非常罕见的,一家年收入 4000 亿的公司还在多条线上实现两位数甚至接近 50%的增长,说明 AI 确实在驱动增量而不仅仅是替代存量。

Alphabet 预计 2026 年资本支出将在 1750 亿至 1850 亿美元之间。这个规模已经超过了很多国家的年度 GDP 。

看起来,Google 还是笑到了最后。

摘要引言

摩尔线程正式发布了 AI Coding Plan 智能编程服务,开启 国产 AI Coding 全栈解决方案 的新篇章,同时推出30 天免费体验,这是国产算力与代码智能深度融合的首次规模级落地。


🧠 核心突破:为什么这次不同?

在大模型生成内容革命中,AI Coding 一直被视为未来效率飞跃的关键应用方向。摩尔线程这次发布的 AI Coding Plan 之所以值得所有开发者关注,有几大显著特点:

✅ 01. 从底层架构开始的中国力量

这套服务不是“云端 API + 调用额度”的简单组合,而是从国产全功能 GPU 到智能编码模型一体化构建的全栈方案
核心硬件采用的是 摩尔线程 MTT S5000 全精度算力底座,结合软硬协同的模型执行引擎,使得 AI 编程在本地高效、流畅运行成为可能。


💡 02. 顶级代码模型:GLM-4.7

AI Coding Plan采用了 GLM-4.7 模型 作为底层代码智能核心。该模型在全球专业评测平台(Code Arena)中,在开源与国产模型中表现名列前茅,尤其在:

  • ⚙️ 函数补全
  • 🐛 漏洞检测
  • 📌 结构重构建议

等实战场景中均表现优异,甚至在一些任务中超越 GPT-5.2。


🔗 03. 即插即用跨平台编码生态

不仅如此,AI Coding Plan 与主流智能编程工具实现了无缝对接:

  • 🤖 Claude Code
  • 🧑‍💻 Cursor
  • 🛠️ OpenCode

开发者可以在熟悉的 IDE 中直接启用国产 AI Coding 能力,无须额外迁移训练环境或学习复杂新工具。


📊 三档套餐覆盖全场景需求

为了满足从轻量级开发到企业级研发周期的不同需求,AI Coding Plan 提供了四种套餐:

套餐类型说明适用场景
🆓 Free Trial30 天免费试用入门试水、个人项目
⚡ Lite Plan中频使用额度小型团队、Side Project
🚀 Pro Plan大调用额度复杂系统开发
🏢 Max Plan峰值优先保障企业级高频开发

作为开发者,你现在可以,抢先进入官网申请 30 天免费体验

免费体验入口👇
👉 https://code.mthreads.com

社区个别人总是发表一些不友善的言论,建议:
是否可以建立一个个人的友善度的,大家可以对每个人发表的稿件、讨论进行评价,可以加分、减分,对于高友善度的予以奖励,低友善度的予以惩戒?

image

数据库性能优化这事儿,很多人条件反射就三板斧:改 SQL、加索引、再加索引。一通操作下来,查询快了,磁盘炸了;延迟降了,维护成本上天;更扎心的是——你还以为自己“优化得很专业”。😅

这篇文章的思路很“叛逆”:与其在常规套路里打转,不如换个角度,利用 PostgreSQL 本身的一些机制做“非常规优化”。下面挑 3 个最容易落地、同时最容易被忽略的点,讲透它们为什么能省钱又提速。


1)别再全表扫了

先看一个特别真实的场景:用户表只有两种 plan:freepro,并且写了约束,保证不会出现别的值。

CREATE TABLE users (
    id INT PRIMARY KEY,
    username TEXT NOT NULL,
    plan TEXT NOT NULL,
    CONSTRAINT plan_check CHECK (plan IN ('free', 'pro'))
);

然后某位大佬在报表工具里一顿操作猛如虎,写了个:

SELECT * FROM users WHERE plan = 'Pro';

注意大小写:Propro。结果当然是 0 行。问题是——它为了得到“0 行”,居然可能 把全表扫了一遍,这就很离谱:明明约束告诉你“根本不可能有 Pro”,你还扫什么扫?扫得我 CPU 风扇都快起飞了。

这时可以打开一个“看起来冷门但对报表场景很香”的开关:constraint_exclusion

SET constraint_exclusion to 'on';

开启后,PostgreSQL 会在生成执行计划时参考约束信息,发现条件永远为假,就直接变成“秒回 0 行”,彻底避免无意义的 Seq Scan。

为什么它默认不是 on?因为它会增加规划阶段开销:对“系统自动生成的简单查询”,大概率用不上;但对 BI/报表这种人肉手写 SQL的场景,写错值、写错条件太常见了。
结论很直白:如果你的数据库经常被报表工具/分析师/临时查询折腾,考虑在报表环境把它打开,能省不少冤枉资源。


2)只要“按天统计”,就别用“精确到秒”的索引

函数索引省 3 倍空间还更快

第二个场景更像日常优化现场:10M 的销售表 sale,分析师要做按天汇总:

SELECT date_trunc('day', sold_at AT TIME ZONE 'UTC'), SUM(charged)
FROM sale
WHERE '2025-01-01 UTC' <= sold_at AND sold_at < '2025-02-01 UTC'
GROUP BY 1;

大家的第一反应:给 sold_at 上 B-Tree 索引!

CREATE INDEX sale_sold_at_ix ON sale(sold_at);

查询确实快了,但你一看索引体积——214MB,心里也跟着“咯噔”一下:为了按天统计,建了个精确到毫秒级的索引,这属于用大炮打蚊子

更聪明的做法是:只索引“天”,别索引“秒”。直接上表达式索引(函数索引):

CREATE INDEX sale_sold_at_date_ix ON sale((date_trunc('day', sold_at AT TIME ZONE 'UTC'))::date);

然后把查询写成同样表达式:

SELECT date_trunc('day', sold_at AT TIME ZONE 'UTC'), SUM(charged)
FROM sale
WHERE date_trunc('day', sold_at AT TIME ZONE 'UTC')::date BETWEEN '2025-01-01' AND '2025-01-31'
GROUP BY 1;

结果:索引体积从 214MB 变成 66MB,直接小了 3 倍多,还更快。原因不只是 datetimestamptz 小,而是离散值更少,B-Tree 可以做去重优化(deduplication),索引变得更紧凑。

但函数索引有个“脾气”:表达式得一模一样,稍微换个写法就可能用不上索引,比如把 date_trunc 换成 ::date,就直接退化回 Seq Scan。现实里让全团队“严格写同一表达式”,基本等同于要求大家每天不犯错(这事比上班准点还难🙂)。

解决方案有两种:

方案 A:View,把表达式固化成列

CREATE VIEW v_sale AS
SELECT *, date_trunc('day', sold_at AT TIME ZONE 'UTC')::date AS sold_at_date
FROM sale;

方案 B:Generated Column(更像“官方自带的 view 列”)

从 PostgreSQL 14 起支持生成列;文章里提到 PostgreSQL 18 还支持虚拟生成列:看起来是列,实际上是每次访问时计算的表达式,既保证表达式一致,又不额外存储(主打一个“既要又要”)。

ALTER TABLE sale ADD sold_at_date DATE
GENERATED ALWAYS AS (date_trunc('day', sold_at AT TIME ZONE 'UTC'));

然后查询就统一写:

SELECT sold_at_date, SUM(charged)
FROM sale
WHERE sold_at_date BETWEEN '2025-01-01' AND '2025-01-31'
GROUP BY 1;

这类优化特别适合那种“指标按天/按周/按月统计”的系统:别让索引为你用不到的精度买单


3)长 URL 唯一约束把索引撑爆?

用排他约束 + Hash 索引,5 倍缩容(但有坑)

当你要对一个超长字段(比如 URL)做唯一约束时,B-Tree 索引可能接近表本体大小,因为 B-Tree 叶子节点会存储被索引值本身。URL 又长又几乎不重复,索引很容易“胖成球”。

那能不能用 Hash 索引?Hash 索引存的是 hash 值,通常小很多。问题来了:PostgreSQL 的 Hash 索引 不支持 unique index

CREATE UNIQUE INDEX urls_url_unique_hash ON urls USING HASH(url);
-- ERROR: access method "hash" does not support unique indexes

但 PostgreSQL 还有个很少人用、名字很霸气的约束:Exclusion Constraint(排他约束)。它能配合 Hash 索引做“等值排他”,效果等同唯一约束:

ALTER TABLE urls ADD CONSTRAINT urls_url_unique_hash EXCLUDE USING HASH (url WITH =);

于是你得到了一个“用 Hash 索引实现的唯一性”。索引体积可能从 154MB 掉到 32MB,约 5 倍缩水,而且等值查询同样能用索引:

SELECT * FROM urls WHERE url = 'https://hakibenita.com';

不过它不是银弹,有几个硬坑必须知道:

  • 不能被外键引用:外键要求引用“唯一约束”,而排他约束不算传统意义的 unique constraint,所以引用会失败。
  • INSERT ... ON CONFLICT 有限制
    ON CONFLICT (url) 可能不认;需要写 ON CONFLICT ON CONSTRAINT ...;更糟的是 DO UPDATE 不支持排他约束。
  • 更通用的替代写法是用 MERGE(如果你的版本支持):
MERGE INTO urls t
USING (VALUES (1000004, 'https://hakibenita.com')) AS s(id, url)
ON t.url = s.url
WHEN MATCHED THEN UPDATE SET id = s.id
WHEN NOT MATCHED THEN INSERT (id, url) VALUES (s.id, s.url);

适用场景一句话总结:超长字符串字段需要唯一性,但不需要被外键引用,且写入冲突处理可以接受用 MERGE/业务层逻辑替代


结语

真正的优化,不是“更快”,而是“更合适”✅

这 3 个技巧的共同点很朴素:
不是让数据库“更努力”,而是让数据库别做无意义的事

  • 报表查错值?让约束帮你秒判 false,别全表扫
  • 只按天统计?索引就按天建,别为秒级精度付账
  • 长字段唯一性撑爆索引?换思路,用排他约束把 Hash 索引用起来

下次你准备“再加一个索引”之前,不妨先问一句:
需求到底需要多精?这条查询真的值得我为它养一个 200MB 的索引吗?
能把性能、成本、维护复杂度一起优化的,才是最爽的优化😉


喜欢就奖励一个“👍”和“在看”呗~

image