看看大家的打卡姿势
自从安卓越权限越收越紧,想要虚拟定位也变得越来越困难,找了好久也没找到好使的方案
来看看 v 友们用什么方案远程打卡的,人肉 or 定制虚拟机 or 免 root 的虚拟定位软件?
xiaohack博客专注前沿科技动态与实用技术干货分享,涵盖 AI 代理、大模型应用、编程工具、文档解析、SEO 实战、自动化部署等内容,提供开源项目教程、科技资讯日报、工具使用指南,助力开发者、AI 爱好者获取前沿技术与实战经验。
自从安卓越权限越收越紧,想要虚拟定位也变得越来越困难,找了好久也没找到好使的方案
来看看 v 友们用什么方案远程打卡的,人肉 or 定制虚拟机 or 免 root 的虚拟定位软件?
拼命的水水水
为了夜猫冲!还有谁没睡!
还有谁?
我来了,发帖发帖。
给老人送什么东西好?
农村的老人
日用品,食品,娱乐用品,都可以
我是一个高中生,在高一上半学期上完后因为心理原因休学了。
在初三下半学期我已经开始出现解离、自伤和厌学的症状,原本可能在当地第一或第二的重点高中,现在到市区最后的普高。
在这个普高里,我只遇见同样“落榜”的同学,但更多是摆烂的人、没有门的肮脏厕所、经常没有饭偶尔还变质食堂和形式主义的枷锁。
我的父母是普通人,一个工作是长辈给的,一个在经济下行时开饭店经营。他们不懂教育,也不会学习教育,没事就刷短视频。他们也有些上进心,但去听课都是些“佛法”、“灵性”和“成功学”。但好消息是,家里还有一百个。
在浑浑噩噩的一年里,我了解到大环境的变化。但我更喜欢自学知识,经常玩多邻国,找到了 OpenCourseWare 和 MOOC ,刷 YouTube 和 bilibili 。( I took CS50 )
无论如何,我终于还是要面对人生的岔路口。
普高如果去的话可以省钱,但需要经历生理和心理的双重折磨。
国际班如果去的话,环境好一点,但每天还是上十几个小时,而且这一百个还不一定够。
似乎现在学历贬值严重,我想知道到底有多严重?如果钱留着躺平的话,是不是更好的选择?
(名字改的太快,暂定名 DroidCenter 把,原来想的是开热点,但后面加了虚机,等后面把其他做了可能就又想改了)
去年开的坑,今年终于填上了,适配一加,但是小米 888 之类的( K40Pro+)之类的也测试了可用。

实测支持双频并发热点
2.4GHz+5GHz 、2.4GHz+6GHz

可以双发(测试了 Ace5Pro 和小米 K40Pro+),但是双发实测性能有衰减,不如单发,并且 2.4G 会检测 Overlapping ( 99%的情况下会落到 20MHz ),所以只能说是有,非必要不开。
5Ghz 可以开满血热点
( 160MHz ,OpenSpeedtest 测试>2.2Gbps )

6Ghz 可以开满血热点
( 320MHz ,OpenSpeedtest 测试>3.6Gbps ,可能还可以更高)

书接上文: https://www.v2ex.com/t/1108368
反正是完全不走 Android 热点服务,直接去启动 hostapd 的,如果设备原先开热点不满血的(比如开出来热点只有 40 、80MHz 什么的),也可以试试,多半能开到设备满血性能。
现在手机热点也基本搞明白了,实际是可以优化的很快,驱动调整空间也很大( WCNSS 配置比较开放),可能秒了目前绝大多数 MiFi 和 CPE ,毕竟手机 x80/x85 基带遥遥领先。感觉是半个新思路了。。群友也有 dalao ,测试了中兴 F50 也可以起 OpenWRT 虚机啥的。
另外增加了亿些功能,包括常用路由,网桥,组网,路由管理,都有实现基本,

对于无法满足的需求,现已支持虚拟机!(也许 v 友对 Android 开虚机习以为常了 :)

基本的配置都做了支持,包括 VNC 等等

实测过了 Debian ,

RouterOS ,


飞牛 OS ( arm 版),

都能跑
支持 user (端口转发,适合简单不过流量的虚机,比如飞牛),

也支持挂载到网桥,可以将热点接口挂载在软路由下面。
(要是不在乎翻译效率,其实 x86 的也。。。)
如果手机支持 KVM 可调用 KVM ,不支持就是 TCG ,性能以实测为准(目前测试 NAS 性能还不错,从手机里开的飞牛,走 5GHz 热点下载有个 200MB/s 左右)。

AT 命令,Web 终端也等等也做了支持的。

目前还有很多饼正在内测开发中,欢迎各位 dalao 品鉴吐槽,提提意见。当然 bug 可能也有的,有些功能没有加到细节(比如 iptables ,考虑到小白,就先 permit from lan 了),各种功能每天都在加 ing 。bug 的话早上提,晚上修,也可以来当裙友免费体验一下提需求当甲方的感觉(
还有很大优化空间,后面计划包括 USB 外挂网卡,RNDIS ,也会纳入管理,可以做真有线路由。
可能也适合那些无头 Android 5G 盒子,前提是能正常解 BL ,如果有合适的型号也可以推荐,这边看 ok 的话也适配一下
Make Android Great Again, Together
(开发消耗几个馒头 + 一撮头发 + 20B token ,Cursor + Claude + ChatGPT + Z.AI GLM Max + Kimi 2.5 Allegretto ,一堆订阅领衔主演)
淘宝买的,椅背调节角度是 3 档,113-125-135
但是到手安装后,现在后躺的角度,其实只有 2 个角度,就是下图 图 2,感觉上躺到底之后角度也不够,
因为前几天还买了 网易的 S9 pro + ,它也是介绍为 3 档,最大 135°,对比现在买的西昊,明显刚觉躺到底的角度更大
而且后躺是确实有 3 个角度锁定,也就是 图 1 所示
图 2 情况,图 1 的情况想问下各位有没有买 西昊 B300 这个型号椅子的朋友,你们的后仰调节角度正常吗

给我的 AI 助手开了个交易账户,充了 100 美元,看它能学成什么样。
搞了个网站记录整个过程: https://luckyclaw.win/
交易记录、它写的复盘、踩的坑都在上面。目前小赚,实验继续。






还有一些其他正在做的服务, 大部分处于知识积累阶段, 不知道什么时候能够开始. 比如一个去中心化的广告与流量平台


以及一些没有界面的纯 solana 链上的 dapp
附一张我使用 Planet 管理 todo 的截图:

ps: 以上应该是我最近会做的事情, 给自己的时间大概是 6 个月左右, 有些项目可能在做的过程中发现了更好的竞品, 如果能够直接使用的话, 这个项目就非常有可能会被我放弃掉, 哈哈哈哈.
Google 财报创纪录
Gemini App 月活用户超 7.5 亿,距离 ChatGPT 的 8 亿月活相差无几…
付费订阅用户超 3.25 亿,Gemini Enterprise 已售出超 800 万个付费席位(上线仅四个月)
年收入首次突破 4000 亿美元,达 4028 亿美元!
Q4 各业务线表现强劲:搜索加速增长 17%,YouTube 突破 600 亿。Google Cloud 收入增长 48%,年化运营收入超 700 亿美元,Cloud 积压订单环比增长 55%达到 2400 亿美元。
几乎每条业务线都在加速,而不是减速。
这在科技巨头中是非常罕见的,一家年收入 4000 亿的公司还在多条线上实现两位数甚至接近 50%的增长,说明 AI 确实在驱动增量而不仅仅是替代存量。
看起来,Google 还是笑到了最后。
摩尔线程正式发布了 AI Coding Plan 智能编程服务,开启 国产 AI Coding 全栈解决方案 的新篇章,同时推出30 天免费体验,这是国产算力与代码智能深度融合的首次规模级落地。 在大模型生成内容革命中,AI Coding 一直被视为未来效率飞跃的关键应用方向。摩尔线程这次发布的 AI Coding Plan 之所以值得所有开发者关注,有几大显著特点: 这套服务不是“云端 API + 调用额度”的简单组合,而是从国产全功能 GPU 到智能编码模型一体化构建的全栈方案。 AI Coding Plan采用了 GLM-4.7 模型 作为底层代码智能核心。该模型在全球专业评测平台(Code Arena)中,在开源与国产模型中表现名列前茅,尤其在: 等实战场景中均表现优异,甚至在一些任务中超越 GPT-5.2。 不仅如此,AI Coding Plan 与主流智能编程工具实现了无缝对接: 开发者可以在熟悉的 IDE 中直接启用国产 AI Coding 能力,无须额外迁移训练环境或学习复杂新工具。 为了满足从轻量级开发到企业级研发周期的不同需求,AI Coding Plan 提供了四种套餐: 作为开发者,你现在可以,抢先进入官网申请 30 天免费体验 免费体验入口👇摘要引言
🧠 核心突破:为什么这次不同?

✅ 01. 从底层架构开始的中国力量
核心硬件采用的是 摩尔线程 MTT S5000 全精度算力底座,结合软硬协同的模型执行引擎,使得 AI 编程在本地高效、流畅运行成为可能。💡 02. 顶级代码模型:GLM-4.7
🔗 03. 即插即用跨平台编码生态
📊 三档套餐覆盖全场景需求
套餐类型 说明 适用场景 🆓 Free Trial 30 天免费试用 入门试水、个人项目 ⚡ Lite Plan 中频使用额度 小型团队、Side Project 🚀 Pro Plan 大调用额度 复杂系统开发 🏢 Max Plan 峰值优先保障 企业级高频开发
👉 https://code.mthreads.com
社区个别人总是发表一些不友善的言论,建议:
是否可以建立一个个人的友善度的,大家可以对每个人发表的稿件、讨论进行评价,可以加分、减分,对于高友善度的予以奖励,低友善度的予以惩戒?
数据库性能优化这事儿,很多人条件反射就三板斧:改 SQL、加索引、再加索引。一通操作下来,查询快了,磁盘炸了;延迟降了,维护成本上天;更扎心的是——你还以为自己“优化得很专业”。😅 这篇文章的思路很“叛逆”:与其在常规套路里打转,不如换个角度,利用 PostgreSQL 本身的一些机制做“非常规优化”。下面挑 3 个最容易落地、同时最容易被忽略的点,讲透它们为什么能省钱又提速。 先看一个特别真实的场景:用户表只有两种 plan: 然后某位大佬在报表工具里一顿操作猛如虎,写了个: 注意大小写: 这时可以打开一个“看起来冷门但对报表场景很香”的开关: 开启后,PostgreSQL 会在生成执行计划时参考约束信息,发现条件永远为假,就直接变成“秒回 0 行”,彻底避免无意义的 Seq Scan。 为什么它默认不是 函数索引省 3 倍空间还更快 第二个场景更像日常优化现场:10M 的销售表 大家的第一反应:给 查询确实快了,但你一看索引体积——214MB,心里也跟着“咯噔”一下:为了按天统计,建了个精确到毫秒级的索引,这属于用大炮打蚊子。 更聪明的做法是:只索引“天”,别索引“秒”。直接上表达式索引(函数索引): 然后把查询写成同样表达式: 结果:索引体积从 214MB 变成 66MB,直接小了 3 倍多,还更快。原因不只是 但函数索引有个“脾气”:表达式得一模一样,稍微换个写法就可能用不上索引,比如把 解决方案有两种: 从 PostgreSQL 14 起支持生成列;文章里提到 PostgreSQL 18 还支持虚拟生成列:看起来是列,实际上是每次访问时计算的表达式,既保证表达式一致,又不额外存储(主打一个“既要又要”)。 然后查询就统一写: 这类优化特别适合那种“指标按天/按周/按月统计”的系统:别让索引为你用不到的精度买单。 用排他约束 + Hash 索引,5 倍缩容(但有坑) 当你要对一个超长字段(比如 URL)做唯一约束时,B-Tree 索引可能接近表本体大小,因为 B-Tree 叶子节点会存储被索引值本身。URL 又长又几乎不重复,索引很容易“胖成球”。 那能不能用 Hash 索引?Hash 索引存的是 hash 值,通常小很多。问题来了:PostgreSQL 的 Hash 索引 不支持 unique index。 但 PostgreSQL 还有个很少人用、名字很霸气的约束:Exclusion Constraint(排他约束)。它能配合 Hash 索引做“等值排他”,效果等同唯一约束: 于是你得到了一个“用 Hash 索引实现的唯一性”。索引体积可能从 154MB 掉到 32MB,约 5 倍缩水,而且等值查询同样能用索引: 不过它不是银弹,有几个硬坑必须知道: 适用场景一句话总结:超长字符串字段需要唯一性,但不需要被外键引用,且写入冲突处理可以接受用 MERGE/业务层逻辑替代。 真正的优化,不是“更快”,而是“更合适”✅ 这 3 个技巧的共同点很朴素: 下次你准备“再加一个索引”之前,不妨先问一句: 喜欢就奖励一个“👍”和“在看”呗~
1)别再全表扫了
free 和 pro,并且写了约束,保证不会出现别的值。CREATE TABLE users (
id INT PRIMARY KEY,
username TEXT NOT NULL,
plan TEXT NOT NULL,
CONSTRAINT plan_check CHECK (plan IN ('free', 'pro'))
);SELECT * FROM users WHERE plan = 'Pro';Pro ≠ pro。结果当然是 0 行。问题是——它为了得到“0 行”,居然可能 把全表扫了一遍,这就很离谱:明明约束告诉你“根本不可能有 Pro”,你还扫什么扫?扫得我 CPU 风扇都快起飞了。constraint_exclusion。SET constraint_exclusion to 'on';on?因为它会增加规划阶段开销:对“系统自动生成的简单查询”,大概率用不上;但对 BI/报表这种人肉手写 SQL的场景,写错值、写错条件太常见了。
结论很直白:如果你的数据库经常被报表工具/分析师/临时查询折腾,考虑在报表环境把它打开,能省不少冤枉资源。2)只要“按天统计”,就别用“精确到秒”的索引
sale,分析师要做按天汇总:SELECT date_trunc('day', sold_at AT TIME ZONE 'UTC'), SUM(charged)
FROM sale
WHERE '2025-01-01 UTC' <= sold_at AND sold_at < '2025-02-01 UTC'
GROUP BY 1;sold_at 上 B-Tree 索引!CREATE INDEX sale_sold_at_ix ON sale(sold_at);CREATE INDEX sale_sold_at_date_ix ON sale((date_trunc('day', sold_at AT TIME ZONE 'UTC'))::date);SELECT date_trunc('day', sold_at AT TIME ZONE 'UTC'), SUM(charged)
FROM sale
WHERE date_trunc('day', sold_at AT TIME ZONE 'UTC')::date BETWEEN '2025-01-01' AND '2025-01-31'
GROUP BY 1;date 比 timestamptz 小,而是离散值更少,B-Tree 可以做去重优化(deduplication),索引变得更紧凑。date_trunc 换成 ::date,就直接退化回 Seq Scan。现实里让全团队“严格写同一表达式”,基本等同于要求大家每天不犯错(这事比上班准点还难🙂)。方案 A:View,把表达式固化成列
CREATE VIEW v_sale AS
SELECT *, date_trunc('day', sold_at AT TIME ZONE 'UTC')::date AS sold_at_date
FROM sale;方案 B:Generated Column(更像“官方自带的 view 列”)
ALTER TABLE sale ADD sold_at_date DATE
GENERATED ALWAYS AS (date_trunc('day', sold_at AT TIME ZONE 'UTC'));SELECT sold_at_date, SUM(charged)
FROM sale
WHERE sold_at_date BETWEEN '2025-01-01' AND '2025-01-31'
GROUP BY 1;3)长 URL 唯一约束把索引撑爆?
CREATE UNIQUE INDEX urls_url_unique_hash ON urls USING HASH(url);
-- ERROR: access method "hash" does not support unique indexesALTER TABLE urls ADD CONSTRAINT urls_url_unique_hash EXCLUDE USING HASH (url WITH =);SELECT * FROM urls WHERE url = 'https://hakibenita.com';INSERT ... ON CONFLICT 有限制:ON CONFLICT (url) 可能不认;需要写 ON CONFLICT ON CONSTRAINT ...;更糟的是 DO UPDATE 不支持排他约束。MERGE(如果你的版本支持):MERGE INTO urls t
USING (VALUES (1000004, 'https://hakibenita.com')) AS s(id, url)
ON t.url = s.url
WHEN MATCHED THEN UPDATE SET id = s.id
WHEN NOT MATCHED THEN INSERT (id, url) VALUES (s.id, s.url);结语
不是让数据库“更努力”,而是让数据库别做无意义的事。
需求到底需要多精?这条查询真的值得我为它养一个 200MB 的索引吗?
能把性能、成本、维护复杂度一起优化的,才是最爽的优化😉