wispbyte 的网址:https://wispbyte.com/
有佬友发了在 wispbyte 跑 sing-box 的方法,因为其实它是一个容器,资源非常有限。
跑多了必然被 oom 杀掉。那提供一个直接 js 的方法建 vless 和 trojan,这样资源能得到有效控制。而且代码混淆,不容易被封杀。

出一篇手把手教程:

wispbyte.com , 是欧洲的一个厂家
它可以免费建立一个 server,准确的来说是一个容器,并且暴露一个端口出来

那先 Create Server,Server Name 和 Server Description 就都写 god01 好了

Server Type 当然选 Free Plan 的,运行环境就选 NodeJS

选完就按最下面的创建即可。

建好了那就去到 server manage 管理界面,下面有个 Startup:

分析红框中那句启动命令,意思很简单,如果配了 git,就去拉代码,如果有存在 npm 的 package.json,就先 npm install 安装,最后,运行主程序 index.js

下面选项是 Docker Image,本来以为是可以随便引用别处的镜像,结果是不能,只能选固定的,那就选不太激进的 nodejs_22 ,保存好

然后就什么都不用动了

然后去到左边的 Files 选项,缺省路径会是 /home/container/

上面图是已经装好运行的,如果是新服务器,是空无一物,没有任何文件

我们只需要准备 5 个文件和一个域名:

域名去免费搞一个,然后证书用大善人的let's encrypt搞定

tls.crt 证书文件,用let’s encrypt申请

tls.key 密钥文件,用let’s encrypt申请

index.html 用来装饰的环保单页面,如果不加,就会显示 hello world,太假了,可以让 gemini 给你生成一个,代码如下,注意改名 index.html:

index.txt

package.json 文件,index.js 运行时需要依赖的安装包文件,安装了 2 个包,axios 和 ws,注意改名 package.txt

package.txt (291 Bytes)

index.js 主文件,所有东西都在这里面,注意改名 index.js,上传的时候不知道为啥变成 indexjsp.txt 了

indexjsp..txt

这样就齐活了,index.js 需要修改的地方

const DOMAIN = process.env.DOMAIN || '1234.abc.com';       // 填写域名 const SUB_PATH = process.env.SUB_PATH || 'sub';            // 获取节点的订阅路径 const PORT = process.env.PORT || 7860;                     // 端口 
  • 域名我们要填写自己的域名

  • 路径要换掉,缺省是 sub,也就是订阅地址是 https://xxx.aaa.com/sub , 最好换成自己独特的地址

  • 端口也选这个服务器给你开的端口,我的是 10407, 看下图

然后改好了,别急着贴进去

打开: https://obfuscator.io/legacy-playground

贴进去代码,混淆一下,弄成谁也认不得的模样,然后 Copy,再贴进去

最后运行

看到 Online 就好了

那域名解析到这个 IP,打开 https 看看:

那再打开 https://www.bbb.com/sub , 如果改了 sub,那就是设置的别的路径,会显示一堆 base64 加密的字符串

从 v2rayN 导入,有两个代理,一个是 vless,一个是 trojan,就可以用了

关键是这么做的原理,就是用 index.js 完整实现了 vless 和 trojan 的功能,加了证书,并且做了混淆和伪装

这样很自然,比在容器里直接 sing-box 安全占用资源少,不容易被扫描到

当然,这个网站的速度不太行,所以只是一个玩具,没有套大善人 Cloudflare 的 CDN

自己用的是 huggingface.co + CF worker,速度还是可以的。

代码放在: GitHub - zhangrr/js-server: nodejs server

大家自行取用吧

也放到博客了:wispbyte.com 薅羊毛记 | 八戒的技术博客


📌 转载信息
原作者:
defunct9
转载时间:
2026/1/4 12:14:47

可以使用快捷指令实现
自定义闹钟 - 就寝版
自定义闹钟 - 常规版

  1. 点击「自定义闹钟 V3.0 - 常规版」下载添加,按照要求进行闹钟时间添加
  1. 手动运行一遍「自定义闹钟 V3.0 - 常规版」快捷指令,允许对应的权限请求

. 设定个人自动化:

  • 特定时间 00:05
  • 重复 每天
  • 立即运行
  • 选择「自定义闹钟 V3.0 - 常规版」快捷指令

原作者 微信公众号 [Jubal Moment]


📌 转载信息
原作者:
phpluo
转载时间:
2026/1/4 10:48:38

1、把不好计算的积分制度换成对话次数。模型从 V3.2 换到了 Kimi 2T。之前是用完就没了,现在每周都会更新。我个人体感是,Kimi 比 V3.2 好用很多

2、新增加了图片生成,20 每周真的够了,我自己好像都用不完这个额度,使用的是即梦生成(真算不错了吧)

3、全方面的语言适配,中文率 90%,比起之前 50% 好很多了。支持最多五门语言(虽然不知道啥用,但反正是支持了)

以及修复了一堆 BUG 就不说了
总之就是大家登录就能体验到以上的更新了


📌 转载信息
原作者:
sorrow233
转载时间:
2026/1/4 10:18:34

之前帖子讲过,来 L 站之后想必各位佬友们都获得了不少的 AI 资源。如公益站 API、Cursor、反重力等等。一直希望能够整合一下,资源聚合,最好能够统一接口调用,于是总结了几个比较好用的工具。

CC Switch

这个工具我主要是用来配置 Gemini CLI、CodeX、Claude Code 的提示词、MCP、Skills 相关的内容的。

CLIProxyAPI

CLIProxyAPI 是一个为 CLI 提供 OpenAI/Gemini/Claude/Codex 兼容 API 接口的代理服务器。功能很强,官方介绍:

  • 为 CLI 模型提供 OpenAI/Gemini/Claude/Codex 兼容的 API 端点
  • Gemini CLI 支持(OAuth 登录)
  • 反重力 支持(OAuth 登录)
  • OpenAI Codex(GPT 系列)支持(OAuth 登录)
  • Claude Code 支持(OAuth 登录)
  • Qwen Code 支持(OAuth 登录)
  • iFlow 支持(OAuth 登录)
  • 支持流式与非流式响应
  • 函数调用 / 工具支持
  • 多模态输入(文本、图片)
  • 多账户支持与轮询负载均衡(Gemini、OpenAI、Claude、Qwen 与 iFlow)
  • 简单的 CLI 身份验证流程(Gemini、OpenAI、Claude、Qwen 与 iFlow)
  • 支持 Gemini AIStudio API 密钥
  • 支持 AI Studio Build 多账户轮询
  • 支持 Gemini CLI 多账户轮询
  • 支持 反重力 多账户轮询
  • 支持 Claude Code 多账户轮询
  • 支持 Qwen Code 多账户轮询
  • 支持 iFlow 多账户轮询
  • 支持 OpenAI Codex 多账户轮询
  • 通过配置接入上游 OpenAI 兼容提供商(例如 OpenRouter)

Quotio

这是 CLIProxyAPI + 各类账户额度查询功能的 GUI 应用,和开发者交流了一下,提了建议,也支持了中文,感觉也很好用:

各位佬如果也有好用的产品,可以推荐推荐。


📌 转载信息
转载时间:
2026/1/4 10:16:15

DataAgent 是一个基于 Spring AI Alibaba Graph 打造的企业级智能数据分析 Agent。它超越了传统的 Text-to-SQL 工具,进化为一个能够执行 Python 深度分析、生成 多维度图表报告 的 AI 智能数据分析师。

系统采用高度可扩展的架构设计,全面兼容 OpenAI 接口规范的对话模型与 Embedding 模型,并支持灵活挂载任意向量数据库。无论是私有化部署还是接入主流大模型服务(如 Qwen, Deepseek),都能轻松适配,为企业提供灵活、可控的数据洞察服务。

GitHub - spring-ai-alibaba/DataAgent: Spring AI Alibaba DataAgent 项目地址
大家可以去看看这个项目,我也算是里面的一个开发者了吧,项目的效果的话我感觉还不错,然后最近准备发布 1.0.0 正式版本了!大家感兴趣的可以去看看呀,可以去提 PR 或者去点点 Star。也可以作为工作流 Agent 的一个实现学习项目。
目前已经快 300star 了呀


目前 300star 了!!!!


📌 转载信息
原作者:
mengnankk
转载时间:
2026/1/4 10:16:06

前言

你是否遇到过这样的场景?

  • 实验室有一台 8 卡 GPU 服务器,几个同学同时跑实验,经常互相 "抢"GPU (是的,我们组是穷组)
  • 想跑一个超参数搜索,需要提交 10 个不同的实验,还要记得哪个实验用了哪些参数
  • 训练完模型后需要做评估,但总是要手动盯着训练什么时候结束

Gflow 就是这样一个解决方案。

Gflow 是一个用 Rust 编写的轻量单节点作业调度器,专为管理和调度机器学习 / 深度学习任务而设计,特别是在具有多 GPU 资源的机器上。

他会帮你:

  • 自动排队:提交任务后自动排队,有空闲 GPU 就运行
  • 时间限制:防止失控任务无限占用资源
  • 任务依赖:自动管理多阶段流水线(数据处理→训练→评估)
  • 实时监控:随时查看任务状态和资源使用情况
  • 日志管理:自动保存每个任务的输出日志

安装

gflow 支持 cargo, conda 安装

conda install -c conda-forge gflow
# or
cargo install gflow

快速上手

# 启动后端
gflowd up
# 提交需要 1 个 GPU 的训练任务
gbatch --gpus 1 python train.py
# 依赖上一个任务结束
gbatch --depends-on @~1 python evaluate.py 

查看依赖关系树:

gqueue -t

# 输出:
JOBID    NAME         ST    TIME         TIMELIMIT
1        preprocess   CD    00:02:15     00:20:00
└─ 2     train        R     00:15:30     04:00:00
   └─ 3  evaluate     PD    00:00:00     00:10:00

搜索参数

gbatch -g 1 --param scale=2:0:-0.1 python train.py --model_id 0 --scale {scale}

自动探测 conda 环境

在默认情况下,gbatch 将会探测当前 shell 激活的环境,并作为脚本执行前激活的 conda 环境

conda activate lala
gbatch -g 1 --param scale=2:0:-0.1 python train.py --model_id 0 --scale {scale}
# or 手动设置
gbatch -c tran -g 1 --param scale=2:0:-0.1 python train.py --model_id 0 --scale {scale}

https://github.com/AndPuQing/gflow


📌 转载信息
原作者:
PuQing
转载时间:
2026/1/4 10:16:02

1,部分重组后端,优化了 PAD 系统回传时带上模型思考原因
2,优化了日记向量化的模式,不再采用全篇向量,而是根据 highlight 进行日期 + 单个 highlight 的向量化处置,更易命中并且查找对应日记及历史记录
3,优化了 atri-self-review,改为便签,减少长尾效应
4,优化 working memory,改为两天全量对话记忆,更符合人类记忆模式
5,增加读取具体聊天记录的工具,可以让模型精确回答某个时间段的问题
注意,碰到带有思考签名的模型(如 Claude-opus-4-5-thinking),会显示无思考签名导致对话失败。所以,要么上游采用无思考签名的模型(或者过滤思考,只输出结果,如 sukaka-gcli2api 项目中的 opus-4-5),要么帮帮我提交个 pr,毕竟小白不是很懂如何去除这个
部署
部署脚本在 scripts 中的那个 CF-deploy 脚本,可以按照要求一步一步来。就是先打开代理,然后设置你的 worker 名字,可以用默认名称,一路 enter,然后配置 URL,key ,记住自己的 worker 名称。如果 worker 名字被墙的话,要么魔法,要么挂一个自己的域名
我已经配置好了向量模型,是硅基流动的免费模型,可以在站内自行搜索免费硅基流动 key 进行填写,必填项目,否则日记无法发挥完整作用!向量模型也可以更改!
日记模型可以不填,用主对话模型(或者你选一个便宜一点的模型填上)后续可以进行 npm run deploy 同步更新(如果我仓库更新的话)
技术原理
可以见我的 github 页:

原主贴:


📌 转载信息
转载时间:
2026/1/4 10:13:26

SimTradeLab 内置:

  • 撮合引擎
  • 除权除息计算
  • 分红计算
  • 延迟模型
  • 滑点模型
  • 部分成交
  • 交易所规则
  • 账户模型
  • 跨平台(Win/Mac/Linux)

SimTradeLab 的目标很简单:

做一个真正开源、可扩展、跨平台、系统级模拟的量化研究实验室,并且在兼容 pTrade 的同时,把速度提升一个数量级。同样的策略,同样的数据,SimTradeLab 回测速度比 pTrade 快 20–30 倍。

这不是 “理论值”,是实测。

系统级模拟(不是玩具回测)

回测结果 ≈ 实盘行为,而不是 “纸上富贵”。

适合谁?

  • 想摆脱 pTrade 但又不想重写策略的人
  • 想要开源、可扩展、可二次开发的量化框架
  • 想做系统级模拟(延迟 / 滑点 / 撮合)的研究者
  • 想做 ML + 策略 + 回测一体化的团队
  • 想要高性能回测引擎的工程师
  • 想构建自己量化平台的独立开发者

SimTradeLab 的设计哲学是:

开源、可扩展、工程化、系统级、性能优先。

项目地址(GitHub)

最后一句话

SimTradeLab = pTrade 兼容 + 20–30 倍速度 + 开源 + 系统级模拟 + 策略优化器。 这是一个为工程师和研究者打造的真正量化实验室。


📌 转载信息
原作者:
kayou
转载时间:
2026/1/4 10:13:14

可复用的量化交易机器学习框架

SimTradeML 是一个设计简洁、易于扩展的机器学习训练框架,专为量化交易场景设计。无缝集成 SimTradeLab,直接读取本地 h5 数据文件 SimTradeData 进行模型训练。


📌 转载信息
原作者:
kayou
转载时间:
2026/1/4 10:12:57

各位佬友们好,

不知道大家有没有过这种感觉:看着相册里那 “成千上万” 的数字,心里其实是恐惧的。每当存储空间告急,想要下定决心整理一下,却总是被翻不到头的照片流劝退。

我就是这种 “照片整理恐惧症” 的重度患者。为了自救,我开发了这款名为 PickPic 的软件。它不只是为了删除,更是为了让你在整理时不再感到 “累”。

为什么它能减少整理疲劳?

1. 核心特色:随机展示(拒绝审美疲劳)

这是我个人最看重的功能。传统的整理软件总是从最新或最旧开始排,翻两页就腻了。PickPic 会随机抽取照片和视频展示给你。
这种 “开盲盒” 式的整理方式,能让你在不经意间回顾往昔,极大地缓解了面对几千张连拍图时的那种枯燥感。

2. 交互:上滑删除,下滑保留

模仿卡片流的交互逻辑:

  • 上滑:丢进待删列表。

  • 下滑:保留这张回忆。
    这种简单的二选一逻辑,不需要你在细碎的格子间点点选选。

3. 沉浸式视频流

视频清理最占空间。我把视频做成了类似短视频的沉浸流,你可以快速扫视视频内容,瞬间判断它的去留。

关于设计的一点想法

在设计之初,我深受 iOS 26 那种液态玻璃 (Liquid Glass) 美学的影响。那种通透、流动的质感非常迷人。

由于我并不是专业的 UI 设计师,光靠写代码去复刻那种顶级的视觉效果确实很有挑战。现在的成品虽然还远未达到那种 “完美” 的程度,但我依然通过 cc 来保留了这种尝试,比如纯黑的背景和带有阻尼感的水滴式 TabBar。希望在功能实用的基础上,能带给大家一点点视觉上的新鲜感。

一个已知问题(求助佬友)

由于我手头能测试的机型有限,目前在 MIUI/HyperOS 机型上发现了一个比较棘手的适配问题:

现象描述
软件可以成功执行本地删除,但如果手机开启了 “小米云备份”,删除操作后回到系统相册,你会发现照片依然存在。
背后的逻辑
这其实是系统自动从云端拉取了原图或缩略图。表现为照片看着还在,但点开时会模糊一下(正在重新下载)。

求助

  • 我不确定其他品牌的手机(如华为、OPPO、vivo)是否也有类似的云同步恢复情况。

  • 如果有大佬知道如何通过 API 彻底同步触发云端删除,或者有相关的绕过思路,恳请在评论区指点迷津!

获取方式

项目纯本地运行,不申请任何联网权限,隐私安全可以放心:

结语

这算是我第一个正式成型的安卓开源小作。它还不完善,但它确实帮我清理掉了不少陈年废片。

如果你觉得这个思路有点意思,欢迎试用并赏个 Star 支持!

每一条评论我都会认真读,也期待能在评论区和大家讨论如何把这款 “碎纸机” 做得更趁手。

希望能陪你一起,清空相册,也清空焦虑。


📌 转载信息
原作者:
Unfair0
转载时间:
2026/1/4 10:12:32

音视频增强脚本(Taocrypt 魔改版):无极调速 | 长按倍速 | 快乐刷剧 | 视频下载 | 画面截图等「适用大部分网站」

摘要

本文系统梳理我对 h5player 脚本的 “魔改” 过程,重点在于将移动端 “长按倍速” 手势与 h5player 原有倍速逻辑进行深度桥接与共存。改造不仅保持了原脚本的全部功能,还在 DPlayer 等自定义播放器场景下通过全局捕获层实现了手势兼容,最终达成 “在绝大多数网站上稳定可用” 的目标。

背景与原脚本概览

h5player 是一个针对 H5 音视频网站的增强脚本,提供倍速控制、截图、画中画、网页全屏、画质调节、下载能力等丰富功能,覆盖 B 站、抖音、优酷、爱奇艺、YouTube、知乎、微博以及各类课程平台与网盘站点。其内部对 HTMLMediaElement 属性(如 playbackRatevolumecurrentTime)进行了劫持与锁机制设计,以增强抗干扰能力,避免站点自行重置速度或音量。

与此同时,“手机长按倍速” 这一轻量手势逻辑在移动端场景非常自然:长按视频左半区以 1.0× 为基速,右半区以 2.0× 为基速;长按期间上滑加速、下滑减速,松手恢复原速。该脚本完全基于原生 API 编写,递归支持 Shadow DOM 与同源 iframe,并提供轻提示(右上角半透明倍速)与轻微振动反馈,体验上更贴合触屏设备。

改造动机与目标

在实际使用中,移动端手势与 h5player 的倍速管理可能产生冲突:站点脚本或 h5player 内部锁机制会在某些时刻 “回写” 速度,使得长按调速不生效。改造目标如下:

  • 保留 h5player 原有全部功能与配置能力;
  • 将 “长按倍速” 完整注入并与 h5player 的倍速 API 协同,确保设置生效且不被轻易回写;
  • 在 DPlayer 等自定义覆盖控件场景下,确保手势事件能够被捕获并映射到真实的 video 元素;
  • 跨 Shadow DOM 与同源 iframe 深度扫描,降低漏绑概率。

改造过程详解

1. 合并策略与元数据处理

将 “长按倍速” 脚本主体(IIFE 部分)追加到 h5player 代码末尾,避免多重 // ==UserScript== 头部冲突;保留并更新 @name/@description 多语言元数据,说明 “Taocrypt 魔改版” 的新增能力与兼容性;清理所有无意义的站点页面残留文本,使脚本自 // ==UserScript== 起始。

2. 速率设置的协同与桥接

改造核心在于 兼容层

function setPlaybackRateCompat(video, rate) {
  // 优先获取 h5player 实例(window._h5Player 或常量 h5Player) const t = (window._h5Player && typeof window._h5Player.setPlaybackRate === 'function')
            ? window._h5Player
            : (typeof h5Player !== 'undefined' ? h5Player : null);
  if (t && typeof t.setPlaybackRate === 'function') {
    // 将当前触发的 video 作为活动实例,并初始化其代理与锁 if (video && t.playerInstance !== video) {
      t.playerInstance = video;
      try { t.initPlayerInstance(false); } catch (e) {}
    }
    // 协同设置倍速:先解锁、再设置、再短锁,防止站点回写 try { t.unLockPlaybackRate(); } catch (e) {}
    t.setPlaybackRate(rate, true);
    try { t.lockPlaybackRate(800); } catch (e) {}
    return;
  }
  // 无 h5player 时的事件协商与兜底 try {
    const evt = new CustomEvent('h5player:requestSetPlaybackRate', { detail: { video, rate } });
    document.dispatchEvent(evt);
  } catch (e) {}
  try {
    video.playbackRate = rate;
    try { video.dispatchEvent(new Event('ratechange')); } catch (e) {}
  } catch (err) {
    const desc = Object.getOwnPropertyDescriptor(HTMLMediaElement.prototype, 'playbackRate');
    if (desc && typeof desc.set === 'function') {
      desc.set.call(video, rate);
      try { video.dispatchEvent(new Event('ratechange')); } catch (e) {}
    }
  }
}

该桥接使长按倍速直接走 h5player 的源逻辑,兼具解锁 / 短锁节奏,显著提高 “设定后不被回写” 的稳定性。

3. 事件捕获优先级与传播策略

为减少与站点自定义控件的冲突,手势监听改为在捕获阶段执行:

  • touchstart/touchmove/touchend 采用 { passive: false, capture: true }
  • 将原本的 stopImmediatePropagation() 调整为更温和的 stopPropagation(),降低与宿主脚本的事件冲突概率;
  • 在滑动阶段主动 preventDefault(),提升在覆盖层上的手势生效率。

4. DPlayer 等自定义播放器的兼容

面对 DPlayer 这类 “控件层覆盖 video” 的场景,新增 全局捕获层

  • document 捕获阶段监听触摸事件;
  • 通过点击坐标递归查找命中区域内的 video(含 Shadow DOM);
  • 命中后复用同一套长按逻辑,并通过兼容层桥接到 h5player 源倍速;
  • 该层仅在命中 video 时工作,避免无谓干扰。

这一策略显著提升了在自定义播放器上的手势触发成功率,确保 “长按倍速” 在更多实际站点生效。

新增功能特性总览

下表总结了本次改造后的核心特性与设计要点。

特性设计要点预期效果
源逻辑桥接长按倍速走 h5player setPlaybackRate/lockPlaybackRate,含解锁 / 短锁节奏设置更稳,不易被站点脚本改回
全局捕获层document 捕获 + 坐标命中 video,递归 Shadow DOMDPlayer 等控件覆盖场景下依旧可触发长按
事件传播策略捕获阶段监听、滑动阶段 preventDefault() + stopPropagation()减少冲突,提高手势有效性
深度扫描初始高频扫描 + MutationObserver 持续监听 + iframe 递归降低漏绑概率,适配动态加载
轻提示与振动右上角倍速提示 + navigator.vibrate(设备支持)反馈清晰,手感良好
多语言元数据更新 @name/@description(zh/zh-TW/ja/ko/ru/de/en)便于国际用户识别改造版
无冗余文本清理脚本头部无意义页面残留文件更干净,可直接安装

安装与使用指南

安装建议采用 “单脚本模式”:在脚本管理器(Tampermonkey / Violentmonkey)中新建脚本,将合并版代码整体粘贴并保存。为避免双重绑定导致提示重影或倍速冲突,请禁用或删除独立的 “手机长按倍速” 旧脚本,仅保留合并版。

移动端手势操作说明如下:

  • 长按视频左半区:以 1.0× 为基速进入长按模式;
  • 长按视频右半区:以 2.0× 为基速进入长按模式;
  • 长按期间上滑:提高倍速(最高 16×);
  • 长按期间下滑:降低倍速(最低 0.25×);
  • 松手:恢复至长按前的原始倍速。

兼容性与适配建议

在绝大多数网站场景下,合并版脚本能稳定工作。但若个别站点对触摸事件做了强拦截或采用复杂的播放器封装(自定义组件、闭合 Shadow DOM、跨域 iframe 等),仍可能需要额外适配:

  • 若出现 “长按无效”,可先确认是否命中到主 video(含全屏 / 网页全屏时的容器变化);
  • 个别站点可能在极短时间内通过自身脚本改回倍速,可适当提高短锁时间(例如 1200ms);
  • 遇到跨域 iframe 无法访问 DOM 的情况,逻辑会自动忽略该容器,不影响主页面运行。

常见问题(FAQ)

Q1:桌面端是否需要长按倍速?
A:桌面端通常使用快捷键与菜单进行倍速控制,长按倍速主要面向移动端触屏场景。两者可在同一脚本中共存。

Q2:是否会影响 h5player 的其它功能?
A:不会。改造严格遵循 “保留原功能” 的原则,未删减任何原有能力。必要时通过桥接与短锁保障倍速生效。

Q3:为何新增了全局捕获层?
A:为解决自定义控件覆盖 video 的场景(如 DPlayer)。全局层在捕获阶段工作且仅在命中到 video 时启用,不会影响普通页面行为。

版本信息与致谢

  • 作者与改造:Taocrypt(mod);原作者:ankvps
  • 许可协议:GPL
  • 修改日期:
  • 主要改动:
    • 注入手机长按倍速手势,桥接至 h5player 源倍速;
    • 新增全局捕获层,适配 DPlayer 等控件覆盖;
    • 深度扫描与事件策略优化;
    • 多语言元数据更新与无意义文本清理。

结语

通过本次改造,移动端的 “长按倍速” 手势与 h5player 的倍速生态得以真正融合,既保留原有强大的增强能力,又赋予触屏设备更自然高效的操作方式。欢迎在更多站点上试用,并反馈兼容问题与改进建议,以进一步完善整体体验。


📌 转载信息
转载时间:
2026/1/4 10:08:55

各位佬友好,最近在折腾 NoneBot2 机器人的时候,发现有时候 LLM 或者其他插件可能会输出一些不该说的 “违禁词”,导致账号风控或者刷屏炸群。 为了解决这个问题,我先找了插件商店但是没有类似的词汇黑名单插件,我弄了一个主动审查插件 nonebot-plugin-word-censor,主要用于拦截机器人发出的消息。

项目地址 Github: https://github.com/ChlorophyTeio/nonebot-plugin-word-censor

目前插件已经上传并申请发布,商店发布检查结果已经通过。

安装插件后,机器人的处理将变为:收到 QQ 消息 → Nonebot 其他插件 → nonebot-plugin-word-censor → 发送 QQ 消息。

测试效果如图

原理主要是利用了 NoneBot 的 Bot.call_api 钩子机制。在 API 调用前,检查 data['message'] 字段。如果命中黑名单,则直接 Raise 一个 Mock 异常,欺骗上层调用者 “API 调用已完成” 或者直接中断,从而阻止请求发送到 OneBot 端。

这个审查插件比较简陋,后续会不断优化它,欢迎佬友们提 Issue 并给予意见。


📌 转载信息
原作者:
chlorophyimo
转载时间:
2026/1/4 10:08:43

其实只是因为不是 23 岁就看不到好结局了



怎么会有人连开始游戏的成就都没有呢?奇怪捏

中文配音哦

Steam 免费开玩:

安卓用 4399 :

鉴赏家说:推荐
“没想到画师小姐真的是 23 岁的合法萝莉,我还以为是未成年来打童工了。” 这不仅是每个玩家刚开始游戏时最真实的想法,同样也是贯彻全作中苏幼晴遭受的隐形歧视:仅仅因为外表的幼小而找不到工作,其他人也会因为这点而瞧不起她,反而是在网络上装作强大的御姐大受欢迎。如果不是主角无微不至的关心与爱,她可能真的选择放弃自己的本真而强装成熟了。所幸 HE 中都未发生。另外,别错过音声特典哦~
评测员:三村绫野

来自朋友推荐~


我还没玩,有时间玩一下 官方说至少两个小时 w


📌 转载信息
原作者:
StellaFortuna
转载时间:
2026/1/4 10:08:00

[Edit - I’ve converted my post from English to Chinese for better understanding]

你好,

这是我的第一篇帖子,内容是关于创建令人惊艳的落地页。

如果你们需要一个令人惊艳的落地页,请告诉我你的具体需求,我至少可以在落地页方面帮助你,相信结果一定会让你感到惊喜。我会尽最大努力满足每一项要求。


最新作品:



使用的提示词

注意 - 这个提示词不是我个人创作的,我只是在研究时从 Reddit 上找到了几个提示词,这个是我测试过的所有提示词中表现最好的一个。

提示词在这里上传的 PDF 文件中。

Landing Page Prompt.pdf | 附件


HTML 文件

我尝试上传创建的 HTML 文件的源代码,但在发帖时提示字符数超过了 64,000 的限制。因此,我以压缩格式直接上传 HTML 文件。请使用任何解压软件解压文件,你就能找到 HTML 文件。

The-Gilded-Hour-MembersOnly-Supper-Club.html.zip | 附件


如何操作?

  1. 你可以使用以下平台生成落地页:Roo code、Kilo code 或 Cherry studio。
  2. 请复制并粘贴 PDF 中落地页提示词的全部内容。
  3. 收到响应后,你只需简单地请求模型继续创建落地页。
  4. 请使用思维模型(thinking models),因为这些模型提供了最佳效果。


感谢所有的开发者,感谢这个社区以及所有人所做的一切。我很高兴能够建立联系,如果有人需要我的帮助,我随时乐意提供协助。


📌 转载信息
转载时间:
2026/1/4 10:06:53

已经开放注册,仅作为学习演示。

请勿投入正式使用,仅作为功能对比演示。

此站点为临时部署,任何时候都有可能清空数据库。

如有需要商用或者正式使用,请自部署或者寻求官方服务,本人不对任何数据丢失负责。

Bitwarden Lite
Vaultwarden

地区限制;仅 内地以及港澳台


📌 转载信息
原作者:
preacher
转载时间:
2026/1/4 10:06:16

VGORC Tournament Manager

仓库地址

功能介绍

  • 适用于 VEX GO Robotics Competition 的赛事管理系统
  • 全平台兼容
  • 支持队伍管理、分区管理、对阵表生成、技能赛、比赛计时、比赛成绩录入
  • 支持排名表生成、成绩发布、Grafana 云发布等功能
  • 自定义赞助商列表
  • 自动数据库备份
  • 树莓派投屏

使用截屏

首页管理员界面
成绩录入界面计时界面
对阵表生成界面排名表界面

碎碎念(与本项目关系不大)

很感慨,我从 2018 年开始参与 VEX 机器人比赛,到 2023 年进入世锦赛前 5,我对这个世界上最大的机器人比赛感情颇深。从 2023 年开始成为赛事伙伴(EP)。这个项目是我觉得官方的使用 Python 2(没错是 2)开发赛事管理器太难用,尤其是对于 GO 这个小学组赛段,于是开发了这个系统,稳定运行了 3 年。

随着官方的规则越来越复杂,上了大学后也很少有精力再去维护这个项目,索性把授权功能删掉,开源,以后估计还是继续在 EP 中担任技术支持。

如果有兴趣的佬友可以在符合 Apache License 的情况下拿去随便改,改成适合自己比赛的赛事管理器。在制作这个项目的期间,我学到了远超这个比赛可以带给我的知识,同时收获了金钱和赞许。我真的很快乐


📌 转载信息
原作者:
lightum_cc
转载时间:
2026/1/4 10:05:47

纯 Vibe Coding 镇楼!!!

为啥要搞这个

最近一直在用 cc 云 + GitHub Codespaces纯云开发,但踩了两个痛点。

  • 1. cc 的纯云掉 token 感觉比正常使用快
  • 2. 发布 PR > 合并 PR > Codespaces 拉取代码 这套流程有点繁琐,而且手机操作不方便
    (其实现在我这个也不太方便,因为终端操作比较费劲)

所以就因为这些原因我开发了这个项目:docker + cc + code-server
主要还是自用,但感觉功能还不够完善。

大家如果愿意当小白鼠的话可以尝试下 XDDDDDDDD
(白鼠哥们我写的不好千万轻喷我谢谢你们了)

关于 CC API / Key(重要说明)

  • 项目本身不提供 CC API,只有壳子环境
  • 需要的话可以通过 2api 方案转出来 key,然后通过环境变量直接设置即可。

具体的使用方案今天有点晚了,明天发个教程吧。

另外这个项目的配置有点蛮繁琐的,因为涉及到 code-server 代理的问题。

项目地址:GitHub - qinsehm1128/cloud_claude_code
SEO 优化页:https://ccc.qinshm1128.top

主要界面:


📌 转载信息
转载时间:
2026/1/4 10:05:03

央视网消息:据国家广播电视总局公众号消息,为整治 “AI 魔改” 视频传播乱象,国家广播电视总局自 2026 年 1 月 1 日起,在全国范围内开展为期一个月的专项治理。

随着生成式人工智能技术快速发展,部分网络账号滥用 AI 工具,对经典影视、动画片等内容进行颠覆性篡改、魔性解构与低俗化改编,这些内容严重背离经典作品精神内核,扰乱网络传播秩序,助长侵权行为,危害行业发展,干扰未成年人形成正确文化认知和现实感知。

专项治理重点清理基于四大名著、历史题材、革命题材、英模人物等电视剧作品进行 “AI 魔改” 的下列视频:一是严重违背原作精神内核和角色形象,颠覆基本认知,解构普遍共识;二是内容渲染血腥暴力、猎奇低俗,宣扬错误价值观,违背公序良俗;三是存在对中华文化挪用、篡改的突出问题,导致对真实历史时空、中华文明标识产生明显错位认知,冲击文化认同。专项治理同步清理将少年儿童所熟知、所喜爱的动画形象进行改编生成的各类邪典动画。

专项治理要求网络视听平台落实主体责任,强化内容审核把关,坚决清理违规内容,处置乱象突出的账号,扭转 “AI 魔改” 视频蔓延的不良态势,为青少年健康成长营造良好网络空间。

专项治理后,广电总局将认真总结,进一步研究制定综合治理举措,健全工作机制,保持治理的常态化、长效化。

国家广播电视总局部署开展 “AI 魔改” 视频专项治理_新闻频道_央视网 (cctv.com)


📌 转载信息
原作者:
rs4226
转载时间:
2026/1/4 10:02:33

又看到一个免验证的 API 站

不绑卡、不验证邮箱可以直接注册成免费用户
他免费用户分成两个层面
第一层面以下这些模型无限使用 (只卡 RPM)
gemma-free
gemini-free
gpt-free
glm-free
hermes-free
llama-3.1-8b-instruct-turbo-free
llama-3-8b-instruct-free
llama-3.1-70b-instruct-free
llama-3.1-8b-instruct-free
llama-free
llama-3.2-3b-instruct-free
ministral-free
mistral-free
qwen-free
另一层是其他免费层模型限量使用
例如 deepseek,kat-coder-pro,kimi-k2,minimax,mimo-v2-flash

有兴趣可以玩看看

至于持续性 我看开发者是这么说的


📌 转载信息
原作者:
josenlou
转载时间:
2026/1/4 10:02:20