2025年12月

Meeting Mind 是一个智能会议记录与分析系统,结合了实时语音识别(ASR)、说话人分离(Diarization)和本地大语言模型(LLM)智能分析功能。它能够实时转录会议内容,区分不同的发言者,并利用本地部署的 LLM 自动生成会议标题、总结、关键要点和行动项,确保数据隐私和安全

核心功能

功能描述
实时语音转写基于 FunASR (SenseVoiceSmall) 模型,提供高精度的实时语音转文字功能
本地 LLM 智能分析集成 Transformers/vLLM,支持 Qwen2.5 等本地大模型,自动生成会议总结、要点和行动项
说话人分离自动识别并区分会议中的不同发言人(基于 CAM++ 说话人识别模型)
异步重新转写支持对历史会议录音进行后台重新转写,优化转录质量
涉密模式切换支持本地处理(涉密)与云端高精度转写(非涉密)两种模式
移动端适配响应式设计,支持手机和平板访问
深色/浅色模式提供舒适的 UI 体验,支持一键切换主题

技术栈

后端

  • 框架:Python 3.10+, FastAPI
  • ASR:FunASR (SenseVoiceSmall, FSMN-VAD, CAM++)
  • LLM:Transformers / vLLM (GPU 加速), Qwen2.5-1.5B-Instruct
  • 依赖管理:uv

前端

  • 框架:React 18, Vite, React Router
  • 通信:WebSocket (实时语音流)

📌 转载信息
原作者: mini_h
转载时间: 2025/12/31 21:52:40

做 TGmessage 的初衷特别纯粹 —— 上班想刷 Telegram,又怕窗口太显眼被领导抓包,每次切屏都提心吊胆,市面上没找到趁手的工具,干脆让AI搞一个。

核心想法就是 “伪装性”:基于 Telethon 做底层,把 TG 的核心功能(查未读、发文本、标已读)搬到命令行里,黑白界面看着就像在敲代码、查日志,完美融入工作场景。同时得兼顾实用性,所以做了可编程 API 和专门的 fishing_tool,支持按对话定位、消息追踪,操作起来够高效,不用额外花时间琢磨用法。

开发时优先保证了文字消息的流畅体验,暂时没加图片、视频支持 —— 毕竟摸鱼场景里,能悄悄处理文字沟通、看资讯就够了,先解决 “不被抓包” 这个核心痛点。希望能帮到有同样需求的打工人,让大家摸鱼也能摸得安心


📌 转载信息
原作者: 1761031276
转载时间: 2025/12/31 21:52:02

建议:正在使用的,请勿将硬盘插在第二盘位(自上而下)!!!

机器买了一年多,连接 hdmi 后发现以下日志,心急,则翻阅论坛,即炸裂 [裂开]。(早知道我就不插上看了)

错误日志图

日志分析

failed command: read fpdma queued
cmd 60/20:c0:a0/40 tag 24 ncq dma 16384 in
res 40/00:01/00
emask  (ATA bus error)

I/O error, dev sdb, sector  op :(READ) flags  phys_seg 20 prio class 2
I/O error, dev sdb, sector  op :(READ) flags  phys_seg 1 prio class 0 

问题磁盘: /dev/sdb
发生了真实的扇区级读失败(不是假警告)

定位硬盘

使用 lsblk -o NAME,SIZE,MODEL,SERIAL 查看具体硬盘

lsblk -o NAME,SIZE,MODEL,SERIAL                                                                                                                                                                              [11:48:07]
NAME                                                SIZE MODEL                SERIAL
sda                                               931.5G ST1000LM048-2E7172   WL1HEJxx
└─sda1                                            931.5G                      
  └─md2                                           931.4G                      
    └─trim_fab54333_73e1_4bd0_baf0_fdb72d57d8ed-0 931.4G                      
sdb                                                 3.6T ST4000VX015-3CU104   WW61CSxx
└─sdb1                                              3.6T                      
  └─trim_d40587c6_18b6_4db3_9359_237872b18a17-0     3.6T                      
sdc                                                 3.6T ST4000HKVS002-3FC104 ZW62Gxx6
└─sdc1                                              3.6T                      
  └─trim_9726de6a_cbfd_46e8_b127_0c8fc7c256c6-0     3.6T                      
sdd                                               931.5G ST1000LM048-2E7172   WKPMBxxD
└─sdd1                                            931.5G                      
  └─md1                                           931.4G                      
    └─trim_16968c37_6319_46a0_a0a1_5ae27b7e203e-0 931.4G                      
nvme1n1                                             1.9T HYV2TBX4             AA00000000000xx
└─nvme1n1p1                                         1.9T                      
  └─md127                                           1.9T                      
    └─trim_9bc1fdd1_427c_42ff_b047_e09c1f754af0-0   1.9T                      
nvme0n1                                           931.5G CT1000P3PSSD8        241948CD5Fxxx
├─nvme0n1p1                                          94M                      
├─nvme0n1p2                                        63.9G                      
└─nvme0n1p3                                       867.5G                      
  └─md0                                           867.4G                      
    └─trim_0de1354b_706d_48a3_b114_d461ee176ec3-0 867.4G           

更具日志分析到的挂载位置 /dev/sdb

sdb                                                 3.6T ST4000VX015-3CU104   WW61CSxx
└─sdb1                                              3.6T                      
  └─trim_d40587c6_18b6_4db3_9359_237872b18a17-0 3.6T 

确定是否与飞牛 CRC 磁盘信息一致

磁盘信息查看

查阅 CRC 错误开始时间

我的机器安装过飞牛后并未刷机,因为经常更新系统重启,故只能通过 /var/log/kern.log 日志查出

sudo grep "I/O error, dev sdb" /var/log/kern.log* | tail

如果从未关机重启可通过 journalctl 查找

sudo journalctl -k | grep "I/O error, dev sdb" | head -n 1

问题定位须知

如何获取历史日志

  • hdmi 连接显示器查阅
  • 通过 sudo grep "I/O error" /var/log/kern.log*sudo journalctl -k | grep "I/O error"

日志关键词

2024-11-28T12:45:23.027750+08:00 fnos-nas kernel: [1789895.599316] I/O error, dev sdx

后续定位 需要根据 dev sdx 关键词定位挂载位置 /dev/sdx,配合 lsblk -o NAME,SIZE,MODEL,SERIAL 可查阅出硬盘序列号以及型号

尝试性解决

更新 bios,升级教程

部分机器屏蔽 IO 可能有效吧,但是我的机器并无效果,错误依旧。

售后

机器是 2024 年 10 月份买的,质保内京东官方售后邮费需要自费(给爷整笑了),机器后背拆过清灰则无质保。

购买过机器的还是检查一下硬盘吧,数据无价。


📌 转载信息
原作者:
gouzei
转载时间:
2025/12/31 17:19:28

简介

AutoCFT(Automate Cloudflare Tunnel)是一个简化 Cloudflare Tunnels 配置和运维的开源工具,适合 Self-hosted 的 Docker 环境,主要提供配置自动化更新,避免频繁登录 Zero Trust Dashboard 进行更新;通过 Docker 或 Docker compose 部署,便于管理;采用 Go 实现,轻量化结构;中英文文档完整。

项目地址:GitHub - cloudfogtech/autocft: A tool for Docker Compose to automatically update access endpoints to Cloudflare Tunnel.

官方文档:https://autocft.cloudfogtech.ltd/

部署与使用

要使用 AutoCFT,基本上默认已经有 Docker 环境了,下面的教程将直接基于 Docker 环境开始。

AutoCFT 部署

services: autocft:  cloudfogtech/autocft:latest container_name: autocft restart: always environment: - AUTOCFT_CF_API_TOKEN=<AUTOCFT_CF_API_TOKEN> - AUTOCFT_CF_ACCOUNT_ID=<AUTOCFT_CF_ACCOUNT_ID> - AUTOCFT_CF_TUNNEL_ID=<AUTOCFT_CF_TUNNEL_ID> volumes: - /var/run/docker.sock:/var/run/docker.sock:ro - /root/data/autocft:/app/data networks: - test_net networks: test_net: external: true 

必填参数获取指南:https://autocft.cloudfogtech.ltd/zh/cloudflare.html

Cloudflared 部署

宿主机部署

如果 Cloudflared 在宿主机部署,则需要为每个应用增加端口映射。auto.service 设置为从宿主机访问的地址。

容器部署

services: cloudflared:  cloudflare/cloudflared:2025.11.1 container_name: cloudflared restart: always command: tunnel run environment: - TUNNEL_TOKEN=<TUNNEL_TOKEN> networks: - test_net networks: test_net: external: true 

容器部署的情况下,所有容器应该处于同一网络,因此不需要端口映射到宿主机,直接通过 Docker 网络访问。

示例应用

下面将部署示例应用展示应用如何和 AutoCFT 结合使用

普通应用

services: nginx:  nginx container_name: nginx restart: always # 宿主机部署Cloudflared需要开启端口映射 # ports: #   - "80:80" volumes: - /etc/ssl/certs:/etc/ssl/certs:ro labels: - autocft.enabled=true - autocft.hostname=nginx.example.com - autocft.service=http://nginx:80 # 宿主机访问地址为本地方位映射的端口 # - autocft.service=http://localhost:80 networks: - test_net networks: test_net: external: true 

HTTPS 应用

services: nginx:  nginx container_name: nginx restart: always # 宿主机部署Cloudflared需要开启端口映射 # ports: #   - "443:443" volumes: - /etc/ssl/certs:/etc/ssl/certs:ro labels: - autocft.enabled=true - autocft.hostname=nginx.example.com - autocft.service=https://nginx:443 # 宿主机访问地址为本地方位映射的端口 # - autocft.service=https://localhost:443 - autocft.origin.origin-server-name=nginx.example.com # 如需忽略TLS证书验证,请设置下面的值 - autocft.origin.no-tls-verify=true networks: - test_net networks: test_net: external: true 

应用部署后,默认配置的情况下大约 10s 后,配置将同步到 Tunnel,就可以访问了。

问题与反馈

两种方式供君挑选

  • 跟帖反馈
  • 通过 Github Issue 反馈


这算是我首次成体系的一个开源项目,在 2025 年末给大家一个更便于使用的工具,也给我自己做一个 2025 年的总结。

感谢始皇和 linux.do 平台的各位佬提供的各种教程、公益资源和这个交流的平台,缘分让我们聚在一起。

真诚友善团结专业 ,共建你我引以为荣之社区。

预祝 2026 的各位佬事业步步高升,生活顺心如意~linux.do 做大做强,再创辉煌~

新年快乐


📌 转载信息
原作者:
catfishlty
转载时间:
2025/12/31 17:14:05

主要功能
上传一张白底图,自动分析商品特征,生成 Front, Side, Top 等 9 种不同角度和场景的高质量营销图。
基于生成的图片,一键转换为动态视频(支持 Sora/Veo 等模型接口)
自动编排分镜,生成连贯的故事性视频脚本和画面。
置完善的用户系统,支持多用户登录、权限隔离(管理员 / 普通用户)及用量统计。
支持自定义 API Endpoint 和模型参数,兼容 OpenAI 格式接口。









📌 转载信息
原作者:
miludeerforest
转载时间:
2025/12/31 17:13:00

IT 之家 12 月 30 日消息,据科技媒体 Windows Latest 今天报道,一则招聘信息显示,微软内部正在酝酿代号为 “Project Strong ARMed” 的新项目,隶属于体验与设备(E+D)事业部,旨在将基于 x64 架构的项目代码优化并迁移至 WoA


微软在招聘信息中写道:“应聘者将作为 Project Strong ARMed 的高级软件工程师,参与战略性计划,加速体验与设备事业部转向 ARM64 架构。他将与工程、研究团队合作,设计并实现可扩展系统,利用生成式 AI 与程序分析,自动化地让软件从 x64 架构转向 ARM64 架构”。

不过目前我们还不清楚这项计划是面向消费级市场还是企业级市场,但如果微软真的能实现上述内容,那对于 ARM64 生态兼容性而言将是重大进展。

微软还提到:“该岗位将在第一方自研芯片 Cobalt 100 的应用方面处于核心位置,通过 AI 智能体与自动化技术,将现有 x64 工作负载移植到 ARM 兼容平台”。

需要指出的是,Cobalt 100 并非面向普通消费者,而是用于微软自家的 ARM 服务器。因此我们可以合理推断该项目更可能与云相关,而非面向消费者方向。
招聘还写道:“应聘者将构建并部署 AI 驱动的软件工程智能体,将代码库从 x64 架构迁移至 AnyCPU,以及从 Windows 向 Linux 的移植”。

目前,大多数微软服务和内部应用都是围绕 x64 架构构建,由于 CPU 架构有别,这些应用不能原生运行在 Windows on Arm 系统上。不过无论如何,移植代码绝不是 “重新编译一下就完事”,尤其是那些设计 Windows 底层、内部工具或服务的大型代码库。

不过我们目前还不清楚有多少人参与这个项目,但可以看出微软正在投入,且这一方向也合乎时代逻辑。Windows on Arm 并不完美,但也在逐步发展,也有部分消费者因为续航等原因青睐这一平台。


📌 转载信息
原作者:
BunnHack
转载时间:
2025/12/31 12:49:13

白嫖雨云游戏云

根据佬友 fatekey 的帖子 雨云无限白嫖 FRP 服务器攻略(无 aff) 白嫖雨云的游戏云

雨云游戏云你需要知道的

首先雨云的游戏云类似 NAT,你可以在管理面板增加端口映射。其次最重要的是雨云游戏云的终端和普通的 shell 终端不同,它是 Minecraft 服务器控制台,所以不支持一般的 Linux 指令。 那我们要如何让它可以像一个普通 VPS 运行一些我们想要的服务呢?雨云游戏云有一个启动脚本,你可以修改这个脚本,所以你可以通过修改启动脚本进而运行一些我们想要的服务,这个教程带佬们利用启动脚本搭建 Alist

搭建 Alist

  1. 上传 Alist 可执行文件到游戏云中
    你可以通过 https://github.com/AlistGo/alist/releases/download/v3.55.0/alist-linux-amd64.tar.gz 这个链接将 alist 压缩文件下载到本地电脑上,然后在电脑上把这个文件解压,解压后得到 alist 可执行文件,把这个文件上传到游戏云中,并添加执行权限

    修改启动脚本并重新启动终端
    白嫖雨云服务器搭建 alist2
    改成下面内容并重新启动终端(建议终止再开启,直接用重启按钮可能会卡住)
    # 下方编写启动语句 echo "----------------启动alist-----------------"
    ./alist start
    echo 
    java -Xms128M -XX:MaxRAMPercentage=95.0 -jar Paper-1.21.10.jar
    
  2. 修改 Alist 的配置文件,再次修改启动脚本,然后重启游戏云
    当你重启终端后,看到如下就表示 Alist 就成功了

    Alist 默认监听端口是 5244,但是这个端口我们用不了,我们要修改 Alist 的配置文件,将 Alist 端口改成我们在管理面板添加的某个端口。Alist 启动成功后,会在跟目录生成 data 目录,里面的 config.json 文件是 Alist 的配置文件


    修改启动脚本,因我我们修改里 Alist 的配置文件,我们要重启 Alist 才可以让修改的配置文件生效。这里我们还要多做一点,修改一下 Alist 的管理员登录密码,一会登录要用。你可以把启动脚本修改如下,然后重启云游戏服务器
    # 下方编写启动语句 echo "----------------启动alist-----------------"
    ./alist restart # 重启Alist
    ./alist admin set 12345 # 设置Alist管理员密码,你可以设置自己的密码 echo 
    java -Xms128M -XX:MaxRAMPercentage=95.0 -jar Paper-1.21.10.jar
    

    当你看到如下就表示成功了

登录 Alist

通过 xm.rainplay.cn: 你配置文件修改的端口 访问 Alist,然后你就会看到熟悉的 Alist 登录界面


这里用户名 admin,密码 12345,看到下面就表示登录成功了,然后你就可以挂载云盘了

Alist 搭建后可以做什么

  1. 网盘文件互传(可以用 Alist 将一个网盘文件传到另一网盘中)
  2. Alist 提供文件直链下载链接,有了直链,你把直链给别人,别人就可以直接下载这个文件

📌 转载信息
原作者:
nianzhibai
转载时间:
2025/12/31 12:45:46

  • 新增绘图功能(实验),暂时没保存配置入数据库
    多轮对话生图、改图
    支持拖拽上传图片、拖拽调整图片附件顺序,图片附件预览
    支持并发生成 1-4 张图片
    支持提示词翻译
    右侧生成结果区可以对图片预览、下载、删除,可以查看详细参数和提示词

  • fix: 筛选模型时,匹配不到不会直接消失了

同时生成多张图

3

拖拽上传和拖拽排序,预览图片

【YPrompt】新增大香蕉多轮对话生图改图,来体验一下5

提示词翻译

【YPrompt】新增大香蕉多轮对话生图改图,来体验一下3

配置提供商和模型

配置模型参数


📌 转载信息
原作者:
fish2018
转载时间:
2025/12/31 12:44:56

Slin HTTP Studio

Slin HTTP Studio 是一个基于 Flask 功能强大的 Web 端 HTTP 请求测试工具,专为 API 开发和调试设计。

开源地址: GitHub - Ryderwe/FlaskHTTPStudio

在线演示(wispbyte 免费容器部署):http://212.227.64.179:10061/

核心亮点

一键 cURL 转换
直接从浏览器开发者工具复制 cURL 命令,自动解析为可编辑的请求表单,支持 20+ 种 cURL 选项。

智能预设系统
通过规则配置实现参数自动替换,支持 KV 键值对修改和 JSON Path 深层字段修改,可按域名和路径过滤作用域,解析后自动应用。

完整的请求管理

  • 可视化 KV 编辑器与文本模式实时双向同步

  • 支持 5 种 Body 类型(JSON / 表单 / 文件上传 / 原始数据)

  • 自动保存历史记录(含响应数据),支持收藏和搜索

  • 一键回放历史请求

企业级安全防护
内置 SSRF 防护机制,阻断所有内网地址访问,DNS 解析验证,重定向二次校验,确保生产环境安全。

响应式界面
桌面端手风琴面板,移动端抽屉式响应查看,支持 HTML 预览和源码模式切换,提供完整的响应下载功能。

技术特点

  • 轻量级架构:Flask + 原生 JavaScript,无重度框架依赖

  • 本地存储:所有数据保存在浏览器 localStorage,服务端不落盘

  • 安全优先:多层 SSRF 防护,响应大小限制,临时存储自动清理

  • 开箱即用:仅需 Python 3.8+ 和两个依赖包(Flask + requests)

适用场景

  • API 接口调试和测试

  • 参数化测试和批量修改

  • 团队协作(导出 / 导入预设规则)

  • 请求收藏和快速回放

  • 移动端 HTTP 请求测试

最后依旧求 Stars~

演示图片:


📌 转载信息
原作者:
ryderwe
转载时间:
2025/12/31 12:43:49


复古终端风格


极简风格

一小时滑动窗口 黑曜石主题

iframe 快速嵌入页面

小妙招: 发行版说明 直接叫 gemini 使用 chrome-devtools MCP 截图写的

100star 咯 再来一些也行 谢谢大家支持 嘻嘻

点个认可试试 (好像还没有认可过)


📌 转载信息
原作者:
kkkyyx
转载时间:
2025/12/31 12:43:25

因为现在的 ai ide 都有很完善的 agents 功能,而且还可以上网搜索资料

因此比如说对于改稿的部分:

你先让它创建一个改稿工作流(反重力里面叫这个名字)
差不多这样:

然后用 Gemini 3 Pro 等模型,让它执行这个工作流

他就会咔咔咔进行竞稿

你就只需要在吐出的文字里面人工再加上修改建议,然后重复这套工作流就好了。

而且由于模型本身聪明,文笔还挺不错的,就是你可能需要额外找一个地方定义写作的规范,因为中英文的区别还是挺明显的。

你甚至没有参考文献的话可以让它调用自带的搜索功能增加文献


📌 转载信息
转载时间:
2025/12/31 12:42:34

从 继续讨论,咕咕咕了一个月终于迎来了又一个大版本~

Abstract

交互式学习 Vim,每一个技巧都能提高编辑效率~

更新内容

v2.0 相比于 v1.5 主要更新了:

  1. 新增亮色主题
  2. 新增 HJKL 贪吃蛇趣味练习
  3. 增加 Vim 引擎的长序列对拍测试,提升 Vim 行为模拟准确性
  4. 使用优选域名提升全球访问速度
  5. 修复佬友们指出的文案 & vim 行为的 bug 若干

特色 & 开发动机 & 课程内容

详见前帖:

Vim 功能支持情况

当前处于 v2.0.0 版本,已实现功能如下。还在持续迭代中

迭代开发

现在项目仍有一些 bug 和不完善的地方(包括但不限于文案不易于理解、Vim 编辑器与真实行为不一致等),欢迎佬友们试用之后在楼内或者 issue 区反馈

衷心感谢如下佬友为这个项目提出宝贵的意见和建议!

@l39 @kika @GoldenZqqq @sodacola


Tip

觉得不错的话就帮我点个 Star​吧~

TODO & CHANGELOG

v2.0.0

  • hjkl 贪吃蛇
  • alpha 分支选择
  • 亮色模式

v2.1.0

  • 优化字体(i/l 混淆问题)
  • 修复文案问题
  • 光标渲染问题

v2.2.0

  • VimEngine bug
    • 撤销不识别
    • s 替换渲染
  • ESC 焦点问题
  • 自动化排查 run-example 文案

Release v2.0.0

  • 新增主题切换:亮 / 暗 / 跟随系统(Settings → Appearance),并重构配色系统为 CSS design tokens + Tailwind 语义色映射
  • 新增 Chapter 1 末尾小游戏:HJKL 贪吃蛇(本地成绩、金银铜徽章与提示、按 r 重开、撞墙宽限)
  • 对拍与测试工具链完善:quickcheck、JSON 报告 + viewer(聚合 / 过滤 / 排序),对拍并行化与长序列对拍覆盖
  • Vim 引擎与课程维护:dot/count/o/O/replace/paste 等对齐 Neovim;修复课程文件大小写冲突并补齐 zh/zh-lively 翻译

Release v1.5.0

  • Vim 引擎对拍:. 重播(cw/paste/ 末行 jw)、多行寄存器行粘贴、撤销快照去重与 cw 边界全面对齐 Neovim
  • 可视化提升:按键历史面板 + Vim Status 面板,组合键聚合、实时记录与 dot 重播提示一致
  • 输入与体验:Insert 模式中文输入可用,Tooltip 抖动修复,课程切换重新挂载消除键位提示重复
  • 学习流优化:挑战目标与示例文案更清晰(助记 / 拼写练习),Run Example / 课程示例节奏更平滑

Release v1.0.0

  • 首个正式版本,实现主要功能
  • 新增设置面板「Vim 状态」和「练习场」标签页(支持 C++/JS/Python 语法高亮,展示 Neovim 对拍测试结果)
  • 修复 Insert 模式光标位置和挑战切换状态重置等核心 bug
  • 改进学习体验:记住上次学习位置,支持 Enter 快速进入下一课


Alpha 版

bug 修复与新功能预览


来晒一晒你的 Vim + 贪吃蛇水平吧!


📌 转载信息
转载时间:
2025/12/31 12:42:00

腾讯发布首个 Diffusion 大语言模型:WeDLM-8B。WeDLM-8B 是一个基于扩散机制的大语言模型,有 80 亿参数。它从 Qwen3-8B 初始化而来,经过指令微调后,有基础版和 Instruct 版。

性能测试中,在数学推理任务上,WeDLM 比用 vLLM 优化的 Qwen3-8B 快 3 到 10 倍。比如计算 1 到 100 的和,只需 0.22 秒,而传统方式要 1.8 秒。在低复杂度任务中,每秒能生成上千个词。

模型已开源,在 Hugging Face 上可下载,支持 wedlm 引擎优化推理。这让扩散式语言模型第一次在实际速度上超过主流自回归模型。
腾讯开源的扩散大模型是否能掀起扩散大模型的浪潮?


📌 转载信息
原作者:
Learner_ghz
转载时间:
2025/12/31 12:40:38

美区 PayPal 注册方案,亲测有效!支持绑定大陆的 Visa 和万事达信用卡。
本方案利用 iPhone 手机或 iPad 设备和美区的 Apple 账号进行注册,虽然有点绕,其实很简单,美区 Apple 账号的申请就不多说了,很简单。
教程开始,打开手机设置,点击顶部的 Apple 账户,然后点击付款与配送,选择添加付款方式,再选择 PayPal,然后点击登陆 PayPal,在弹出的页面的左下角选择美国(一定选择美国),右边的语言可以设置为中文,填写表格中的信息,邮箱,手机号(不要接码,最好填写美国手机号),信用卡 (支持 Vise、万事达、美国运通等)。
最后填写账单地址,大家可以生成美国地区的地址,建议免税州的,填写完成提交就会收到手机验证码,验证一下就可以了,测试了一周多时间,目前正常。


📌 转载信息
原作者:
W_W
转载时间:
2025/12/31 12:37:35

来源火绒安全近期发现多款日本色情游戏(来源 BT 站)捆绑有高隐蔽挖矿木马。
木马利用 “白加黑” 技术植入,会大量消耗电脑 CPU 与内存。
而且这木马有防检测手段:
当你打开任务管理器时候,木马就会停止运行挖矿操作,防止被发现

来源


📌 转载信息
原作者:
okokxw
转载时间:
2025/12/31 12:37:24

iMini AI 重磅升级,推出全新功能【精细编辑】

简单说,就是对于 AI 图片生成不满意的地方,圈一下就可以马上修改。

比如下图,修改一下人物手中的水果、修改一下人物帽子颜色… 等等


体验入口:https://imini.com/tools/ai-image/text-to-image

除了【精细编辑】还有
1、分图层 / 编辑元素
2、1k 图片变 4k 高清
3、一键扣主体
4、扩图
5、擦除

等等,简单说,就是不单止能生图,还能修图了,并且没有使用门槛。


📌 转载信息
原作者:
Maolo
转载时间:
2025/12/31 12:37:12

win11 中内置 copilot GPT5.1 中的 juice 值,其中 Think Deeper 以及 Smart 模式下都是 16

edge 中内置 copilot 里的 GPT5.2, Smart Plus 模式下也是 16(我是 M365 会员,可能有点影响)

github copilot 里的 GPT5.2 是 64

windsurf 家的 GPT5.2 low,juice 是 16

windsurf 家的 GPT5.2 medium,juice 是 64 (high 和 xhigh 性价比太低,就不测了)


📌 转载信息
原作者:
ikb
转载时间:
2025/12/31 12:36:49

先交代下背景:玩 PT 也就几个月,这段时间陆续进了馒头、人人、UB、杜比这些站(在这里真心感谢各位佬儿友的信任)。我这边整体是 “两条线” 在跑:

  • 家里:40T 群晖 NAS 负责日常观影 + 长期做种
    我主要是 MoviePilot v2 + Emby 联动,平时自己看电影为主。
    另外有些站的契约 / 官种要求比较明确,我就在 NAS 上单独划了几个文件夹,权限只给 qB 可读写,专门放契约要用的内容,省得和日常媒体库搅在一起。
  • 公司:树莓派 5 负责刷流(重点)
    刚入坑的时候有点怕家里被当成 PCDN 之类的搞到限速,所以干脆把刷流主力放公司。
    公司网络:1000M,无公网 IP、无 IPv6;家里是 500M,有公网 IP、无 IPv6
    目前大概几个月下来:公司刷了约 13T,家里零零散散大概 1T 左右。


一点体感:想吃上传,“新种窗口” 比 “硬拉满” 更关键

刚开始在馒头那会儿,我都是挑自己喜欢的资源下(但不是最新官种),结果基本吃不到上传 —— 很正常,新种发布后的时间窗口才是最香的。
后来在杜比、UB 这类站,我发现只要是跟着下最新官种,保种阶段上传速度经常能看到 3–4 MiB/s(指单种 / 短时间波动,不是一直满速)。当然,那些 “经久不衰” 的内容偶尔也会出点速度,但总体来说,刷流想稳定,还是得围绕新种节奏来


我折腾过的几种方案,最后留下的是:一个 qB + 一个 Vertex

我试过:

  • 每个站点一个 qB + 一个 Vertex(管得细,但维护起来太麻烦)
  • 一个 Vertex 管多个下载器(看着省事,但实际容易互相抢额度 / 堆积)

最后发现对我这种网络环境来说,最稳的反而是:
一个 qB 容器 + 一个 Vertex 容器,然后在 Vertex 里跑 RSS 任务(我这个版本一次最多就开 3 个 RSS 订阅任务,够用了)。

核心就一句话:不要贪心,要平衡。


重点:我现在这套 “平衡逻辑” 是怎么做约束的

我以前也干过下班回家直接把 qB 拉满:下载 70–80 MiB/s、同时下载数量 16/24/48/64 甚至不设上限…… 爽是爽,但结果就是:

  • PT 站每小时都在更新,你设置太激进,种子会越堆越多
  • 堆积以后,“慢种” 长期占着活动位,反而把新种窗口挤没了
  • 速度太慢也不行,慢种拖着不结束,同样占额度

所以我现在用的是双重约束:Vertex 控总量节奏,qB 控队列与慢种策略


1)Vertex 侧:先把 “节奏” 卡住(防止 RSS 把下载器塞爆)

我这边 Vertex 主要卡这些:

  • 上限下载速度:30 MiB/s(上传上限我没卡死)
  • 最小剩余空间:200 GiB(低于就不再加种,避免写爆盘 / 触发各种异常)
  • 最大下载数量:15(超过就不加种)
  • 每小时上限:5(每小时推送到客户端的种子数量上限,避免 “追更太猛”)

同时我开了 自动删种,删种周期是 cron(我这里是 * * * * *,也就是每分钟检查一次)。删种规则我勾了三条:

  • 100G 空闲删种
  • 无效做种
  • 超时下载
    高分享率清理我没开(我更倾向 “吃窗口、快进快出”,高分享那套玩法不太适合我目前的内网条件)。


2)qB 侧:关掉 “会影响 PT 生态的东西”,然后让队列更聪明

qB 这边我做了几件很基础但很有用的事:

(1)PT 必备:关 DHT / PeX / 本地发现,开匿名模式
这个不展开了,懂的都懂。

(2)队列:最大活动下载数 = 15
并且我勾了:慢速 torrent 不计入限制内

  • 下载阈值:2 KiB/s
  • 上传阈值:2 KiB/s
  • 非活动计时器:60 秒
    这样 “卡死不动的慢种” 不会长期占着活动位,新种更容易排进来。

(3)做种限制:到点就清(我这套偏刷流思路)

  • 达到总做种时间:60 分钟
  • 达到不活跃做种时间:30 分钟
    然后动作是:删除 torrent 及所属文件
    (这条就很看个人玩法了。我是刷流取向,所以宁可腾空间、让队列保持流动。)

(4)速度 / 连接(给个参考值)

  • 全局下载限制:35000 KiB/s(约 34 MiB/s)
  • 连接协议:TCP
  • 全局最大连接数:1000
  • 每 torrent 最大连接数:200
  • 全局上传窗口:50;每 torrent 上传窗口:15
    公司没公网也没 v6,端口能不能真打通随缘,但对刷流这套 “追新 + 快进快出” 的节奏影响没想象中大。


配置截图(更直观,我就不一行行贴文字了)







效果与结论:别把 SSD / 内网 “跑满” 当目标,找到平衡点才是关键

在我这套环境下(公司 1000M、无公网无 v6),长期跑下来一个很明显的结论是:

  • 单纯把下载拉满、并发拉满,并不会让上传更好,反而更容易堆积
  • 更稳的方式是:控制每小时进种量 + 控制活跃下载数 + 慢种不占位 + 及时删种
  • 我这套配置在树莓派 5 不连续超负荷的前提下,基本能做到:
    每天稳定吃到 150–200G 上传(仅供参考,跟站点热度 / 新种质量 / 时间窗口关系很大)
  • 另外我自己的体感是:上传 / 下载大概长期在 1:10 这个量级上下浮动(同样仅供参考)。

一句话收尾:刷流不是把性能发挥到极致就会更好,尤其在 “无公网 / 无 IPv6” 的内网条件下,更重要的是 “节奏” 和 “队列的流动性”。


树莓派刷流机配置(放末尾,方便想抄作业的佬儿友)

  • 主板:Raspberry Pi 5(8GB)
  • 机箱:Argon ONE V3(带 M.2 NVMe PCIe 扩展)
  • 系统:Raspberry Pi OS Lite 64-bit(Debian Trixie 系)
  • 存储:WD Red SN700 1TB(NVMe,2280)
  • 电源:官方 27W USB-C PD

以上就是我这几个月踩坑后的 “能长期跑、别太折腾” 的版本。各位佬儿友如果也有类似内网环境的玩法,欢迎一起交流你们的平衡点怎么找的。


📌 转载信息
原作者:
Guangpeng_Wang
转载时间:
2025/12/31 12:36:15

各位 L 站的大佬们,大家平时写代码、水贴之余,身体健康关注了吗?
现在的通用 AI 聊健康总是 “建议咨询医生”,缺少深度分析。于是我写了这个项目:Claude-Ally-Health 。它不仅是一个对话框,而是让 Claude 进化成你的私人健康专家。

核心亮点:

  • 深度推理: 针对 Claude 3.5 Sonnet/Opus 优化,利用其强大的逻辑能力,深度解析体检报告、化验单和运动数据。

  • 隐私至上: 数据完全由你掌控。你可以通过 API 接入,支持自定义中转或官方 Key,不用担心健康敏感信息被滥用。

  • 结构化输出: 拒绝废话,直接给出健康风险评估和改进建议,支持导出和历史记录追踪。


📌 转载信息
原作者:
Zenf
转载时间:
2025/12/31 12:31:31

《三位一体 经典合集》4 款横版奇幻合作

该合集包含包含四部作品:《Trine Enchanted Edition》《Trine 2: Complete Story》《Trine 3: Artifacts of Power》以及《Trine 4: Definitive Edition》。

https://store.epicgames.com/zh-CN/bundles/trine-classic-collection


📌 转载信息
原作者:
nasa2046
转载时间:
2025/12/31 11:45:34