2025年12月

余额可在 https://crs.prismllm.tech/admin-next/api-stats 输入 api_key 查看。

~/.codex/config.toml:

model_provider = "crs" model = "gpt-5.2-codex" model_reasoning_effort = "xhigh" disable_response_storage = true preferred_auth_method = "apikey" [model_providers.crs] name = "crs" base_url = "https://crs.prismllm.tech/openai" wire_api = "responses" requires_openai_auth = true env_key = "CRS_OAI_KEY" 

~/.codex/auth.json:

{ "OPENAI_API_KEY": null } 
export CRS_OAI_KEY=cr_ab8f442a747e9e5d591c54cfad8078c354993f5883e126d4c2c3310a8d37a980

📌 转载信息
原作者:
Toyota
转载时间:
2025/12/31 11:43:41

反重力里面的 claude 量还是比较充足的,这两天学习了一下如何转换格式到 cherry studio 中使用,算是学习笔记贴吧,大佬们需要有反重力的账号,然后部署下面这个项目(我是本地部署的),

https://github.com/su-kaka/gcli2api

部署好之后在 7861 端口打开,是下面这个界面,然后获取认证链接,会跳转网页去登录自己的 Google 账号,认证完成就 ok 了,


第一个是 gemini cli 的,只有 gemini 模型能使用,反重力的话有 claude 可以使用,所以我们推荐把反重力也认证了,接下来就简单了,我们选择 url 和 key 填到 cherry studio 中

如果是 cli 的话使用这个
openai.api_base = “http://127.0.0.1:7861/v1
openai.api_key = “pwd”

如果是反重力的话使用这个
openai.api_base = “http://127.0.0.1:7861/antigravity/v1
openai.api_key = “pwd”
#模型我暂时先选择 claude-sonnet-4-5 ,大家也可以选择其他模型,看自己爱好喽


然后这个仓库是一个大佬发在 qq 群的,我没看懂,私聊大佬学习了这个技巧,我只有他 qq 号,他是 空悲切 ,再次感谢大佬(如果大佬看到了可以评论一下哈哈),作为一个非程序员,我平时喜欢折腾这些东西,可能很简单,也希望为社区做一点小小的贡献吧,如果大家有其他使用技巧也欢迎在评论区补充,好了好了,得开始上班了


📌 转载信息
原作者:
happyabel
转载时间:
2025/12/31 11:33:16

佬友们,大家好,好久没发帖子了,今天水一下

此次 v1.5.0 版本更新实现大量重构优化:

一、后端核心翻译重构

1. 重构各个文件翻译逻辑,特别是 docx 和 pptx,翻译质量与排版显著提升

2. 智能分块策略优化,有效降低 API 调用次数与 Tokens 消耗成本

3. 动态术语匹配,仅当文本块包含术语时才注入,大幅节省 Tokens 成本

4. 修复线程,并发控制优化,严格限制并发请求数量,避免 API 限流

5. 完善错误处理机制,异常状态及时更新

6. 优化进度更新策略,翻译进度更精准流畅

7. 邮箱注册发送消息模板 UI 更新

8. 删除一些无关接口

二、用户端更新

1. 首页翻译任务进度修复,轮讯请求,进度实时更新

2. 个人中心页面 UI 优化

3. 用户登录注册页面 UI 优化

三、管理端更新

1. 任务列表和用户列表页面表格列宽度优化

2.API 设置页面新增 模型请求接口测试(响应,首字,耗时,速度)

支持私有化部署

最后放个仓库地址,欢迎大家 star 支持一下~

https://github.com/mingchen666/DocTranslator


📌 转载信息
原作者:
aiyunya
转载时间:
2025/12/31 11:32:54

相信站内不少佬平时都得啃论文,我自己也是。但总得在各种翻译,ai 聊天软件里切换来切换去,索性自己动手搞了这个项目。

首先先介绍一下功能

第一:可以转换成 md 后进行翻译,格式不会丢失,还有中英对照页面
翻译采用 ReactAgent 架构,搜寻从 arxiv, 以及网上各种信息,从背景、动机、切入点:

  • 以及强相关论文给出链接和简单描述相关性
  • 最重要的创新点也会详细解析(是什么,为什么重要,与已有方法对比),以及关键模块等等
  • 实验结果,优势和局限性
  • 还有 ai 推断的可行方向

第二:不熟悉的专业术语,划词后让 ai 解析
解析完成后会在整个项目全局高亮,鼠标悬停则会出现解析

第三:拥有用户画像功能的就论文对话功能
ai 能根据用户的回答实时调整用户画像,给出让用户最能听懂最想要的回答

话不多说,拿一篇论文试试效果,拿最近新出的 step-deepresearch 举例

1. 解析效果:结构公式啥的都没毛

gif1_2x_2

2. Agent 翻译

[开源] PaperMate,让读论文看文档再优雅一点点3

类似于沉浸式那样的对照阅读也没问题:

[开源] PaperMate,让读论文看文档再优雅一点点2

3. 深度解析

gif4_2

4. 划词 & 记忆:遇见不懂的陌生的词?直接划词解析(这些都会进入 llm 的记忆,可以在对话中用到):

[开源] PaperMate,让读论文看文档再优雅一点点4

5. 智能问答: llm 会根据用户回答自动调整用户画像(beta,可能有 bug):

[开源] PaperMate,让读论文看文档再优雅一点点5

to_do_list:
未来想完善的功能:
添加项目级别的记忆,不止是术语和画像,提升 llm 回答的质量,让 llm 更懂你,也更懂论文
将整个项目里的所有论文,以及专业术语和记忆,作成 rag 知识库,在对话、翻译等地方运用上去
优化翻译 agent 和对话流程


大家在读论文里还有什么需要的可以提,如果好的我都会采纳放进去,还有 rag 我完全没整过,感觉有点复杂就先放到后边去了

最后,star 一下吧


📌 转载信息
转载时间:
2025/12/31 11:32:06

佬友们,大家好,好久没发帖子了,今天水一下

此次 v1.5.0 版本更新实现大量重构优化:

一、后端核心翻译重构

1. 重构各个文件翻译逻辑,特别是 docx 和 pptx,翻译质量与排版显著提升

2. 智能分块策略优化,有效降低 API 调用次数与 Tokens 消耗成本

3. 动态术语匹配,仅当文本块包含术语时才注入,大幅节省 Tokens 成本

4. 修复线程,并发控制优化,严格限制并发请求数量,避免 API 限流

5. 完善错误处理机制,异常状态及时更新

6. 优化进度更新策略,翻译进度更精准流畅

7. 邮箱注册发送消息模板 UI 更新

8. 删除一些无关接口

二、用户端更新

1. 首页翻译任务进度修复,轮讯请求,进度实时更新

2. 个人中心页面 UI 优化

3. 用户登录注册页面 UI 优化

三、管理端更新

1. 任务列表和用户列表页面表格列宽度优化

2.API 设置页面新增 模型请求接口测试(响应,首字,耗时,速度)

支持私有化部署

最后放个仓库地址,欢迎大家 star 支持一下~

https://github.com/mingchen666/DocTranslator


📌 转载信息
原作者:
aiyunya
转载时间:
2025/12/31 11:27:02

前言

试用了一段实践,感觉效果不错,各位可用根据需要做适当修改, 毕竟 5 万字,这个还是有些夸张的。

另外推荐使用 gemini-3-flash-preview 模型,如果在隔离环境下,简要开启 yolo 模式。

gemini  -y 

Prompt

请严格按照深度研究步骤,产出如对应主题调研报告。需要广泛的搜集信息,包括使用中文和英文关键词搜索,搜索学术论文和新闻报告等。

## 要求

- 所有临时文件,保存本地目录。
- 将所有的研究计划,以 Markdown TODO list 的方式保存在 TODO.md 文件中。

## 研究主题

针对 GraphRAG 主题,找到2025年的全部论文,深入读取论文内容,给出完整综述。

## 深度研究步骤

准备阶段:
(1)创建 TODO.md 文件,保存所有待办步骤到 TODO.md 中,每个任务完成后反思和更新计划。

第一阶段:信息搜集和研究大纲生成
(1)信息搜索:收集相关领域的信息,明确研究背景、细化通过研究想要达成的具体成果
(2)生成研究大纲,写入到 `research_outline.md` 文件

第二阶段:进行深度信息收集
(1)系统手机目标领域的历史数据和案例,将这些信息整理成标准化的内容,可选择用数据表格形态整理。关键是确保数据的完整性、准确性和时序性,为后续所有分析提供可靠的事实基础,数据收集必须覆盖足够的时间范围,包含所有相关的关键信息字段
(2)请广泛的进行信息收集,需要收集 100 条以上的参考文献。
(3)将所有的参考论文、网页等URL保存到 `reference.md` 文件中,使用Markdown表格存储,如果为PDF格式论文,将所有论文下载到本地(可以先生成URL列表后用 wget批量下载)。

第三阶段:深度分析与信息深度挖掘
(1)深度模式分析:基于收集到的数据,深入分析其中的新研究对象、关键模式、规律和趋势等。这包括频率统计、周期性变化、发展趋势等量化分析,目标是揭示隐藏在数据背后的内在逻辑和规律性特征。对于上一步中出现的新的重要概念或实体,需对该类需要探究的内容进行二次信息搜集。分析结果尽可能用统计数据和可视化图表来呈现。
(2)核心驱动因素提取:通过对模式的深度分析,需要识别出真正影响结果的核心驱动因素。这些因素需要按照影响力大小进行排序,并评估各自的权重。重点是找到那些具有决定性作用的关键变量,而不是表面的相关性因素。
(3)现实背景信息补强:针对已识别的核心驱动因素,我会收集当前相关的现实背景信息。这包括最新的政策变化、市场环境、技术发展、社会趋势等可能影响分析结果的现实因素。目标是将历史规律与当前实际情况相结合,确保分析的时效性和准确性。
(4)在这个阶段中,随时判断已有信息是否足够,应尽可能的收集更多的信息,让参考文献越多越好。

第四阶段:输出研究报告
(1)研究报告大纲生成:根据收集的全部信息,生成报告大纲(约10个章节),并写入文件 `research_report_outline.md`
(2)研究报告分章节生成:逐个章节编写报告内容,每个章节内容写到到文件 `research_report_章节.md`
(3)研究报告合并:使用shell命令将所有章节内容合并到文件 `research_final_report.md`。

## 报告格式要求

1. 总文本量不低于 50000 字,使用中文。
2. 使用 Markdown格式。
3. 必须使用 markdown表格、mermaid 图表的方式表达复杂概念和内容。
4. 报告最后是专门的引用章节,有所有引用的参考文献,格式为 `[1] 参考文献1`

忘记出处了, 使用 Coding Agent 作为通用智能体完成 DeepResearch 任务・Issue #141・ninehills/blog・GitHub


📌 转载信息
原作者:
yuke
转载时间:
2025/12/31 11:23:18

  • 兑换方式一

安卓 /iOS:打开自家应用商店搜索 “酷狗概念版” 安装完成后随意怎么登录,点击顶部搜索,输入:“兑换 100 天会员”, 就能顺利的领取成功。

  • 方式二

如果你没有领取成功 100 天也可以进入用户界面,也可以每天签到送一天会员,还可以在【 酷狗概念版】-【我的】-【福利与活动】下滑可以看到【天天签到领 VIP】,非常给力


📌 转载信息
原作者:
IT-MOXI
转载时间:
2025/12/31 11:22:53

前情提要:最新注册了新号,地区问题和新号导致账号风控太多,导致 gemini 网页 和 Antigravity 都没法正常使用,最近更换地区到适配的地区,还是没法使用,

最近意外加入了一个 google one 群组,发现 gemini 能用了,但是 Antigravity 还是没法使用。所以研究一下,分享经验

目前我的账户还是 Your current account is not eligible for Antigravity. 通过以下步骤,还是没法使用 Antigravity 的编辑器,但是可以使用 Antigravity Tools 来进行 2api 使用

注意哈,google one 用户,下面步骤执行完还是没法正常使用 ide,只是能使用模型了

  1. 改到支持的地区后,记得验证年龄
    年龄验证

2. 安装 gemini-cli 登录 ,如果 gemini-cli 没法使用,大概率 Antigravity 也没法使用,但是可以提高 Antigravity 2 api 的机率

npm install -g @google/gemini-cli

进行简单对话测试账号是否可用

3. 使用 Antigravity Tools ,进行登录,如果正常显示额度就可以用了

注意哈,Antigravity 还是不可用的,但是能使用 cc 来接入模型了哈

具体可看
【来猛烈的 AI 组合技】工具集合分享 ,看看是不是差生文具多 - 开发调优 - LINUX DO


📌 转载信息
原作者:
vkrain
转载时间:
2025/12/31 11:22:41

提前叠甲:雨云 aff 很疯狂,但本文无 aff。
使用该方法搭建的 frp 速度在 100 mbps 左右。

一、登录雨云领取初始积分

加入 Q 群 → 我爱雨云
关注 B 站 → 雨云爱你
关注淘宝 → 成功加入

二、领取游戏云、配置 frp

在积分商城里可以很容易的买到 E5 入门版游戏云,无货的话等刷新就好。
在 NAT 端口映射管理界面配置至少 2 个端口(一个用于 FRP 服务,一个用于要暴露的内网服务)


然后进入控制台


除了 启动脚本外的内容都可以删掉,再上传 frps、frps.toml
https://github.com/fatedier/frp/releases/download/v0.65.0/frp_0.65.0_linux_amd64.tar.gz


这一步建议用 SFTP 工具来操作,因为自带的文件管理上传大文件很容易失败。
启动脚本的内容如下

./frps -c frps.toml

frps.toml 内容如下

bindPort = 10000 auth.token = "passwd" 

端口就写前面映射的端口,再设置个密码防止被人白嫖。
如果只有自己用的话不建议用 frpc 直接暴露内网服务,建议 frpc 暴露 easytier。

三、自动签到、续费

github 上有现成的自动签到,不过部署起来比较麻烦,我这里改了个 docker 版本,可以一键构建镜像部署。
续费的话用官方的 api ,替换 api key 和 服务器 id 即可。

curl --location --request POST 'https://api.v2.rainyun.com/product/point_renew' \
--header 'x-api-key: key' \
--header '
Content-Type: application/json' \
--data-raw '
{ "duration_day": 7, "product_id": id, "product_type": "rgs" }'

📌 转载信息
原作者:
fatekey
转载时间:
2025/12/30 18:18:48

介绍

https://pypi.org/project/*/ 网页中,都会有 pip 开头的安装命令

这个插件的功能就是,将 pip 替换成其他包管理工具的安装或者添加依赖命令

  • uv
  • pdm
  • hatch
  • rye
  • poetry
  • pipenv
  • conda

使用

chrome/edge

下载 chrome 结尾的 zip 压缩包,解压然后加载即可。

firefox

因为还未在扩展商店上架,所以只能使用 调试附加组件 的方式安装。

打开 about:debugging#/runtime/this-firefox

触发

安装完成后,提供了两种触发方式:

  • 点击扩展,从 popup 页面设置
  • 进入网页默认会在左上角显示悬浮球,点击即可

说明

  • 触发悬浮按钮
  • 版本选择

地址


📌 转载信息
原作者:
unsafe
转载时间:
2025/12/30 18:18:22

项目介绍:

基于 Django、langgraph、langchain 开发的 AI 自动化测试平台。

目前功能:

1、需求文档智能评审并指正需要改正的问题。
2、AI 根据知识库和需求文档生成测试用例。
3、自然语言用例执行并生成对应的 playwright 自动化脚本。
4、执行用例时自动截图上传会平台。
5、批量执行功能测试用例和 playwright 脚本并生成对应的报告。

效果展示



如果项目对你有帮助,请帮我点点 star ~

项目地址: MGdaasLab/WHartTest: WHartTest 是基于 Django REST Framework 与现代大模型技术打造的 AI 驱动测试自动化平台。平台聚合自然语言理解、知识库检索与嵌入搜索能力,结合 LangChain 与 MCP(Model Context Protocol) 工具调用,实现从需求到可执行测试用例的自动化生成与管理,帮助测试团队提升效率与覆盖率。

声明:

本人纯编程小白,项目由本人提供思路,AI 负责功能代码实现。(也算是站在巨人的肩膀上了)


📌 转载信息
原作者:
duanxc
转载时间:
2025/12/30 18:07:51

claude skill, 参考路径

C:\Users\Administrator.claude\skills\image-generator-hybrid

有两种方法整合,http 和 google genai SDK, 详情可阅读 MD 文件

用法:

  1. 配置 ip 和 key, 都是来自 cliproxyapi 的,
  2. ip 默认是 localhost:8317 如果你没改过 cliproxyapi 的话一般不用配置 IP
  3. CLAUDE.md 中添加
## 生图 生成图片
   使用技能 ~/.claude/skills/image-generator-hybrid

简单例子:生图,4K, 1:1 , 随机内容,仅保留最大分辨率,输出在当前目录,文件名 牛逼图片

ps: 都是可选的参数,不填也有默认值

ps: 感觉额度好少,2 个 PRO 号,20 个图不到就用尽了 (而且每次会返回 2 个图), 刷新时间还越来越久

仓库:


📌 转载信息
原作者:
kei233
转载时间:
2025/12/30 18:07:21

没有 VPS?教你零成本在 ClawCloud 上部署 CLIProxyAPI 继续讨论~

近期需要部署 CLIProxyApi 反代 反重力,但苦于最近服务器都遭受 CC 攻击,所以选择容器平台
原教程已经很详细啦,但现在(指发帖日 2025/12/30)Clawcloud 的容器额外储存已经无法写入了,按照原教程会导致容器一直重启呢

所以!需要使用 Clawcloud 提供的免费 Object Storage Service 作为储存啦
进入 Object Storage 之后,随便建立一个 Private 储存桶


之后保存以下信息:存储桶全名、Access Key、Secret Key 以及 External 地址(注意不要使用内网地址!目前是不可达的!)



这 4 个参数将分别用于设置环境变量。此外,我们还需额外设定一个 MANAGEMENT_PASSWORD (用于登录 WebUI 的密码)。请将这些信息整理为以下格式并妥善保存:

OBJECTSTORE_ENDPOINT=External值
OBJECTSTORE_ACCESS_KEY=Access Key值
OBJECTSTORE_SECRET_KEY=Secret Key值
OBJECTSTORE_BUCKET=存储桶全称
MANAGEMENT_PASSWORD=访问WebUI的密码

然后转到 App Launchpad 创建容器,与原教程一致
如果只需要一个服务,可以适当拉高内存哦

页面向下拉动,在高级设置中,需要填写 和原教程不一致哦
环境变量 (Environment Variables)

OBJECTSTORE_ENDPOINT=External值
OBJECTSTORE_ACCESS_KEY=Access Key值
OBJECTSTORE_SECRET_KEY=Secret Key值
OBJECTSTORE_BUCKET=存储桶全称
MANAGEMENT_PASSWORD=访问WebUI的密码

启动命令 (Command): /CLIProxyAPI/CLIProxyAPI
Local Storage: 已经,不需要了
环境变量的填写方法参看下图

最后点击部署,访问你的 https://PublicAddress/management.html 就可以使用啦


📌 转载信息
原作者:
asaki
转载时间:
2025/12/30 18:05:21

最近在做 AI Agent 相关的产品,整理了一下技术栈中用到的开源项目,分享给有类似需求的朋友。

沙箱 / 代码执行

Agent 要执行代码、装包、操作文件,隔离是刚需。

Agent 框架

向量数据库 / RAG

模型推理

可观测性


大家在用什么其他项目?欢迎补充。


📌 转载信息
原作者:
d0r1an
转载时间:
2025/12/30 17:01:01

SnowShot

软件官网:snowshot.top
开源仓库:GitHub - mg-chao/snow-shot: 超好用的截图工具

软件截图

与 Pixpin 对比截图

优点

  1. 功能全部免费
  2. 个性化程度高,可以自行安装插件
  3. 自定义皮肤(甚至 logo 也可以自定义)
  4. 支持视频录制、OCR、翻译以及 AI 对话
  5. 可以贴图、长截图!
  6. 可以扫码

缺点

  1. 线条、形状描边宽度只有三个选项,不是滑动条的形式
  2. 可能和 pixpin 有些相似(x

补充

精细大小控制需要在设置手动开启


📌 转载信息
原作者:
Hiru
转载时间:
2025/12/30 16:10:51

号称端侧可部署
混元翻译模型 1.5 版本包含一个 18 亿参数的翻译模型 HY-MT1.5-1.8B 和一个 70 亿参数的翻译模型 HY-MT1.5-7B。两个模型均专注于支持 33 种语言之间的互译,并融合了 5 种民族语言及方言变体。其中,HY-MT1.5-7B 是我们在 WMT25 夺冠模型基础上的升级版本,针对解释性翻译和混合语言场景进行了优化,并新增了术语干预、上下文翻译和格式化翻译功能。HY-MT1.5-1.8B 的参数量不到 HY-MT1.5-7B 的三分之一,却实现了与大模型相当的翻译性能,在速度和质量上达到高度平衡。经过量化后,1.8B 模型可部署于边缘设备,支持实时翻译场景,具备广泛适用性。

核心特性与优势

  • HY-MT1.5-1.8B 在同规模模型中达到业界领先水平,超越大多数商业翻译 API。
  • HY-MT1.5-1.8B 支持在边缘设备部署及实时翻译场景,应用范围广泛。
  • HY-MT1.5-7B 相较于 9 月开源的版本,在带注释和混合语言场景下进行了优化。
  • 两个模型均支持术语干预、上下文翻译和格式化翻译。

📌 转载信息
转载时间:
2025/12/30 16:10:03

具体什么使用发布的不确定,今天看到在左侧菜单栏多了一个项,点开一看就是这个。
MCP Registry

以后估计会越来越多,类似与看 Repo 那样看 MCP Server。不过目前只支持 VS Code 的导入。没有其他家的合集那么便捷安装到对应其他工具。


📌 转载信息
原作者:
capgrey
转载时间:
2025/12/30 16:09:50

在内网或离线 Linux 环境下,有时客户有需求或者业务上需要用到 FTP,装 vsftpd 时没网络各种依赖循环太麻烦。

用 AI 搓了一个 Go 写的 FTP 服务端:

  • 免编译: 提供编译好的二进制文件,下载即用。
  • 环境友好: 针对 Ubuntu 24.04 LTS 测试,兼容主流 Linux 发行版。
  • 配置简单: 配合 systemd 快速管理服务,适合长期挂载。

项目地址: GitHub - yizhitangtongxue/simple-ftp-server: a simple ftp server build with go

欢迎各位佬提意见。


📌 转载信息
转载时间:
2025/12/30 15:51:19



听取了前几位老哥的建议,多加了点 feature。
现在 PolarisDesk 已经支持不获取截图也能直接回答问题了。
项目目前还在早期阶段,如果你觉得有点意思,欢迎 Star / Fork 支持一下,让它能被更多人看到。
Bug 肯定是有的,我也会持续优化、慢慢打磨。

如果你愿意一起玩,提 Issue、PR、或者给点使用反馈都非常欢迎
也算是一起把这个小工具慢慢做起来


📌 转载信息
原作者:
skylertong
转载时间:
2025/12/30 15:36:44