标签 Tauri 下的文章

不废话,直接上图

https://i.v2ex.co/DKl3oJh9.png

好,再来介绍 PastePaw 的坚持的理念:

  1. 免费 & 开源 (最下面会解释为什么)
  2. 隐私至上。(所有数据仅存在本地,绝对不会上传)
  3. 小而快 (技术框架选择了 Tauri + Rust, 体积不到 4MB, 针对 Windows 进行了很多的优化所以运行也很快)

GitHub 链接:
https://github.com/XueshiQiao/PastePaw/

GitHub 下载页:
https://github.com/XueshiQiao/PastePaw/releases


完整功能特性

  • 🔒 隐私安全 - 这一点至关重要!所有数据仅存储在本地,绝不上传。
  • 🎨 精美界面 - 现代化的深色/浅色主题,支持即时切换,配合流畅的动画效果。
  • ⚡ 轻量极速 - 基于 Rust 构建,性能强劲,资源占用极低。
  • ⌨️ 自定义快捷键 - 设置您习惯的快捷键来随时呼出历史记录。
  • 📋 历史记录 - 自动保存您复制的所有内容。
  • 🖥️ 多显示器支持 - 智能跟随,始终在鼠标所在的活动显示器上显示。
  • 🔍 快速搜索 - 即使历史记录再多,也能秒级找到复制过的内容。
  • 📁 文件夹管理 - 将常用的剪贴内容分类整理到自定义文件夹。
  • 🚫 应用屏蔽 (排除列表) - 自动忽略来自特定敏感应用(如密码管理器)的内容,保护隐私。
  • 🔄 无限滚动 - 无缝浏览无限的历史记录,无需翻页。
  • 🛡️ 智能过滤 - 采用智能防抖逻辑,自动忽略来自其他剪贴板工具(如翻译软件、输入法)的“幽灵复制”。
  • 🤖 AI 智能助手 - 内置 AI 功能,支持一键总结、翻译、解释代码以及修复语法错误。
  • ⚙️ 高度可自定义 AI - 支持在设置中完全自定义 AI 功能的名称以及系统提示词 (Prompt),打造专属您的 AI 工作流。


为什么免费+开源?

首先我是自己要用,但是在 Win 平台我没找到让我比较满意的。我个人很喜欢 macOS 上 Paste 工具的交互,所以 PastePaw 有很多地方参考了 macOS 上的 Paste 这款收费工具。也希望能给有类似需求的朋友一起用,当然如果你手上已经有用的很舒服的工具,就完全没必要换。

第二点是我觉得在 AI 时代,其实手搓一个 app 相对来说比之前容易很多,每个人都会有自己的专用工具。那我也希望能够给有类似需求的朋友一个基础的版本,然后大家可以在上面各自发挥,打造属于自己的工具。如果是通用的需求也欢迎提 PR 。

🚀 ZenSSH —— 简单、轻量、安全的 SSH 工具

大家好,给大家推荐一个我最近做的开源项目:ZenSSH,一款实用的 SSH 工具。
当前处于早期测试版,开发人员就我自己,也是针对我自己的需求才做的,市面上大部分 SSH 工具连个配置同步都收费,又或者没有全平台覆盖,不同平台装不一样的软件配置同步更别说了;又或者一堆堆的功能,实际我就是想简单的连接到服务器上,简单运维一下。
适合开发者、运维工程师,基于 Tauri 构建,提供全平台覆盖(不过我没有 iPhone 所以没有构建),配置同步通过 GitHub 或 Gitee 的 Gist 实现,支持 SSH 和 SFTP ,并且支持跳板机连接。

👉 项目链接:
https://github.com/kisChang/ZenSSH

✨ 项目亮点

🔐 专注 SSH — ZenSSH 致力于提供跨平台的 SSH 客户端,配置同步,随时随地登录服务器。

📦 开源免费 — 完全开源免费,代码托管在 GitHub 上,欢迎大家查看、使用和贡献代码。

🛠 轻量易用 — 与传统的繁琐配置相比,ZenSSH 更强调上手速度和用户体验,适合日常快速 SSH 连接、文件上下载等需求。

✨ 说明

稳定性 — 早期测试版本,我也只测试了基础功能(在 Android 、Linux 、Windows 上),已经在日常使用了,有问题随时反馈到 issues ,同样感谢贡献代码~

开源协议 — 现在只公开了前端代码,rust 代码也托管在了 GitHub 但暂时没有开源,后续会考虑开源,整体构建都是基于 GitHub Actions ,安全性可以放心。

复盘一下我 vibe coding 一周,开发 WorkAny 的过程,很有意思。😂

开发过程

  1. 上周三在香港办卡,临时起意想做个桌面 Agent 项目,对标 cowork ,晚上回到广州开始写代码

  2. 初期目标是快速发布,没时间去研究哪个 Agent 框架好用了,看很多人在用 claude agent sdk ,先用这个吧

  1. 第一时间想到用 tauri ,喜欢小而美,总觉得 electron 很重,不想用

  2. 不想自己写代码了,决定让 claude code 来写。之前的 claude 账号都被封了,用不上原版 cc ,装了个 cc-switch ,接上 OpenRouter 的 API 开始写

  3. 截了个 chatbot 的交互截图,让 cc 参考着先把基本的对话流程跑通,用 claude agent sdk ,接上 OpenRouter ,cc 很快写完了第一版

  1. tauri 本质是用 rust 的壳子套了个前端界面,不熟悉 rust ,让 cc 用 hono 写 API ,rust 只做壳子,不做业务功能。API 作为 sidecar 打包进 app

  1. 让 cc 在 API 引入 sqlite 实现本地存储,持久化任务数据,创建本地工作目录,保存任务输出文件

  2. 写了半天,看 OpenRouter 消耗了 110 刀,有点肉疼。买了个美国住宅 ip ,付费上了原版 claude pro

  3. 截了个 Manus 的任务详情图,让 cc 参考写完工具调用的逻辑,中间是 chatbot 对话,右边用一个虚拟计算机的容器展示输入输出

  1. 让 cc 接入 shadcn/ui ,把样式做得好看一点,支持切换皮肤

  1. 又写了一天,关键时候 claude pro 限频了,很影响心情,补差价上了 claude max 顶配版

  2. 让 cc 把自定义模型配置,mcp 、skills 调用的逻辑都实现了,跑了几个生成 PPT 、Excel 、Doc 、 网页的 case ,效果不错

  1. 让 cc 把输出文件夹和中间过程的 artifacts 都在右边展示出来,写了个 artifact preview 容器,渲染各种类型的文件,可视化预览

  1. 有些任务需要跑脚本完成,考虑到用户电脑可能没装代码运行环境,让 cc 引入 sandbox 来运行代码

  1. 考虑到扩展性,需要支持不同类型的 Agent runtime 和 sandbox ,让 cc 写了两个抽象类,统一接口调用。Agent runtime 支持 claude code 、codex 、deepagents ,sandbox 支持 boxlite 、codex-sandbox 、claude-sandbox

  1. 觉得 cc 写的代码有点乱,让 cc 引入 eslint 和 prettier 做了下格式化,把逻辑太多的文件做模块化拆分。再参考 ShipAny 的目录结构,调整了一下项目结构

  1. 让 cc 写打包脚本,构建不同操作系统的安装包。把安装包发给一些朋友,开始内测了。根据内测用户的反馈,再让 cc 继续优化逻辑,解决问题,迭代功能

  1. 有些用户电脑没装 node ,没有 claude code ,安装软件后跑不起来,让 cc 在构建脚本支持 flag 参数,把 node 和 cc 作为 sidecar 打包进 app ,让用户能够开箱即用

  2. Mac 用户安装 app 后提示文件损坏或有安全提示,让 cc 在构建脚本里面加上签名处理,用我的 Apple 开发者账户对打包的 Mac app 做签名

  3. node 和 cc 都打包进 app 的版本,安装包 100 多 m ,有点重。让 cc 在构建脚本实现默认不打包,在用户启动 app 的时候引导安装 node 和 cc ,精简版安装包才 20 多 m ,小巧精致

  1. app 基本功能实现得差不多了,让 cc 在 ShipAny 模板基础上写一个 WorkAny 的官网,放上演示图,部署上线

  1. WorkAny 开源发布,MVP 版本上线,用户拉源码本地构建,配个 API 直接用

  1. 让 cc 写了个 github 构建脚本,在代码推送到 main 分支时,自动触发 github action 构建,一次性打包 Windows 、Linux 、Mac 三大平台的安装包,自动发布到 release ,用户无需自行构建了

  1. 根据用户的反馈,问题丢给 cc 去修,想到什么新功能也告诉 cc 加上,自己只做测试,不写代码,看都不看一眼。🌚


几点感悟

  1. 第一次尝试全自动驾驶 vibe coding 做项目,爽感非常强烈,WorkAny 的代码 100% 由 cc 老弟完成,我只负责指挥,日常开三个窗口,让三个 cc 老弟同时干活,效率拉满

  1. AI 时代技术平权,人人都是建筑师,理解用户需求、好的产品 sense 和审美是做出好产品的关键

  1. 技术广度和全局视野是最大的优势,可以精准提需求,指哪打哪,遇到问题能快速定位,防止 AI 走偏失控

  2. 以前总觉得手洗的衣服比洗衣机洗的干净,现在可以放心交给洗衣机了,又干净又快,能穿就行

  3. 优秀的程序员不会被 AI 淘汰,法拉利老了还是法拉利。🌝

欢迎试用 WorkAny ,感谢反馈与支持。

https://workany.ai

简介

使用 Nuxt 4.2.2 + tauri 2 开发,通过 API 接口获取寻访记录,仓库新建,功能还在逐步完善中。

目前暂时仅支持 Windows 端,数据都在程序同级目录下的 userData 目录中。

欢迎佬友们试试看~也欢迎大家晒晒自己的抽卡记录(当然能给仓库点个 Star 就更好了 hhh

附一张自己的:(还有比我更非的吗)

仓库链接:


📌 转载信息
原作者:
Sakikoo
转载时间:
2026/1/24 06:46:04

[开源] B 站字幕批量上传器:批量上传本地 SRT 到字幕草稿(Rust + Tauri v2 + React)

做了个桌面小工具:读取本机 cookies.json(需包含 bili_jct),把本地 .srt 批量上传,并 “预保存” 为 B 站稿件字幕草稿(preSave)
起因很简单:我经常批量处理英文网课(识别字幕 → Gemini 翻译 → 上传到 B 站),但 B 站本身没有批量传字幕的入口,于是自己搓了这个。


主要特性

  • 向导式操作:一步步点,不写代码也能用
  • 两条路线
    • 路线 A:多 BV → 上传到 1P
    • 路线 B:单 BV → 多分 P(按 page/cid/part 匹配)
  • 多轨道 / 多语言字幕:同一视频一次安排多个字幕轨
  • 预览匹配 + 演练(dry-run):先检查 / 演练,再真实上传,避免翻车
  • 详细日志:失败原因、跳过原因写清楚


大部分佬友都用不上,发出来刷点眼熟


📌 转载信息
原作者:
Zennn
转载时间:
2026/1/24 06:44:37

一、工具简介

Vortex(能将一切纳入 “怀中” 的漩涡)是一个穿着铠甲的 MCP 工具,使用 Rust 构建,高性能、低资源开销,为你 “年迈” 的电脑省点力气(哈哈~~~)。

其实吧,我们都知道,MCP 工具领域大多都是用 nodepython 实现的,毕竟简单,代码好写,至于性能的,毕竟只是自己本地跑,也无伤大雅的,这也是为什么这么多的 MCP 工具都喜欢用 nodepython 了(咳咳~~,话说,这个怎么几个人用 Java 写 MCP 呢?这个分发起来真是头疼啊~,总不能带个 JVM 遍地跑,哈哈,当然虽说现在 native 技术还不错,但毕竟不是与生俱来的 “能力”,我是不太想踩这个坑)。

最终我还是选择了 Rust,因为我非常喜欢这门语言(我不是专业户),她那简洁且极其优美的语法让整个代码看起来无比的舒服,且极具艺术与观赏性,好了,吹完了,你们有意见的可以发话怼我了 !

不过,有一说一哈,Rust 绝对的类型安全(不考虑 Unsafe Rust)确实是其它很多语言难以企及的,TS 中 any、Python 中的 Any,Go 中的 anyinterface {} 别名)、C# 中的 objectdynamic、Java 中的 Object、C 中的 void* 等等,这那个不是需要你极具猜想力的盲盒?运行时的类型断言的代码相比大家都写过,这起码你还能知道类型,要是不知道具体类型的,直接反射搞起来~~~ (也还行~~~ 哦,对了,还有神奇的 NullPointerException)。

不知道各位道友啥感受,反正我自己受不了这种能够 “包容万物” 的 Objectany,看代码都费劲(我每次掉头发都是因为我在想:这个 Object 中到底放的是啥呢? 嗯~~~顺着代码调用链多找几个源文件就明白了,同时也半小时过去了…)。

当然了,其它这些语言好学呀,这点 Rust 确实…
这个世界从来不是非黑即白、非利即弊的,学习它们的思想,在适合的地方用好它们就行了,但是,“信仰” 咱得有!
好了,就说这么多吧,下面开始分享工具及其用法,至于源码,后面看心情了~~~

事先声明

毕竟是我个人自用工具,工具中有一些工具具有危险性,使用与否全凭自愿哈。

二、工具安装

这里我只提供 MacOS 和 Windows 的版本,暂时没有 Linux 的版本(使用 Linux 开发的道友们对不住了哈~)

夸克网盘链接(附件大小限制,纯属无奈之举):
我用夸克网盘给你分享了「Vortex MCP」,点击链接或复制整段内容,打开「夸克 APP」即可获取。
/~52113A8qbo~:/
链接:https://pan.quark.cn/s/e59c8a3ba6ff

1、vortex-mcp

MacOS:
Apple M 系列芯片的选择 vortex-mcp.mac.arm64.zip 下载;Intel 芯片的用户应该不多了吧?如果有,评论区留言,我再更新(我太懒了~)。

Windows:
直接选择 vortex-mcp.win.x86.zip 下载。

2、vortex-companion

这是 MCP 工具的一个伴侣 App,主要用于危险命令的同意授权、用户提问以及 scp 文件上传下载的进度显示,完全可选,不强绑定,但是非常的推荐(基于 Tauri 的,也非常省资源)。

MacOS:
Apple M 系列芯片的选择 Vortex MCP Companion_0.1.0_universal.dmg 下载;Intel 芯片的用户同上,评论区留言。

Windows:
直接选择 Vortex MCP Companion_0.1.0_x64-setup.exe 下载。

安装很简单,解压后就双击,然后下一步下一步就行了。

三、工具使用

vortex-mcp 工具支持的环境变量:

环境变量类型默认值描述
核心配置
VORTEX_NAME字符串-你的聊天工具名称(可选)
数据库连接
VORTEX_DATABASES字符串列表(分号分隔)-数据库连接字符串,格式:<driver>://<user>:<pass>@<host>:<port>/<database>?name=<connection_name>
支持驱动:mysql, postgres, sqlite
SSH 服务器
VORTEX_SSH_SERVERS字符串列表(分号分隔)-SSH 服务器连接字符串,格式:
密码认证:ssh://user:password@host:port?name=<connection_name>
密钥认证:ssh://user@host:port?name=<connection_name>&private_key=/path/to/key
Redis 实例
VORTEX_REDIS字符串列表(分号分隔)-Redis 连接字符串,格式:redis://[:password]@host:port/db?name=<connection_name>
API 密钥
VORTEX_WEB_SEARCH_API_KEY字符串-Tavily API 密钥(用于 Web 搜索 / 爬取),自行获取
VORTEX_DOCS_API_KEY字符串-Context7 API 密钥(用于文档查询)自行获取
Shell Guard 安全设置
VORTEX_SHELL_GUARD_ENABLED布尔值true启用 / 禁用危险命令检测
VORTEX_SHELL_GUARD_MAX_FILES整数100触发确认提示的文件数量阈值
VORTEX_SHELL_GUARD_MAX_TOTAL_SIZE_MB整数100触发确认提示的总文件大小阈值(MB)
VORTEX_SHELL_GUARD_TIMEOUT_SECS整数10影响分析超时时间(秒)
确认超时设置
VORTEX_DANGEROUS_CONFIRM_TIMEOUT_SECS整数25危险命令确认超时时间
VORTEX_OVERWRITE_CONFIRM_TIMEOUT_SECS整数25文件覆盖确认超时时间
VORTEX_ASK_USER_TIMEOUT_SECS整数90提问用户交互超时时间

MCP 配置:

{ "mcpServers": { "vortex": { "command": "vortex-mcp", "args": ["--enable-fs"], // 这个参数可选 "env": { "GITHUB_TOKEN": "ghp_your-token", // 这个可选,如果你要用 gh 命令的话,最好设置上 "VORTEX_SSH_SERVERS": "ssh://root:123456@192.168.100.66?name=我的66服务器;ssh://root:123456@192.168.100.88?name=我的88服务器", "VORTEX_DATABASES": "postgres://postgres:123456@192.168.100.66:5432/postgres?name=我的66数据库;postgres://postgres:123456@192.168.100.88:5432/postgres?name=我的88数据库", "VORTEX_WEB_SEARCH_API_KEY": "tvly-dev-your-key", "VORTEX_DOCS_API_KEY": "ctx7sk-your-key" } } } } 
小提示

上面的环境变量都是可选的,你不配置对应的环境变量,就不会出现对应的工具,工具是按需加载的。

数据库 / 服务器密码 / 名称中的特殊字符

如果有特殊字符,要使用 URL 编码,一切都是按照 URL 规范来的。

四、效果展示

询问用户问题:

下载服务器文件:

确认危险命令:


📌 转载信息
原作者:
ilxqx
转载时间:
2026/1/21 21:40:42

【项目背景】 英语持续学习者一枚,平时高度依赖浏览器翻译。但在每天使用非浏览器应用比如每天早上看网易邮箱大师汇总的各种国外邮件时,叽里咕噜说了一大堆完全看不懂,只能手动复制去翻译,步骤繁琐。 市面上的大模型翻译软件虽然强大,但对于我这种只求 “快速看懂” 的场景来说,有点 “杀鸡用牛刀”。

【开发初衷】 既然刚升了 3 级,最近发现有有始皇提供的 DeepLX API Key 这个好东西,不想浪费,于是萌生了自己动手的想法。 既然是自用,主打一个超低占用、极简主义。不搞花里胡哨的功能,只解决核心痛点。

【技术栈】

  • 框架: Tauri + Rust(确保超低内存占用)
  • 开发辅助: 代码主要由 Sonnet 4.5 生成
  • 翻译源: 完美适配 L 站 DeepLX API

【功能展示】

1. 单词翻译:响应迅速

2. 长短句翻译:准确流畅

3. 极简设置:填入 Key 即可用

4. 极致轻量:几乎不占内存

【致谢】 特别感谢 L 站 提供的优质资源,以及 wong 公益站随时跑路公益站 提供的支持

1、单词翻译效果:

2、长短句翻译效果

3、设置

4、超低占用

最后
再次感谢 L 站,以上有和我类似诉求的佬友试试看,由于我本身是做 python 和 C++ 的开发,这个项目使用的技术依赖 AI, 难免有没考虑到的,使用过程中可以随时反馈,对了由于我没有苹果电脑,使用苹果的佬友可以自行编译看看。


📌 转载信息
原作者:
ljchengx
转载时间:
2026/1/20 10:09:00


GitHub: https://github.com/fengshao1227/Open-Switch

觉得有用的话留个 Star

起因

用 OpenCode CLI 的时候,每次切换 API 提供商都要手动改 JSON 配置文件,改完还得重启终端。用多了几个 API 服务商之后,配置文件越改越乱,有时候还会不小心写错格式导致启动失败。

并且找了站内的关于 opencode 的第三方 api,都是手动编写,作为一个 ai 时代高效开发的人来说,怎么可能让配置第三方 api 这种小事耽误时间,所以想着能不能做个图形界面来管理这些配置,就顺手写了这个工具。


能干什么

管理 API 提供商

  • 接入 wong 佬的 claude api

管理 MCP 服务器

MCP (Model Context Protocol) 服务器配置也能在界面上管理:

  • 本地服务器:基于命令行启动 (npx、node 之类的)

  • 远程服务器:基于 URL 的远程服务

  • 环境变量配置

  • 单独启用 / 禁用某个服务器

Windows 用户不用担心,会自动给 npm/npx 命令加上 cmd /c 包装。

管理全局提示词

OpenCode 的 AGENTS.md 可以在界面上编辑了:

  • 创建多个提示词模板,一键切换

  • 切换时自动备份当前提示词


下载安装

预编译版本

Releases 下载对应系统的版本:

  • macOS: Open-Switch_x.x.x_aarch64.dmg (Apple Silicon) 或 Open-Switch_x.x.x_x64.dmg (Intel)

  • Windows: Open-Switch_x.x.x_x64-setup.exe

  • Linux: Open-Switch_x.x.x_amd64.AppImage.deb

从源码构建


git clone https://github.com/fengshao1227/Open-Switch.git

cd Open-Switch/open-switch

pnpm install

pnpm build

构建完的安装包在 src-tauri/target/release/bundle/ 目录。


使用方法

添加 API 提供商

  1. 点击 "添加提供商"

  2. 选择 SDK 类型 (OpenAI/Anthropic/Google)

  3. 填写 API Key 和其他配置

  4. 保存

配置会自动写入 ~/.config/opencode/opencode.json~/.local/share/opencode/auth.json

配置 MCP 服务器

  1. 点击 "MCP 服务器" 标签

  2. 添加本地或远程服务器

  3. 配置命令 / URL 和环境变量

  4. 启用需要的服务器

切换提示词模板

  1. 点击 "提示词" 标签

  2. 创建新模板或编辑现有模板

  3. 点击 "激活" 切换到对应模板

  4. 会自动同步到 ~/.config/opencode/AGENTS.md


技术栈

前端: React 18 + TypeScript + TailwindCSS + shadcn/ui + TanStack Query + Framer Motion

后端: Tauri 2.x + Rust + SQLite

构建: Vite + pnpm

选 Tauri 是因为比 Electron 轻很多,打包出来的体积小,启动也快 awa。


配置文件位置

| 文件 | 用途 |

|------|------|

| ~/.config/opencode/opencode.json | OpenCode 主配置 |

| ~/.local/share/opencode/auth.json | API Key 存储 |

| ~/.config/opencode/AGENTS.md | 全局提示词 |

| ~/.open-switch/open-switch.db | 本地提示词模板数据库 |

Windows 系统会自动适配成 Windows 路径。


常见问题

Q: 和 OpenCode CLI 是什么关系?

A: 这是个配置管理工具,通过读写 OpenCode 的配置文件来管理设置,不影响 OpenCode CLI 本身的使用。

Q: API Key 安全吗?

A: API Key 存在 ~/.local/share/opencode/auth.json, 文件权限受操作系统保护。工具不会把密钥上传到任何地方。

Q: 遇到问题怎么办?

A: 在 GitHub Issues 提问题,或站内回帖,我会尽快回复。


开发相关

如果想参与开发或者自己改改:

 cd open-switch

pnpm install

pnpm dev # 启动开发模式 

项目结构:

  • src/ - 前端代码 (React + TypeScript)

  • src-tauri/ - 后端代码 (Rust)

  • src-tauri/src/config.rs - OpenCode 配置管理

  • src-tauri/src/database.rs - SQLite 数据库

  • src-tauri/src/prompt_service.rs - 提示词业务逻辑

欢迎提 PR, 提之前跑一下 pnpm typecheckpnpm format:check 确保代码格式没问题。


界面预览(gemini 自由发挥的,win 的效果我还没看,下面是 mac 的)




致谢

这个项目的灵感和很多实现细节都来自 CC Switch。CC Switch 是一个非常优秀的 Claude Code/Codex/Gemini CLI 配置管理工具,功能强大、架构清晰。Open Switch 在它的基础上做了一些调整,专注于 OpenCode CLI 的配置管理。

感谢 linux.do 社区提供的技术交流平台,很多问题和思路都是在社区里讨论出来的(来到这里 2 个月来,学到了很多东西)。


许可证

MIT License


版本: v1.0.0 | 最后更新


📌 转载信息
原作者:
feng_li
转载时间:
2026/1/16 12:28:32

github 地址:

dreamlonglll/mini-mqtt-client: 一个开源的 mqtt 客户端工具。支持保存命令、定时循环发送和预处理脚本

开发原因

  1. mqttx 不好用,没有指令存储功能
  2. 佬友的另一个 mqtt 项目 【https://linux.do/t/topic/1365043】 采用的 Electron 架构,有点大。

开发目的

主要目的: 自用
次要目的: 为开源事业做一次贡献

项目优势

  • 采用 tarui 架构,整包大小控制在 6M(win/linux 端)左右
  • github action 打包编译 win+mac+linux 多端应用
  • 支持 tls + 自签 CA + 客户端证书 + 证书密钥
  • 支持指令存储以及循环发送(按 server 分割)
  • 支持预处理脚本(按 server 分割)
    • 采用 JavaScript 脚本引擎 + 沙箱模式
    • 支持:发送前预处理、接收后处理
    • 内置加密工具库(AES、SHA、MD5、HMAC 等)
  • 支持切换数据存储位置,可以搭配 OneDrive 实现云端同步
多图


开源感言

首先感谢佬友的使用,也十分感谢提出建议的佬友,并期待佬友提出更多的建议

其他

目前时间挺空的,会及时更新


📌 转载信息
原作者:
wang.wai
转载时间:
2026/1/16 12:25:02

在线预览 https://mdnice.disign.me/

本人不太懂前端代码,使用 Codex 干了三天,对 Markdown-nice 二次开发。本来一直在用他的在线版本,结果发现有很多问题,其中有个就是无法上传图片,因此我二次开发了支持了一些功能。

Markdown Nice 是一个可编辑主题的 Markdown 编辑器,适用于公众号等排版场景。

本次开发支持功能如下:

  • 支持 Cloudflare R2 作为图床
  • 升级 nodejs 支持的版本,目前支持 node v20 以上版本打包
  • 支持使用 tauri 打包成本地应用
  • 新增文档列表管理功能,支持新建文档、查看历史文档以及编辑和删除历史文档
  • 支持图床配置的导入和导出,方便跨浏览器同步配置
  • 支持文章目录,可以对文章进行分类。
  • 支持文件检索,使用 Lunr + jieba-wasm 实现文档检索

为什么做这个?

备考的日子里,我总是很难准确知道自己每天到底学了多少时间。

手动计时太麻烦,番茄钟又总是忘记开。坐在电脑前一整天,感觉学了很久,但实际有效学习时间可能只有几个小时。

于是我想:能不能让电脑自动帮我记录学习时间?

就像运动手环自动记录步数一样 —— 打开网课页面就自动开始计时,关掉就停止。不需要任何操作,专注学习就好。

快学点儿吧 就这样诞生了

功能亮点

功能说明
桌面程序基于 Tauri 的轻量应用,安静地待在系统托盘
浏览器扩展Chrome 扩展自动检测学习页面,无需手动操作
手机 APPFlutter 开发的 Android 应用,随时随地查看学习数据
云同步多设备数据无缝同步,电脑手机数据互通
数据统计直观的图表展示学习轨迹,日 / 周 / 月维度分析
目标管理设定每日目标,倒计时考试日期
智能通知学习里程碑提醒(可关闭,不打扰你)
开机启动随系统自动运行,打开电脑就开始守护

工作原理

┌─────────────────┐     ┌─────────────────┐     ┌─────────────────┐
│   Chrome 浏览器  │────▶│     桌面程序     │────▶│    手机 APP     │
│    (扩展程序)    │     │   (时间记录器)   │     │   (查看统计)    │
└─────────────────┘     └─────────────────┘     └─────────────────┘
  1. Chrome 扩展 监控你的浏览器标签页
  2. 当你访问的 URL 匹配某个课程时,通知桌面程序
  3. 桌面程序 开始计时,数据存储在本地 SQLite 数据库
  4. 可选同步 到云端,在手机上查看统计数据

演示图:

桌面程序

移动 APP:


📌 转载信息
原作者:
Ar3s
转载时间:
2026/1/12 10:39:05

分享一个自己在写的小工具。

起因是之前用 CLIProxyAPI 来使用 Antigravity 里的 Claude 模型,体验不太好,写着写着就断了。后来在论坛看到有佬推荐 OpenCode,试了一下真的很丝滑。但是现在论坛里分享的配置工具基本都是给 Claude Code 做的,OpenCode 没有现成的可视化配置工具,每次都要手改 JSON 挺麻烦。于是就干脆自己撸了一个。

定位

这个就是给自己日常使用的小工具箱,按需添加功能。目前有的功能:

  • OpenCode 配置管理:可视化编辑供应商和模型,告别手撸 JSON
  • Claude Code 配置管理:顺手也支持了,一键切换供应商(本人用的少,所以只是简单支持了一下,重点使用的建议还是使用 CC-Switch)
  • 供应商统一管理:API Key、代理地址集中管理
  • 数据备份:本地备份 + WebDAV 云端同步
  • 自动更新检查:有新版本会提醒

OpenCode 配置

Claude Code 配置

设置页面

后续计划

  • AI 绘图
  • 其他想到的小功能…

技术相关

Tauri 2 + React + TypeScript,数据全部存本地,支持 Windows /macOS/ Linux。

下载

顺便分享一个 OpenCode 安装踩坑

使用 NPM 安装: npm install -g opencode-ai

如果你本地 npm 源设置的是淘宝镜像,安装 OpenCode 可能会遇到这个报错:

It seems that your package manager failed to install the right version of the opencode binary…

原因:淘宝镜像源有些包没有正常同步。
解决方案:切换到腾讯镜像源
npm install -g nrm && nrm use tencent && npm install -g opencode-ai
腾讯镜像源文档: npm

感兴趣的可以试试,同时也希望大家帮忙给仓库点个 Star,有其他需求的也欢迎提 Issue 或 PR!


📌 转载信息
转载时间:
2026/1/5 12:55:42

MCP Inspector 是基于 Tauri 2 + Vue 3 重构的 MCP (Model Context Protocol) 调试工具。前端通过 Vue 3 构建响应式界面,后端利用 Rust (Tauri) 与 rmcp 客户端实现高效稳定的协议交互。

项目地址

Note : 本项目旨在提供一个轻量、现代化的 MCP 协议调试环境。欢迎提交 Issue 或 PR!




📌 转载信息
原作者:
jin_luke
转载时间:
2026/1/4 17:20:32

项目地址: misxzaiz/claude-code-pro at test-0.0.1

Claude Code 是 Anthropic 官方推出的 AI 辅助编程命令行工具。 misxzaiz/claude-code-pro at test-0.0.1 是其第三方可视化 GUI 封装,提供了更友好的图形界面,让你无需命令行也能享受 Claude AI 带来的编程体验。

已打包,可直接在 window 安装使用


📌 转载信息
原作者:
misxzaiz
转载时间:
2026/1/4 17:14:53

项目特点

该项目从 "思维模型" 出发,实现了:
一个思维模型对多个提示词;
一个思维模型可进行多种分类;
分类与子文档结构可自定义;
分类的层级自动扩展;
一键复制提示词;
卡片 / 列表 双视图;
纯本地化,tauri, 前后端一体化打包

开发过程

采用 antigravity+jules 混合开发.
实践了我之前提到的开发思路,用了 2 天完成该版本.

后续

视我自己的使用情况,和大家的反馈,会较为佛系的更新,因为目前来看,完成度还算可以.

关于思维模型,前几天从 100 个思维模型中学习并整理了 40 个.
后续我在完成从思维模型转换到该项目可用的数据后,也会分享出来.(可能到时候会做导入导出,或者多库设计.)

契机

之所以学思维模型,以及到开发这个工具,来自于我的这样一系列思考:
如何更高效率的使用 AI 工具?
尝试做出完美的大一统的提示词体系,或工作流.
尝试失败,反思.
结论:目前的 AI 范式和水平下,人的构思,组织,审查,依然是不可替代的部分;
你可以让 AI 帮你写代码,帮你写文档,但是你没办法让 AI 真正的 "读懂" 你在想什么,你到底想要什么.
所以只有靠提升自己的思维能力,来提高与 AI 协作的效率.

而这个工具就是用来加速管理你的思维模型,方便存放和找出你所需要的思维模型,以及 AI 能使用的提示词.

版本更新:

0.1.1: 增加了内置的使用教程



📌 转载信息
转载时间:
2026/1/4 16:56:00