业余 3D 爱好者的 AI 工具
家里小娃想玩 3D 建模和打印,最近准备也跟风买台拓竹,问问大家 P1/A1 系列怎么选,然后家里随手拍照的照片有没有办法能变成 3D 文件?我搜了一下好像就这几个 3D AI 工具,有没有免费的?不知道哪个好用
xiaohack博客专注前沿科技动态与实用技术干货分享,涵盖 AI 代理、大模型应用、编程工具、文档解析、SEO 实战、自动化部署等内容,提供开源项目教程、科技资讯日报、工具使用指南,助力开发者、AI 爱好者获取前沿技术与实战经验。
家里小娃想玩 3D 建模和打印,最近准备也跟风买台拓竹,问问大家 P1/A1 系列怎么选,然后家里随手拍照的照片有没有办法能变成 3D 文件?我搜了一下好像就这几个 3D AI 工具,有没有免费的?不知道哪个好用
接上文:自定义 Emoji 重绘版 https://2libra.com/post/personal-works/QhAL4AQ
@Jimmy
原:
现:
原:
现:

接下来还会继续重绘已有表情里面不太好的,以及现在还没有的其他新表情。大家有想用的表情可以发出来,我慢慢弄。大家也可以自己在 chatGPT 传几张之前的表情图片,使用以下提示词试一下自行重绘。
请阅读并分析以上表情图片的绘画风格,记住它们的绘画风格。接下来我会把我需要重绘的其他表情图片发给你,你需要在完全保持原表情表达的意思基础上,将后续我发送给你的表情图片的绘画风格,修改为之前你记住的的绘画风格,并且面部表情和我发给你的图片要尽量保持一致。现在你准备好了后就可以回复我:“请发送你需要重绘的表情图片,我将按照我记住的风格来重绘它,并且和你发给我的图片尽量保持一致”
在线地址: https://johnsmith2078.github.io/webjrpg/
完成度比我想象地高很多,第一次直出的版本就完全能跑了,不过后续稍微迭代了一下,加了一些传统 RPG 的特性,omo 也确实是 token 消耗器,几下把我 codex 的周额度就花完了,目前流程还很短,只有十来分钟的样子,不过毕竟只是一个实验性的项目。
现在自然拼读 Phonics 好像更流行
以前学的音标感觉都没怎么学好,由于印刷出版等关系,各种音标符号分的也不太清,还有就是美音英音不同音标就混淆了
最近我写了一个挺“废”的网页,核心逻辑只有一个:排队。
你可以给自己起个 7 字以内的昵称,然后化身成一个小圆点,扎进来自世界各地的网友堆里。 没什么目标,也没什么奖励,大家就是挤在一起,偶尔发个表情( Emoji )互相打个招呼。 为了不让你在人海里走丢,我给“你”的小球加了一层淡淡的光晕。
但这个排队其实是有终点的。当你慢慢挪动、穿过人群,最终站到队列的最前方时,真正的序幕才刚拉开:
说实话,在这个追求效率的时代,做一个强制让人浪费时间、最后还把人“踢出去”的东西挺反直觉的。但那种站在终点看着画面变灰、翻看别人留言的感觉,确实有一种说不出的意思。
如果你也想来体验一下这种“排队”的感觉: 🔗 queue.mikuorz.com
TL;DR
用 sing-box 取代了 Xray + Proxifier + wireguard-tools 的方案
https://blog.jinmiaoluo.com/posts/macos-sing-box-global-proxy-wireguard/
作为一个十多年的程序员,笔记似乎始终没有离开我的身边,先回顾一下我的整个笔记使用的历史,下面都是我深度使用,大部分都是付费使用过的笔记 app ,当然几乎全是 macOS 上的。它也深刻地体现了时代发展留下的烙印(好中登的语句....
直到现在,就直接用手机系统自带的笔记,基本不怎么用额外的笔记软件。
为什么不用了?因为发现记的笔记大部分根本没什么用。以前记笔记是把很多的经验性的内容记录下来,方便以后查询,节省后面的时间,有很长的长尾效应和长尾收益。
但在 AI 时代,大模型压缩了所有互联网上的知识,我们所有的笔记也基本上都在里面。(当然,这里边包含的不包括我们自己创造的东西。比如写的文章、小说、短文和诗歌。)
去查笔记,远不如直接问 AI 更便捷,更全面,甚至更与时俱进。
更有时效性的我会直接语音让 vivo 的小 v 记忆帮我记录下来,然后后面使用的时候,我直接语音问询小 v 即可。比如我想记录一下我家的门锁换一次电池可以用多长时间,在我第一次给它安装电池的时候,就语音告诉小 v 今天我给门锁安装了电池。当下次门锁提醒我没电需要换电池的时候,我就直接语音问小 v ,距离上次给门锁换电池过去了多久即可。
顺应时代潮流,享受它们的乐趣。
你觉得呢?
主要更新:
iOS: https://apps.apple.com/us/app/audiotome/id6755520834
Android: https://play.google.com/store/apps/details?id=com.audiotome.audio_tome
交流群:

欢迎试用反馈
复制微信打开
#小程序://快团团/点击查看/rdUqwcLpNPj6Iiz
https://github.com/KUYE-OLG/AppleNewsRules
已经上传到仓库了
省流版如下:
Gemini 说是和加密币有关?可是我是新装的系统啊,就安装了 btop 和 htop 、nginx 、acme.sh
ubuntu@XXXXX:~$ locate libonion
/usr/lib/x86_64-linux-gnu/libonion.so
/usr/lib/x86_64-linux-gnu/libonion_security.so.1.0.19
ubuntu@XXXXX:~$ btop
ERROR: ld.so: object '/$LIB/libonion.so' from /etc/ld.so.preload cannot be preloaded (cannot open shared object file): ignored.
ERROR: ld.so: object '/$LIB/libonion.so' from /etc/ld.so.preload cannot be preloaded (cannot open shared object file): ignored.
ubuntu@XXXXX:~$ hostnamectl
Static hostname: XXXXX
Icon name: computer-vm
Chassis: vm 🖴
Machine ID: XXXXX
Boot ID: XXXXX
Virtualization: kvm
Operating System: Ubuntu 24.04 LTS
Kernel: Linux 6.8.0-71-generic
Architecture: x86-64
Hardware Vendor: Tencent Cloud
Hardware Model: CVM
Firmware Version: seabios-1.9.1-qemu-project.org
Firmware Date: Tue 2014-04-01
Firmware Age: 11y 9month 3w 4d
在使用 LangChain 开发大模型应用时,我们经常会遇到这样的场景: 在本地或局域网环境下问题还不明显;但一旦你需要: 那么“无认证”就意味着: 这不仅有安全风险,还可能带来资源滥用和成本失控。 本文介绍一种简单、官方、优雅的解决方案: 无需改动 Ollama / vLLM,也无需额外开发复杂的鉴权系统。 Nginx 作为高性能 Web 服务器和反向代理,本身就具备非常灵活的请求处理能力。 我们可以利用 Nginx 的能力,在模型服务前面加一层 API Key 校验: 首先生成一个足够安全的随机字符串作为 API Key: 示例输出(32 位): 建议: 在 Nginx 的 至此,你已经为 Ollama / vLLM 加上了一道 API Key 防线。 为了防止 API Key 泄露后被恶意刷请求,可以增加限流。 在 在 配置完成后,客户端只需像调用在线模型一样,携带 是不是非常像 OpenAI? 如果你的 API Key 较长(例如 >64 字符),Nginx 启动时可能出现错误: 解决方法:在 API Key 管理 日志审计 网络隔离 HTTPS(强烈建议) 通过 Nginx + API Key 的方式,我们可以非常优雅地为本地大模型服务补齐「认证」这一关键能力: 如果你正在: 那么,这个方案非常值得你直接落地使用。 希望这篇文章能对你有所帮助 🙌 欢迎转发、收藏,也欢迎交流更高级的模型服务治理方案。任何人只要知道地址,就可以无限制地调用你的模型服务。
使用 Nginx 为本地大模型服务添加 API Key 认证
一、解决方案概述
客户端 → Nginx(API Key 校验) → Ollama / vLLM
┌──────────────────────────┐
│ Client │
│ LangChain / SDK / curl │
└─────────────┬────────────┘
│
│ Authorization: Bearer API_KEY
▼
┌──────────────────────────┐
│ Nginx │
│ • API Key 校验 (map) │
│ • 限流 (limit_req) │
│ • 日志 / 代理 / TLS │
└─────────────┬────────────┘
│
▼
┌──────────────────────────┐
│ Model Server │
│ Ollama / vLLM │
│ 127.0.0.1:11434 │
└──────────────────────────┘方案特点
二、具体实施步骤
1️⃣ 生成 API Key
openssl rand -hex 16a1b2c3d4e5f6g7h8i9j0k1l2m3n4o5p62️⃣ 配置 Nginx(conf.d)
conf.d 目录中创建配置文件,例如:/etc/nginx/conf.d/ollama-api.conf# 期望请求头格式:Authorization: Bearer <api-key>
map $http_authorization $is_valid_key {
default 0;
"Bearer your-api-key-1" 1;
"Bearer your-api-key-2" 1;
"Bearer your-api-key-3" 1;
}
server {
listen 21434;
server_name your-domain.com; # 替换为你的域名
location / {
# API Key 校验
if ($is_valid_key = 0) {
return 401 'Unauthorized';
}
# 代理到本地模型服务
proxy_pass http://127.0.0.1:11434;
# 代理头设置
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
# 流式响应支持(Chat / Stream 模式必开)
proxy_buffering off;
proxy_cache off;
}
# 健康检查接口(可选,不做认证)
location /health {
access_log off;
return 200 "OK";
}
}3️⃣ 增加限流保护(强烈建议)
http 块中定义限流区域:http {
limit_req_zone $binary_remote_addr zone=api_limit:10m rate=10r/s;
}server 或 location 中启用:location / {
# 单 IP 每秒最多 10 次请求,允许短暂突发
limit_req zone=api_limit burst=20 nodelay;
# 其他配置...
}4️⃣ 重载 Nginx 配置
nginx -s reload三、LangChain 客户端调用示例
api_key 即可。# pip install -U langchain langchain-openai
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
model="qwen3:32b",
base_url="http://192.168.31.33:21434/v1",
api_key="your_api_key",
)这也是这个方案最大的优点之一:
👉 调用方式完全统一,几乎零学习成本。四、常见问题:map_hash 报错
could not build map_hash, you should increase map_hash_bucket_size: 64http 块中增加配置:http {
map_hash_bucket_size 128;
# 如果遇到 server_names_hash_bucket_size 报错
# server_names_hash_bucket_size 128;
}五、安全与生产建议
127.0.0.1六、总结
最近对 CRS 自己二开的项目优化和重构拉一下,并且添加拉 Opencode支持 包含Oh My OpenCode 插件支持,想看配置的直接划到下面或者直接访问 :
https://github.com/dadongwo/claude-relay-service
最近优化亮点:
requestType: 'agent' 并优化 System Prompt 插入策略,降低被上游风控拦截的概率。429 Resource Exhausted 深度解析(区分 Quota/RateLimit/Capacity),自动清理会话并切换账号重试。Note: 若某个模型触发了限流,此处还会显示该模型的 冷却倒计时 (Cooling Down),方便您了解何时可以恢复使用。
– 小更新 针对Antigravity 账户的gemin 模型兼容和工具调用对齐 解决 最新429 问题 mcp工具调用兼容等等
需要的可自取:
https://github.com/dadongwo/claude-relay-service/blob/main/README.md
OpenCode 集成配置
在用户目录下的 .config\opencode\opencode.json 文件中配置 provider:
// antigravity 配置示例 "antigravity": { "npm": "@ai-sdk/anthropic", "name": "Antigravity", "options": { "baseURL": "http://localhost:3000/antigravity/api/v1", "apiKey": "cr_XXXXXXXXX" }, "models": { "claude-opus-4-5-thinking": { "name": "Claude Opus 4.5 Thinking", "thinking": true, "limit": { "context": 200000, "output": 8192 }, "modalities": { "input": ["text", "image"], "output": ["text"] } }, "claude-sonnet-4-5-thinking": { "name": "Claude Sonnet 4.5 Thinking", "thinking": true, "limit": { "context": 200000, "output": 8192 }, "modalities": { "input": ["text", "image"], "output": ["text"] } }, "gemini-3-flash-preview": { "name": "Gemini 3 Flash Preview", "attachment": true, "limit": { "context": 1000000, "output": 8192 }, "modalities": { "input": ["text", "image", "pdf"], "output": ["text"] } }, "gemini-3-pro-preview": { "name": "Gemini 3 Pro Preview", "thinking": true, "attachment": true, "limit": { "context": 1000000, "output": 8192 }, "modalities": { "input": ["text", "image", "pdf"], "output": ["text"] } } } }, // codex cli 接入账户示例 "openai-custom": { "npm": "@ai-sdk/openai", "name": "OpenAI Custom", "options": { "baseURL": "http://localhost:3200/openai", "apiKey": "cr_xxxxxxxxxxxxxxxx" }, "models": { "gpt-5.2": { "name": "GPT 5.2 (Custom)", "limit": { "context": 272000, "output": 128000 }, "modalities": { "input": ["text", "image"], "output": ["text"] }, "variants": { "none": { "reasoningEffort": "none", "reasoningSummary": "auto", "textVerbosity": "medium" }, "low": { "reasoningEffort": "low", "reasoningSummary": "auto", "textVerbosity": "medium" }, "medium": { "reasoningEffort": "medium", "reasoningSummary": "auto", "textVerbosity": "medium" }, "high": { "reasoningEffort": "high", "reasoningSummary": "detailed", "textVerbosity": "medium" }, "xhigh": { "reasoningEffort": "xhigh", "reasoningSummary": "detailed", "textVerbosity": "medium" } } }, "gpt-5.2-codex": { "name": "GPT 5.2 Codex (Custom)", "limit": { "context": 272000, "output": 128000 }, "modalities": { "input": ["text", "image"], "output": ["text"] }, "variants": { "low": { "reasoningEffort": "low", "reasoningSummary": "auto", "textVerbosity": "medium" }, "medium": { "reasoningEffort": "medium", "reasoningSummary": "auto", "textVerbosity": "medium" }, "high": { "reasoningEffort": "high", "reasoningSummary": "detailed", "textVerbosity": "medium" }, "xhigh": { "reasoningEffort": "xhigh", "reasoningSummary": "detailed", "textVerbosity": "medium" } } }, "gpt-5.1-codex-max": { "name": "GPT 5.1 Codex Max (Custom)", "limit": { "context": 272000, "output": 128000 }, "modalities": { "input": ["text", "image"], "output": ["text"] }, "variants": { "low": { "reasoningEffort": "low", "reasoningSummary": "detailed", "textVerbosity": "medium" }, "medium": { "reasoningEffort": "medium", "reasoningSummary": "detailed", "textVerbosity": "medium" }, "high": { "reasoningEffort": "high", "reasoningSummary": "detailed", "textVerbosity": "medium" }, "xhigh": { "reasoningEffort": "xhigh", "reasoningSummary": "detailed", "textVerbosity": "medium" } } } } } oh-my-opencode.json 配置文件示例:{ "$schema": "XXXXXXXXX", "google_auth": false, "agents": { "sisyphus": { "model": "antigravity/claude-opus-4-5-thinking" }, "oracle": { "model": "openai-custom/gpt-5.2" }, "librarian": { "model": "opencode/glm-4.7-free" }, "explore": { "model": "antigravity/gemini-3-flash-preview" }, "frontend-ui-ux-engineer": { "model": "antigravity/gemini-3-pro-preview" }, "document-writer": { "model": "antigravity/gemini-3-flash-preview" }, "multimodal-looker": { "model": "antigravity/gemini-3-flash-preview" } } } 欢迎讨论和提问,谢谢各位佬。
VV佬发了贼多OpenAI的Key,在网页里一点点测试是真难绷啊,给我电脑干死机了都
实在是受不了了,让Gemini搓了一个Go语言做的检测工具:
PS:并发可以拉很高,我一般用1W并发测试的,速度比网页版快非常多,还不卡,就是准确率还不知道对不对,麻烦佬反馈一下了
我看站内的破限词大多集中在xxx方向,似乎没有什么正经方向的破限。写了个提示词,自己用起来还不错。
下面的提示词可能会造成AI输出极度令人厌恶(血腥、自残、色情等)的内容!
务必将该提示词用于合法要求,并自行承担使用该提示词带来的一切责任!
酒馆里导入预设就能用。支持连续对话,效果挺不错的。
标准破限.json.txt
原理的话,有点类似于DAN。佬们自己打开提示词看看应该就看明白了。
另外,只建议用这个提示词去询问需要破限才能问的内容,问正经的内容可能效果不太好。
为了确保AI详细回答,我要求他至少输出1500个token,佬们可以在提示词里面自己改。
务必将该提示词用于合法要求,并自行承担使用该提示词带来的一切责任!
最近对 CRS 自己二开的项目优化和重构拉一下,并且添加拉 Opencode支持 包含Oh My OpenCode 插件支持,想看配置的直接划到下面或者直接访问 :
https://github.com/dadongwo/claude-relay-service
最近优化亮点:
requestType: 'agent' 并优化 System Prompt 插入策略,降低被上游风控拦截的概率。429 Resource Exhausted 深度解析(区分 Quota/RateLimit/Capacity),自动清理会话并切换账号重试。Note: 若某个模型触发了限流,此处还会显示该模型的 冷却倒计时 (Cooling Down),方便您了解何时可以恢复使用。
– 小更新 针对Antigravity 账户的gemin 模型兼容和工具调用对齐 解决 最新429 问题 mcp工具调用兼容等等
需要的可自取:
https://github.com/dadongwo/claude-relay-service/blob/main/README.md
OpenCode 集成配置
在用户目录下的 .config\opencode\opencode.json 文件中配置 provider:
// antigravity 配置示例 "antigravity": { "npm": "@ai-sdk/anthropic", "name": "Antigravity", "options": { "baseURL": "http://localhost:3000/antigravity/api/v1", "apiKey": "cr_XXXXXXXXX" }, "models": { "claude-opus-4-5-thinking": { "name": "Claude Opus 4.5 Thinking", "thinking": true, "limit": { "context": 200000, "output": 8192 }, "modalities": { "input": ["text", "image"], "output": ["text"] } }, "claude-sonnet-4-5-thinking": { "name": "Claude Sonnet 4.5 Thinking", "thinking": true, "limit": { "context": 200000, "output": 8192 }, "modalities": { "input": ["text", "image"], "output": ["text"] } }, "gemini-3-flash-preview": { "name": "Gemini 3 Flash Preview", "attachment": true, "limit": { "context": 1000000, "output": 8192 }, "modalities": { "input": ["text", "image", "pdf"], "output": ["text"] } }, "gemini-3-pro-preview": { "name": "Gemini 3 Pro Preview", "thinking": true, "attachment": true, "limit": { "context": 1000000, "output": 8192 }, "modalities": { "input": ["text", "image", "pdf"], "output": ["text"] } } } }, // codex cli 接入账户示例 "openai-custom": { "npm": "@ai-sdk/openai", "name": "OpenAI Custom", "options": { "baseURL": "http://localhost:3200/openai", "apiKey": "cr_xxxxxxxxxxxxxxxx" }, "models": { "gpt-5.2": { "name": "GPT 5.2 (Custom)", "limit": { "context": 272000, "output": 128000 }, "modalities": { "input": ["text", "image"], "output": ["text"] }, "variants": { "none": { "reasoningEffort": "none", "reasoningSummary": "auto", "textVerbosity": "medium" }, "low": { "reasoningEffort": "low", "reasoningSummary": "auto", "textVerbosity": "medium" }, "medium": { "reasoningEffort": "medium", "reasoningSummary": "auto", "textVerbosity": "medium" }, "high": { "reasoningEffort": "high", "reasoningSummary": "detailed", "textVerbosity": "medium" }, "xhigh": { "reasoningEffort": "xhigh", "reasoningSummary": "detailed", "textVerbosity": "medium" } } }, "gpt-5.2-codex": { "name": "GPT 5.2 Codex (Custom)", "limit": { "context": 272000, "output": 128000 }, "modalities": { "input": ["text", "image"], "output": ["text"] }, "variants": { "low": { "reasoningEffort": "low", "reasoningSummary": "auto", "textVerbosity": "medium" }, "medium": { "reasoningEffort": "medium", "reasoningSummary": "auto", "textVerbosity": "medium" }, "high": { "reasoningEffort": "high", "reasoningSummary": "detailed", "textVerbosity": "medium" }, "xhigh": { "reasoningEffort": "xhigh", "reasoningSummary": "detailed", "textVerbosity": "medium" } } }, "gpt-5.1-codex-max": { "name": "GPT 5.1 Codex Max (Custom)", "limit": { "context": 272000, "output": 128000 }, "modalities": { "input": ["text", "image"], "output": ["text"] }, "variants": { "low": { "reasoningEffort": "low", "reasoningSummary": "detailed", "textVerbosity": "medium" }, "medium": { "reasoningEffort": "medium", "reasoningSummary": "detailed", "textVerbosity": "medium" }, "high": { "reasoningEffort": "high", "reasoningSummary": "detailed", "textVerbosity": "medium" }, "xhigh": { "reasoningEffort": "xhigh", "reasoningSummary": "detailed", "textVerbosity": "medium" } } } } } oh-my-opencode.json 配置文件示例:{ "$schema": "XXXXXXXXX", "google_auth": false, "agents": { "sisyphus": { "model": "antigravity/claude-opus-4-5-thinking" }, "oracle": { "model": "openai-custom/gpt-5.2" }, "librarian": { "model": "opencode/glm-4.7-free" }, "explore": { "model": "antigravity/gemini-3-flash-preview" }, "frontend-ui-ux-engineer": { "model": "antigravity/gemini-3-pro-preview" }, "document-writer": { "model": "antigravity/gemini-3-flash-preview" }, "multimodal-looker": { "model": "antigravity/gemini-3-flash-preview" } } } 欢迎讨论和提问,谢谢各位佬。
fork 本存储库:Fork xixu-me/Xget
获取 Cloudflare 凭证:
配置 GitHub Secrets:
CLOUDFLARE_API_TOKEN:你的 API 令牌CLOUDFLARE_ACCOUNT_ID:你的 Account ID触发部署:
main 分支会自动触发部署.md)、LICENSE、.gitignore 等不会触发部署绑定自定义域名(可选):在 Cloudflare Workers 控制台中绑定你的自定义域名
fork 本存储库:Fork xixu-me/Xget
获取 Cloudflare 凭证:
配置 GitHub Secrets:
CLOUDFLARE_API_TOKEN:你的 API 令牌CLOUDFLARE_ACCOUNT_ID:你的 Account ID触发部署:
pages 分支main 分支会自动触发同步和部署工作流.md)、LICENSE、.gitignore 等不会触发部署绑定自定义域名(可选):在 Cloudflare Pages 控制台中绑定你的自定义域名
注意:pages 分支是从 main 分支自动生成的。请勿手动编辑 pages 分支,因为它会被同步工作流覆盖。
fork 本存储库:Fork xixu-me/Xget
获取 EdgeOne Pages API Token:
配置 GitHub Secrets:
EDGEONE_API_TOKEN:你的 API Token触发部署:
pages 分支main 分支会自动触发同步和部署工作流.md)、LICENSE、.gitignore 等不会触发部署绑定自定义域名(可选):在 EdgeOne Pages 控制台中绑定你的自定义域名
注意:pages 分支是从 main 分支自动生成的。请勿手动编辑 pages 分支,因为它会被同步工作流覆盖。
fork 本存储库:Fork xixu-me/Xget
获取 Vercel 凭证:
配置 GitHub Secrets:
VERCEL_TOKEN:你的 Access TokenVERCEL_ORG_ID:你的 Team IDVERCEL_PROJECT_ID:你的 Project ID触发部署:
functions 分支main 分支会自动触发同步和部署工作流.md)、LICENSE、.gitignore 等不会触发部署绑定自定义域名(可选):在 Vercel 控制台中绑定你的自定义域名
注意:functions 分支是从 main 分支自动生成的。请勿手动编辑 functions 分支,因为它会被同步工作流覆盖。
fork 本存储库:Fork xixu-me/Xget
获取 Netlify 凭证:
配置 GitHub Secrets:
NETLIFY_AUTH_TOKEN:你的 personal access tokenNETLIFY_SITE_ID:你的 Project ID触发部署:
functions 分支main 分支会自动触发同步和部署工作流.md)、LICENSE、.gitignore 等不会触发部署绑定自定义域名(可选):在 Netlify 控制台中绑定你的自定义域名
注意:functions 分支是从 main 分支自动生成的。请勿手动编辑 functions 分支,因为它会被同步工作流覆盖。
fork 本存储库:Fork xixu-me/Xget
切换默认分支:
main 切换到 functions部署到 Deno Deploy:
绑定自定义域名(可选):在 Deno Deploy 控制台中绑定你的自定义域名
注意:functions 分支是从 main 分支自动生成的。请勿手动编辑 functions 分支,因为它会被同步工作流覆盖。
如果你希望在自己的服务器上运行 Xget,可以使用 Docker 或 Podman 部署:
从 GitHub Container Registry 拉取并运行预构建的镜像:
使用 Docker:
# 拉取最新镜像
docker pull ghcr.io/xixu-me/xget:latest
# 运行容器
docker run -d \
--name xget \
-p 8080:8080 \
ghcr.io/xixu-me/xget:latest
使用 Podman:
# 拉取最新镜像
podman pull ghcr.io/xixu-me/xget:latest
# 运行容器
podman run -d \
--name xget \
-p 8080:8080 \
ghcr.io/xixu-me/xget:latest
从源码构建容器镜像:
使用 Docker:
# 克隆存储库
git clone https://github.com/xixu-me/Xget.git
cd Xget
# 构建镜像
docker build -t xget:local .
# 运行容器
docker run -d \
--name xget \
-p 8080:8080 \
xget:local 使用 Podman:
# 克隆存储库
git clone https://github.com/xixu-me/Xget.git
cd Xget
# 构建镜像
podman build -t xget:local .
# 运行容器
podman run -d \
--name xget \
-p 8080:8080 \
xget:local 创建 docker-compose.yml 文件:
version: '3.8' services: xget: ghcr.io/xixu-me/xget:latest container_name: xget ports: - "8080:8080" restart: unless-stopped 使用 Docker Compose:
docker compose up -d
使用 Podman Compose:
podman compose up -d
部署完成后,Xget 将在 8080 端口运行。
注意:自托管部署不包括全球边缘网络加速,性能取决于你的服务器配置和网络环境。

模型训练数据中中文内容少,使用英文或加一句“把我说的内容翻译成英文再思考然后回答我”是否有意义?
都讲 事实,观点,逻辑,这些字都是认识都会说,可根本不知道怎么在自己身上使用。