标签 开源项目 下的文章

App 名:光子相机/Photon Camera

核心功能:

  1. 仿徕卡/富士/理光/索尼/宾得独家滤镜,还原度 90%+
  2. 多种样式的水印边框效果

滤镜来自我的一个开源项目: https://github.com/bjzhou/3dlut-creator
相比刚发布时候解决了两个重大问题:

  1. 原素材色彩差异过大导致的色彩断层问题
  2. 数据在 CPU-GPU 之间互相拷贝非常耗时,现在改为纯 GPU 实现,性能大幅提升

App 目前仅上架 Google Play ,地址: https://play.google.com/store/apps/details?id=com.hinnka.mycamera

促销代码

8CB4S8EU08D702N2R6SQ6HP
VUZBWY723NXAU8XA4RPBKLC
4Y8B8P5B49G68Q9SMKKLP00
G7D8FV16710ERCUA2MKY70V
3450LYJZ36MBENHXPV6LKZE
84WJ199WGKEDG62STQF8KRB
T5T328B0WX81J2DSLJUQE1S
0N6083L48DYWGQ7SC9VPET8
40648YVDSE9T5K0F3LTWPNJ
AHQJV5Q654E6XHBDU5UHK8Z
RKV1S4G5855KX76NRHKRAWW
DW1FKJPG0LE7BNKXWMCZPVF
13F01FWZLMLHRT76HVG8AHB
S8E7761X4E4H5XZ8FXE2Z1Z
1WK0UEWC7SL7570NMSF69CM
22UL3SLX6R1NJ9UBZLV1KMP
ERZBWZN9RZ5NZHZ6XGZTP17
FWAF5SRZB17VH7NC2VXTK90
V99FPSLQ9UGXAZYEA52UG5G
RY3JUDPW5DSD8C03E9428K8
MBDMYVSU23UPU7SQ638DK3A
VTDWMH0EM4HRX2ZSJ859RGM
BCTS70FB6GMJQL4JS4RJAX4
491DPFFNH2MVT7VHLPRMQ4U
2XAQ45Q8G6RVNMBQ3T0MPD9
5P3V75GZZEEQQKSRGSW0ZNF
ZS9KTJ0Q16ASZFKUVLJQV5C
9JR9L2AKP8NBPZD49P1S0ZC
WU0TWVQ5N32AQZY50ZHPDKJ
BT37HRBWLNEUMDB879FNWGE
1Z7Q76DG0WJ2221C4VJLV9H
1AMVGNGW51K3P7YPJB1YUUU
A3TGZDVADGPFGM3T9KS5BF5
HNPAYZL4YL94RREY8AAZ7LV
5E3FUH6S8PA3S3M30QLRF92
NBXKQGKPPDGPR00B02JL1AG
9UQ1LMEZMPT92R6C8N8F30S
TPWZKY3X11Z5ZVMJZYKJBV7
XX97Y320KX9Z3EFQDWLETT5
C7XQGJLG1SH04LWNEE0TXPZ
9H6FR4Q1DWJS6Z9934V5EHE
9XC97E19N1C2DSXYV0JMX85
PVBQGRD6CL80P41P3468FPP
R71J52WS8AH7DDMA35AYZJY
G250HE201HG048VYQXH72B6
PKWRUA9RBC1FHQG0B7YQ1CD
EFDSVGL8PN9FENTH26SA03R
1FKT2XFN8C5X67WQCVYL1JS
8RJ8MG1YZX79EWAAYJEJU36
UKG7P6PF1E3P6U1W4CTVF55

前言

上周写了个nginx 日志分析系统,这几天花了点时间把代码整理了下,现已开源。

欢迎各位有需要的开发者自取。

项目地址

demo-img-1.png

demo-img-2.png

写在最后

我是神奇的程序员,一位前端开发工程师。

如果你对我感兴趣,请移步我的个人网站,进一步了解。

大家好,

主要想分享一个刚刚肝出来的 VS Code 插件:WTF Commit

起因:
最近想找个 VS Code 插件来自动生成 Git Commit Message 。试了好几个热门插件,发现大多数都有几个问题:

  1. 太重了:很多都要在侧边栏占个位置,或者强行绑定一堆我不用的功能。
  2. 模型支持有限:我想用 DeepSeek 或者 Moonshot (Kimi) 这种便宜又好用的国产模型,但很多插件只写死了 OpenAI 或 Anthropic ,不支持自定义 Base URL ,或者配置起来非常麻烦。

本来想给某个开源插件提 PR 增加自定义功能,结果发现老代码改起来太痛苦,各种依赖报错。一气之下,决定遵循“奥卡姆剃刀”原则,从零开发一个只做这一件事的极简插件。

核心功能 & 特点:

  • 极致简约:没有侧边栏 Webview ,入口直接集成在 Source Control 面板的标题栏(一个小星星图标 ✨)。
  • 模型自由:内置了 DeepSeek / Moonshot (Kimi) / 智谱 GLM 的预设,同时也支持 Custom 模式。只要是兼容 OpenAI 格式的接口(包括本地的 Ollama )都能用。
  • 安全第一:API Key 不会明文存在 settings.json 里,而是走 VS Code 原生的 SecretStorage 安全存储。
  • 懒人模式:支持配置快捷键(默认 Cmd+Opt+G),可选开启 Auto CommitAuto Push。按一下,直接生成 -> 提交 -> 推送一条龙。

插件名字由来:
起名废,写代码时就在想 "What The F**k should I name this commit?",于是就叫 WTF Commit 了。希望它能帮你解决写 Commit 时的抓狂。

链接:

代码完全开源,基于 TypeScript 开发,目前非常轻量。如果你也有类似的需求,欢迎试用,也欢迎提 Issue 或 PR !

最近做的一个自用项目「股票分析推送」开源之后,不到 48 小时就达到了 700+ star, 也引发了我的一些思考,分享给大家看看。

作为工程师,平时用开源项目用得很多,说实话也一直想着做点东西回馈社区。
当然,如果项目能被更多人看到,Star 往上涨,本身也是一种很直接的认可。

陆续发过一些项目,最近做的两个开源项目,结果反差非常大,也让我对「什么样的项目更容易被用、被传播」有了更清晰的认识。


第一个项目:花了最多精力,但反响最小

第一个项目是一个微调数据集构建相关的工具

起因其实很现实:之前项目中发现这块几乎没有现成好用的方案,很多事情要反复手工处理,于是就想着自己系统性地做一个。
这个项目前后投入了不少时间,代码结构、功能完整度都比较高,还专门整理好发布到了 PyPI 。

从技术和工程角度看,我对它是满意的,甚至还有公司因为这个项目找我,后续会集成到他们的项目中进行使用。
但数据也很直观:大半年时间,Star 只有 140+。

后来慢慢也想明白了原因:

  • 偏底层
  • 使用场景相对窄
  • 需要一定背景才能真正用起来

它不是没价值,而是真正需要它的人,本来就不多


第二个项目:做起来最轻,但反馈最猛

最近做的第二个项目,本来是写着自己用的,开源之后大家的热情程度是超乎意料的。

这是一个偏应用层的股票分析推送项目,逻辑并不复杂,目标也很明确:
拿来就能用。

从设计、简单测试到功能补充,其实都不算重活。很多细节甚至是开源之后,根据网友反馈一点点补上去的。
整个过程比第一个项目轻松得多。

但结果是:
48 小时内,Star 突破 700 。

这个增长速度,说实话我自己都有点意外。


一点很现实的反思

把这两个项目放在一起看,其实结论非常清楚:

开源项目火不火,很多时候和你“技术写得有多深”关系不大,
和它是不是立刻能用、有没有门槛、是不是热门方向关系很大。

简单总结一下:

  • 第一个项目
    偏底层、门槛高、需要理解背景
    技术价值不低,但“用起来成本高”

  • 第二个项目
    偏应用、零门槛、而且是 AI+股票这种热门方向
    Fork 一下、配个配置就能跑,不用理解原理

当“直接可用”摆在面前,大多数人会自然做出选择。


这不是否定技术项目的价值,而是如果你做开源的目标里既有分享,也希望被更多人看到,那就必须正视“实用性”和“传播性”这件事。

这是我非常真实的一次经历,记录下来,希望对你有点参考价值。

最后也贴一下这两个项目,感兴趣可以看看:

手里 2api 太多没地方用?别浪费,用来帮你闲鱼捡捡漏。
项目地址:

好久没发帖了,最近把旧坑补了补,前端后端都重构了一遍,试了试,用起来更顺手了,风控也基本规避的差不多了。

在线体验地址:web-ui
登录名:admin
登录密码:admin123
注意 在线体验不要录入自己的 apiKey 信息和闲鱼 cookie 信息!!

点点 Star 点点赞 来点夸夸
I need more credit! plz!


群众里有调皮鬼~把我跑的示例结果都删了 不过不影响 反正是在线体验 随便造


📌 转载信息
转载时间:
2026/1/12 17:05:33

各位佬,周一中午好,上次在论坛问有没有好用的开源的导航站推荐,

当时有佬推荐我用 ai 写一个,肝了几天终于给搞出完了,开源分享给大家,可能会有 bug,请大家见谅。 自从加入本社区感觉社区的氛围非常棒,就像这个佬说的。

我为人人,人人为我,真的很棒,所以做完以后第一时间给开源了,并且第一时间分享给社区。

非常感谢 anyrouter 公益站提供 CC (不是广告哈!)

没有服务器,我就给大家放几张图片哈:

前台访问地址:

后台管理系统首页:

网站管理:


📌 转载信息
转载时间:
2026/1/12 15:18:10

老婆天天拿 chatgpt 写小说,弄的文件东一头西一头,上下文满了还有幻觉,搞的很难受,她不好受,那我也别想着好受,这是背景。

所以,小可爱写作助手就这样诞生了!

纯本地,不用服务器,数据导出 josn 保存,写作这种事情,搞线上是一点好处没有,但是你可以把放稿子的文件夹同步到云端。附带 ai 功能,导入你的大纲或者你已经写的文章就能够和你一起商讨剧情,帮你整理和记录世界线和人物设定,剧情走向等。但是没有一键续写的功能,只是一个辅助的作用。

欢迎各位大佬给出建议。感谢各位的支持。

试用地址 https://write.thetruetao.com/

顺便提一嘴,我自然拼读的项目这两天看的人明显少了,赶紧学习起来!


📌 转载信息
原作者:
Jojo_Coco
转载时间:
2026/1/12 10:32:36

claude code 修改 Word 求指导 - #12,来自 smart-lty 继续,看到佬的思路后,让 ai 帮忙糊了一个 skill,目前我测试了一下大概能满足我的需求,后面在使用过程中再继续更新。
另外 skill 热重载真好用,再也不用一直 \q


📌 转载信息
转载时间:
2026/1/12 10:14:10

项目地址: GitHub - osscv/maccms-api: 一个基于 MACCMS(苹果 CMS)数据库结构 的 API 接口服务,通过直接访问数据库获取数据,并以 RESTful JSON 格式提供标准化数据接口,便于第三方系统调用或软件开发。

我给苹果 CMS(MACCMS)做了个 “标准 JSON 接口层”**。因为目前自带的无法满足我个人开发和使用需求,另外苹果 CMS API 一直都很神秘(你买模板 / 使用模板都好他们都加密或者需要授权啥的)。

这个项目直接按 MACCMS 数据库结构读库,把视频 / 分类 / 搜索 / 热门等数据统一用 RESTful JSON 输出,方便第三方系统、APP、小程序、前端站点、爬虫对接(合法合规前提下)或者你自己做二次开发。

通熟来说常见场景如下:

  • 你有一套 MACCMS 数据库,但想做自己的前端 / APP,不想被 CMS 模板绑死
  • 你想给第三方系统提供统一数据接口(列表、详情、分类、搜索、热门)
  • 你想写小程序 / TV 端 / Flutter/React/Vue 之类,直接对接 JSON
  • 你只想 “读数据”,不想碰后台一堆逻辑

具体使用文档可以看: maccms-api/README.md at main · osscv/maccms-api · GitHub

有什么欢迎反馈 & PR 提交一下,这几天有空就更一下。

还要就是,过几天 / 2 月这样,我会开源一套安卓原生手机端 + TV 端的源码 (自己开发的基于我目前这个 GitHub - osscv/maccms-api: 一个基于 MACCMS(苹果 CMS)数据库结构 的 API 接口服务,通过直接访问数据库获取数据,并以 RESTful JSON 格式提供标准化数据接口,便于第三方系统调用或软件开发。 ) 我还在做最后优化。

别忘了给我 github 点个 Star 呗 哈哈哈。


📌 转载信息
原作者:
dkly2004
转载时间:
2026/1/12 10:06:51

有兴趣的佬友帮忙点点 star

项目地址:

原贴地址:[开源自荐] 基于 AI 的股票分析系统

某强大佬友接入微信后的效果反馈

爱你们


📌 转载信息
原作者:
mumuladu
转载时间:
2026/1/12 10:01:30

项目地址 GitHub - Maggotxy/AutoMule: AutoMule
视频介绍:【开源了个好玩的程序?廉价版蚂蚁灵光 AutoMule 赛博牛马 24*7 不间断工作 老板喜欢的员工】 https://www.bilibili.com/video/BV18z6UBHEVz/?share_source=copy_web&vd_source=52ccfc8d7a4fddba61c7577eedae3fec

调用了 iflow sdk 实现了真正 24 小时不间断工作的电子牛马

终究是活成了老板喜欢的样子


📌 转载信息
原作者:
lamb031226
转载时间:
2026/1/11 08:43:24

开源项目介绍

Facebook Ads Analyzer 是一个专业的广告数据分析系统,基于 facebook_ads 的 claude code agent skill , 能够: 自动分析 Facebook Ads Manager 导出的 CSV 数据 根据不同广告目标(互动 / 转化 / 流量)智能评估广告表现 识别最佳和最差广告 生成详细的诊断报告和优化建议 提供数据驱动的投放策略方案

原理和说明

Claude 会自动:

  1. 识别你的广告目标
  2. 加载并处理数据
  3. 应用对应的权重配置
  4. 生成分析报告和优化建议
facebook-ads-analyzer/
├── scripts/
│   ├── analyzer.py          # 主分析器(核心)
│   ├── preprocessor.py      # 数据预处理
│   ├── metrics.py           # 指标计算
│   ├── diagnostic.py        # 诊断和建议
│   └── reporter.py          # 报告生成
├── SKILL.md                 # Skill 定义
├── QUICKSTART.md            # 快速开始指南
├── EXAMPLES.md              # 使用示例
└── REFERENCE.md             # API 参考 

分析流程:

1. 数据加载
   ↓
2. 数据验证和清洗
   ↓
3. 指标计算(CTR, CPC, CPM, 转化率, 消息成本等)
   ↓
4. 按广告维度聚合
   ↓
5. 应用目标权重配置
   ↓
6. 计算综合得分
   ↓
7. 广告评级(优秀/中等/差)
   ↓
8. 问题诊断和建议
   ↓
9. 生成报告

开源地址:

展示分析效果:







继续开源:

现在第 9 个:
【开源 No.9】Facebook Ads Analyzer 广告分析 Claude Code Skill - 轻松搞定 Facebook 广告 - 助佬发达
github 地址:GitHub - liangdabiao/facebook-ads-analyzer: Facebook Ads Analyzer 是一个专业的广告数据分析系统,基于 facebook_ads 的 claude code agent skill , 能够: 自动分析 Facebook Ads Manager 导出的 CSV 数据 根据不同广告目标(互动 / 转化 / 流量)智能评估广告表现 识别最佳和最差广告 生成详细的诊断报告和优化建议 提供数据驱动的投放策略方案


📌 转载信息
转载时间:
2026/1/10 19:13:23

众所周知 Pollinations 是老慈善家了,现在每天可以免费领 1pollen 的额度,有很多图像生成模型包括 flux、z-image,nanobanana pro 等可以选择,但调用的话需要从 header 传 key,原来的直接从 url 调用有速率限制,遂想找一个集成好的工具,L 站转了一圈发现还没有就 vibe coding 了一个。

该网站下图片生成费用如下:

模型名称 (Model Name)每张图片消耗 (Pollen/image)1 额度可生成张数
Flux Schnell0.00025,000 张
Z-Image Turbo0.00025,000 张
SDXL Turbo0.00033,333 张
Seedream 4.00.0333.3 张
FLUX.1 Kontext0.0425 张
Seedream 4.5 Pro0.0425 张

算是相当慷慨了。

需要先从 https://enter.pollinations.ai 获取 API 密钥 (需申请可发布密钥pk_)- 用于客户端),然后设置到 key 中

项目地址

在线使用:https://polimage-eosin.vercel.app

github:https://github.com/qiao39gs/polimage

项目特点

  • 批量生成 - 一次生成 2、4、6 或 9 张图片,支持并发处理
  • 可定制参数 - 控制尺寸、种子、质量、引导系数等
  • 生成历史 - 自动本地保存最近 20 条生成记录
  • 深色 / 浅色主题 - 主题切换,偏好设置持久保存
  • 零依赖 - 纯 HTML、CSS 和原生 JavaScript

预览

目前已知的不足

官方文档 image 接口是有 transparent 透明度选项的,也就是理论上应该支持 flux 模型的生成透明背景图片的,工具里也支持了,但生成的图片还是不透明的,应该是官方还没调试好
还没实现上传图片功能,只能通过图片 url 实现图生图

第一次写这种开源项目,求轻喷


📌 转载信息
原作者:
qiao39gs
转载时间:
2026/1/9 18:19:02

佬友们周五好,

最近一直在搞 vibe coding,Claude Code 确实好用,但有个硬伤:太慢了

尤其是项目大一点的时候,等它跑完一个指令得半天。我平时习惯同时开工好几个模块,或者几个项目一起跑,一个一个等实在受不了。并且如果某一个 Agent 卡壳了,也不能很好的及时发现。

所以我开发了这个叫 VibeMux 的小工具。逻辑很简单,就是把多个 Claude Code/Codex 实例给管理起来,让你能同时给好几个 AI 下任务,不用干等着。 同时,也能便捷的管理已有的项目。

主要是解决这几个问题:

  • 多开不乱:在一个界面里管理多个会话,不用开一堆终端窗口(最多支持 3*3 个窗口)。
  • 并发开发:这边让它写后端 API,那边让它改前端页面,互不耽误。
  • 项目管理:实现项目的快速管理,可以自动创建目录,如果有新项目也不用纠结在哪开始。
  • 轻量实用:没有臃肿的配置,安装即用。

代码已经开源了,纯粹是为了自己爽写的,大家感兴趣可以试试:

项目地址: GitHub - UgOrange/vibemux: VibeMux – Orchestrate parallel Claude Code agents in a single TUI

演示一下:

实现了个 Claude Code 多开工具 vibemux,效率翻倍1

欢迎提建议,觉得有用给个 star 就行。


📌 转载信息
转载时间:
2026/1/9 17:43:44

背景

随着 AI 极大的提高了开发的效率,越来越多的项目涌现出来了,但是推广成为了更大的瓶颈。不仅是因为咱们开发者们对开发很了解,但不擅长运营推广,还有是因为现在的各种渠道太分散,大家的注意力被短视频这种碎片化的信息争夺,我们很难去推广我们的项目。

而且国外有 producthunt 这样的给新项目展示和启动的舞台的网站,但是国内缺少这样的强有力的渠道。于是,我着手写( vibe )了一个。

repoview

https://repoview.dev

项目刚刚开始做,大家可以体验下,有什么意见和想要的功能可以反馈呀。打榜活动马上推出,如果你提前注册和提交项目,将优先参加打榜活动,获得大量曝光呀。

这个项目后期还会加上很多有意思的功能,包括不限于:

  • 开源项目成长数据统计
  • 项目一键安装和一键部署功能
  • 等等

截图 20260106202932.png

截图 20260108124303.png

前言

最近在优化网站访问链路的过程中,部署了一套 WAF 防火墙,它大部分功能都做的挺好,美中不足的地方就是针对于网站访客的相关功能需要付费( 3600 元/年)才能用。

付费是不可能付费的,找了一圈 nginx 日志分析的开源项目,大部分都做的挺简陋的,要么就是做的很重,需要部署其他服务。

既然找不到合适的,那就自己动手写一个吧!

如果看不到图片的话,直接访问我个人网站上发布的。https://www.kaisir.cn/post/186

实现效果

做了 4 个模块对日志数据进行分析。

  • 访问概况
  • 数据日报
  • 实时访问
  • 访问明细

image-20260108124900609

访问概况

概况模块中,做了 8 个维度的数据分析。

核心指标

在这个维度中,针对 http 状态码、浏览量、访客数、会话数做了更细致的划分。

image-20260108125517344

每一个划分中,在详情面板里,都可以看到这个访客在什么时间做了什么事情。

image-20260108125954027

image-20260108130323366

image-20260108130405011

image-20260108130452437

趋势分析 & 新老访客

这一部分可以看到每天的访问趋势以及当天与前一天的新老访客占比。

image-20260108130725966

来路、受访页、入口页

这部分可以看到访客的来源,以及每个路径的访问次数。

image-20260108131048943

地域 & 终端设备

这部分可以看到每个省份的访问情况以及访问设备的分布情况。

image-20260108131213706

数据日报

在这个模块中,可以看到每天的浏览量、访客数、平均访问时长等信息。

image-20260108134815067

image-20260108140538356

实时访问

在这个模块里,可以查看最近 5/15/30 分钟内的访问情况

image-20260108141207205

访问明细

这个模块就以表格的形式展示每一条日志。

image-20260108141436301

如何使用

为了方便使用,我已经将这个项目打包成镜像发布到 dockerhub 上了,镜像名为magiccoders/nginxpulse,可以通过 docker 的形式使用,也可以通过 docker compose 的形式使用。

需要传入的参数:

  • WEBSITES 它的值是个数组,一个对象就是一个网站,需要传入网站名、日志路径、网址(或者内网 ip ,主要用于站内/站外的区分)
  • ports 端口映射,容器内暴露出来的端口是 8088
  • volumes 文件挂载,这里需要挂载:日志文件、容器内产生的数据文件、时区

此处我以 docker compose 的形式举例:

version: "3"
services:
  nginxpulse:
    image: magiccoders/nginxpulse:latest
    container_name: local_nginxpulse
    ports:
      - "9200:8088"
    environment:
      WEBSITES: '[{"name":"神奇的程序员","logPath":"/var/log/nginx/access.log","domains":["kaisir.cn","www.kaisir.cn"]}]' #domains 用于“来源( referer )统计”的站内/站外分类
      PV_EXCLUDE_IPS: '["127.0.0.1", "::1", "10.10.0.1", "192.168.30.21"]' #pv 统计时需要排除的 ip
    volumes:
      - ./nginx_data/logs/all/access.log:/var/log/nginx/access.log
      - ./nginxpulse_data:/app/nginxpulse_data
      - /etc/localtime:/etc/localtime
    restart: unless-stopped

写在最后

至此,文章就分享完毕了。

我是神奇的程序员,一位前端开发工程师。

如果你对我感兴趣,请移步我的个人网站,进一步了解。

最近听说 Droid 好用,就想着试试,故而发现了这个项目 droid-path:GitHub - kingsword09/droid-patch: CLI tool to patch the droid binary with various modifications.

也可以直接安装

npm install -g droid-patch
# 或直接使用 npx
npx droid-patch --help 

项目文档写的特别好特别详细 简要说一下怎么用 (懒人版):

npx droid-patch --is-custom --skip-login --websearch --disable-telemetry --reasoning-effort droid-full

这行命令可以实现:

  • 为自定义模型启用上下文压缩
  • 跳过登录验证
  • 使用外部搜索
  • 禁用遥测数据上传和 Sentry 错误报告
  • 为自定义模型启用推理强度

当 Droid 更新后可以运行如下命令进行同步修改:

npx droid-patch update

自定义模型的话可以使用站内大佬的工具 DroidGear:搞了个 Droid 配置工具 DroidGear

对于不支持设置推理强度的模型,可以手动修改一下:~/..factory/settings.json 中的:

"reasoningEffort": "none" //修改patch默认后的high为none 

建议先自定义模型再 path,如上文所示运行 droid-full 就可以了。亲测使用 Wong 大佬公益站的 sonnet 成功。

社恐第一次发帖,如有不合规之处还望佬友及时提醒,感谢开源作者。


📌 转载信息
原作者:
NocturneRain
转载时间:
2026/1/8 12:14:17

Reddit_Business_Idea_Validator

为什么出海看 reddit?

Reddit 是欧美年轻人扎堆的兴趣社区,类似国内贴吧,但更垂直。用户以 24-44 岁男性为主,爱科技、游戏、亚文化,消费力强且反感硬广。出海人可通过创建兴趣小组(Subreddit)、发干货帖子、办 AMA 问答活动自然引流,但需长期互动,避免直接推销

reddit 的数据获取:

PRAW (Python Reddit API Wrapper) 是一个 Python 库,它封装了 Reddit 的 API, 让我们能够轻松地与 Reddit 进行交互。使用 PRAW, 我们可以获取帖子、评论,甚至可以发布内容或管理 subreddit。PRAW 不仅简化了 Reddit API 的使用,还提供了许多便利功能,使得 Reddit 数据抓取变得轻而易举。
参考: https://blog.csdn.net/m0_73693562/article/details/147905146

我的开源项目介绍

核心功能

  • Reddit 数据抓取: 自动抓取相关帖子和评论数据(使用用户输入作为搜索关键词)
  • AI 内容分析: 使用 LLM 分析用户痛点和市场需求
  • 自动化报告生成: 生成专业的市场验证报告

系统流程图

┌─────────────────────────────────────────────────────────────────────────────────┐
│                              系统入口                                         │
│                    python run_agent.py "业务创意"                              │
└─────────────────────────────────────────────────────────────────────────────────┘
                                           │
                                           ▼
┌─────────────────────────────────────────────────────────────────────────────────┐
│                           环境配置与初始化                                      │
│  ┌─────────────┐  ┌─────────────┐  ┌─────────────┐  ┌─────────────┐           │
│  │  Config     │  │ Context     │  │ MCP Clients │  │ Storage     │           │
│  │  Manager    │  │  Store      │  │             │  │  Server     │           │
│  └─────────────┘  └─────────────┘  └─────────────┘  └─────────────┘           │
└─────────────────────────────────────────────────────────────────────────────────┘
                                           │
                                           ▼
┌─────────────────────────────────────────────────────────────────────────────────┐
│                        Orchestrator Agent 启动                                │
│  ┌─────────────────────────────────────────────────────────────────────────┐   │
│  │ 任务: validate_business_idea                                           │   │
│  │ 业务创意: "用户输入的业务创意"                                          │   │
│  └─────────────────────────────────────────────────────────────────────────┘   │
└─────────────────────────────────────────────────────────────────────────────────┘
                                           │
                                           ▼
┌─────────────────────────────────────────────────────────────────────────────────┐
│                        1. 数据抓取阶段 (Scraper Agent)                         │
│  ┌─────────────────────────────────────────────────────────────────────────┐   │
│  │ 任务: scrape_data                                                     │   │
│  │ - 使用业务创意作为搜索关键词                                           │   │
│  │ - 通过 Reddit MCP Server 抓取 Reddit 帖子和评论                        │   │
│  │ - 保存 checkpoint: scraping_complete.json                             │   │
│  └─────────────────────────────────────────────────────────────────────────┘   │
└─────────────────────────────────────────────────────────────────────────────────┘
                                           │
                                           ▼
┌─────────────────────────────────────────────────────────────────────────────────┐
│                        2. 数据分析阶段 (Analyzer Agent)                        │
│  ┌─────────────────────────────────────────────────────────────────────────┐   │
│  │ 任务: analyze_data                                                    │   │
│  │ ├── analyze_posts: 分析帖子内容,提取用户痛点和需求                    │   │
│  │ ├── analyze_comments: 分析评论情感和用户反馈                           │   │
│  │ ├── comments_tag_analysis: 评论标签分析                                │   │
│  │ └── combined_analysis: 综合分析生成市场验证评分                        │   │
│  │ 保存 checkpoint: analysis_complete.json, comments_tag_analysis_complete.json│ │
│  └─────────────────────────────────────────────────────────────────────────┘   │
└─────────────────────────────────────────────────────────────────────────────────┘
                                           │
                                           ▼
┌─────────────────────────────────────────────────────────────────────────────────┐
│                        3. 报告生成阶段 (Reporter Agent)                        │
│  ┌─────────────────────────────────────────────────────────────────────────┐   │
│  │ 任务: generate_and_save_report                                        │   │
│  │ ├── generate_html_report: 生成 HTML 格式报告                          │   │
│  │ ├── save_report: 保存报告到 reports/ 目录                            │   │
│  │ └── 保存 checkpoint: report_saved.json                               │   │
│  └─────────────────────────────────────────────────────────────────────────┘   │
└─────────────────────────────────────────────────────────────────────────────────┘
                                           │
                                           ▼
┌─────────────────────────────────────────────────────────────────────────────────┐
│                        4. 结果输出与存储                                      │
│  ┌─────────────────────────────────────────────────────────────────────────┐   │
│  │ 输出文件:                                                             │   │
│  │ ├── reports/{business_idea}_{timestamp}.html                          │   │
│  │ ├── agent_context/checkpoints/{run_id}/                               │   │
│  │ │   ├── scraping_complete.json                                        │   │
│  │ │   ├── analysis_complete.json                                        │   │
│  │ │   ├── comments_tag_analysis_complete.json                           │   │
│  │ │   ├── combined_analysis_complete.json                               │   │
│  │ │   └── report_saved.json                                             │   │
│  │ └── 小提示: 相关资料请到 agent_context/checkpoints/{run_id}/ 目录下查看 │   │
│  └─────────────────────────────────────────────────────────────────────────┘   │
└─────────────────────────────────────────────────────────────────────────────────┘
                                           │
                                           ▼
┌─────────────────────────────────────────────────────────────────────────────────┐
│                              任务完成                                         │
│                    返回 TaskResult 包含执行结果                                │
└─────────────────────────────────────────────────────────────────────────────────┘

展示效果:




欢迎 star

github: GitHub - liangdabiao/Reddit_Business_Idea_Validator: Reddit 生意调研 Agent: 收集和分析数据来解析市场需求、用户痛点及竞争格局.- 📊 **Reddit 数据抓取 **: 自动抓取相关帖子和评论数据(使用用户输入作为搜索关键词) - 🤖 **AI 内容分析 **: 使用 LLM 分析用户痛点和市场需求 - 📄 ** 自动化报告生成 **: 生成专业的市场验证报告


📌 转载信息
转载时间:
2026/1/8 10:28:15

开源链接:
ZeroAd-06/UNITY2api: description, website, or topics provided.

总之,你现在可以使用 OpenAI 格式的 API 来调用 厦门实验室的 UNITY 模型,免费体验超过 Gemini 3 Pro,GPT-5.2,GPT-5.1,Kimi K2 T,Claude 4.5 Opus,Grok 4,GLM-4.7,DeepSeek-V3.2,Doubao-1.5 Pro,Qwen3-Max,Mistral Large 3,MiniMax-M2.1 的性能的模型,
或者至少是 与 Gemini 3 Flash 性能相当的模型


这很有可能是你见过的最简单的 2api 项目,代码不超过 160 行。
这个厦门实验室的网页没有做任何鉴权 / 反机器人机制,大家赶紧蹬啊

事实上,我写 readme 的时间都比开发(完全丢给 AI)的时间长。

就算你不打算使用这个模型,我也希望你能点进项目的 README 看一下,相信我,看我之后你会给这个项目一个 star,然后给这个帖子一个


  1. 数据来自 XiamenLabs 官方声称的评测基准 ↩︎


📌 转载信息
原作者:
Z_06
转载时间:
2026/1/8 10:24:58