标签 RSS 下的文章

Matrix 首页推荐 

Matrix 是少数派的写作社区,我们主张分享真实的产品体验,有实用价值的经验与思考。我们会不定期挑选 Matrix 最优质的文章,展示来自用户的最真实的体验和观点。 

文章代表作者个人观点,少数派仅对标题和排版略作修改。


大家好,我是飘雷。

在这个全民刷手机的时代,我们看似阅尽天下事,实则很容易被困在信息茧房里。

各种资讯 app 每天都在争先恐后地把它们认为用户可能喜欢的内容推送给我们,久而久之,我们获得的信息难免会落入同质化,真正有价值的信息其实不多。想要解决这个问题,就要尝试从被动投喂,变成主动获取。

最近 GitHub 上大火的 TrendRadar 项目,恰好击中了这个痛点。

项目地址:https://github.com/sansan0/TrendRadar

它能根据咱们自己设置的关键词和监控策略,聚合多平台热点和 RSS 订阅,还能将 AI 分析简报直推手机,也支持接入 MCP 架构,利用AI大模型进行自然语言的对话分析、情感洞察与趋势预测。

TrendRadar 特别适合投资者、自媒体人、企业公关、关注时事等用户使用,这也使得它在 GitHub 上获得了 4.3 万的超高星收藏。

趁着这几天有空,我用手头的威联通 NAS 把这个情报雷达搭建了起来,部署和配置的过程虽然有些繁琐,但成果也是喜人的。

我们可以通过网页访问 NAS IP 来查阅自己感兴趣的新闻:

也可以让它把热点新闻自动推送到邮箱等平台:

还可以在推送信息中看到 AI 分析的简报:

这种对信息掌控感真的拉满了情绪价值,个人觉得特别好用,所以本期我就同大家分享 TrendRadar 的手把手部署配置教程。

TrendRadar 部署流程

这里我们来展示如何在威联通 NAS 上通过 Docker Compose 进行部署,用到的设备是威联通最新的八盘位旗舰新品 Qu805。

下载项目文件

解压下载的压缩包,会得到一个名为 TrendRadar-master 的文件夹:

接下来咱们将上图中这些文件和文件夹全部上传到威联通 NAS 里,这里我放在了 /Container/TrendRadar 目录内,大家可以根据自己的实际情况灵活调整,只需要记住保存位置即可。

Docker Compose 部署

TrendRadar 自带的 Docker Compose 文件是根据本机访问的默认情况配置的,不太适合 NAS 场景,所以这里我们需要进行一些改动。

登录威联通 NAS 后台,打开 Container Station 容器工作站,点击左侧的应用程序,然后点击右侧黑色创建按钮。

在弹出的代码输入框中,我们输入以下 YAML 代码。注意里面的注释部分,像推送设置之类的选项可以在 YAML 代码中提前指定,也可以通过修改文件后期进行调整,这里大家需要根据自己的实际情况进行配置:

services:
  trendradar:
    image: wantcat/trendradar:latest
    container_name: trendradar
    restart: unless-stopped
    # 左边 8848 是你访问 NAS 的端口 (http://nas-ip:8848),根据需要修改
    # 右边 8080 是容器内部端口,不要改
    ports:
      - "8848:8080"


    # 映射目录,左侧为NAS文件夹路径,这里需要根据实际情况修改,比如我是在NAS的 /share/Container/TrendRadar
    volumes:
      - /share/Container/TrendRadar/config:/app/config
      - /share/Container/TrendRadar/output:/app/output


    environment:
      - TZ=Asia/Shanghai
      # 核心配置
      - ENABLE_CRAWLER=${ENABLE_CRAWLER:-}
      - ENABLE_NOTIFICATION=${ENABLE_NOTIFICATION:-}
      - REPORT_MODE=${REPORT_MODE:-}
      - DISPLAY_MODE=${DISPLAY_MODE:-}
      # Web 服务器,True为强制启用,启用后可以通过网页访问
      - ENABLE_WEBSERVER=true
      - WEBSERVER_PORT=${WEBSERVER_PORT:-8080}
      # 通知渠道
      # 飞书
      - FEISHU_WEBHOOK_URL=${FEISHU_WEBHOOK_URL:-}
      # 电报
      - TELEGRAM_BOT_TOKEN=${TELEGRAM_BOT_TOKEN:-}
      - TELEGRAM_CHAT_ID=${TELEGRAM_CHAT_ID:-}
      # 钉钉
      - DINGTALK_WEBHOOK_URL=${DINGTALK_WEBHOOK_URL:-}
      # 企业微信
      - WEWORK_WEBHOOK_URL=${WEWORK_WEBHOOK_URL:-}
      - WEWORK_MSG_TYPE=${WEWORK_MSG_TYPE:-}
      # 邮件配置
      - EMAIL_FROM=${EMAIL_FROM:-}
      - EMAIL_PASSWORD=${EMAIL_PASSWORD:-}
      - EMAIL_TO=${EMAIL_TO:-}
      - EMAIL_SMTP_SERVER=${EMAIL_SMTP_SERVER:-}
      - EMAIL_SMTP_PORT=${EMAIL_SMTP_PORT:-}
      # ntfy配置
      - NTFY_SERVER_URL=${NTFY_SERVER_URL:-https://ntfy.sh}
      - NTFY_TOPIC=${NTFY_TOPIC:-}
      - NTFY_TOKEN=${NTFY_TOKEN:-}
      # Bark配置
      - BARK_URL=${BARK_URL:-}
      # Slack配置
      - SLACK_WEBHOOK_URL=${SLACK_WEBHOOK_URL:-}
      # 通用Webhook配置
      - GENERIC_WEBHOOK_URL=${GENERIC_WEBHOOK_URL:-}
      - GENERIC_WEBHOOK_TEMPLATE=${GENERIC_WEBHOOK_TEMPLATE:-}
      # AI 分析配置,如果你需要开启 AI 分析,可以在这里填,或者去config.yaml填
      - AI_ANALYSIS_ENABLED=${AI_ANALYSIS_ENABLED:-false}
      - AI_API_KEY=${AI_API_KEY:-}
      - AI_PROVIDER=${AI_PROVIDER:-}
      - AI_MODEL=${AI_MODEL:-}
      - AI_BASE_URL=${AI_BASE_URL:-}
      # 远程存储配置(S3 兼容协议)
      - S3_ENDPOINT_URL=${S3_ENDPOINT_URL:-}
      - S3_BUCKET_NAME=${S3_BUCKET_NAME:-}
      - S3_ACCESS_KEY_ID=${S3_ACCESS_KEY_ID:-}
      - S3_SECRET_ACCESS_KEY=${S3_SECRET_ACCESS_KEY:-}
      - S3_REGION=${S3_REGION:-}
      # 运行模式
      - CRON_SCHEDULE=${CRON_SCHEDULE:-*/30 * * * *}
      - RUN_MODE=${RUN_MODE:-cron}
      - IMMEDIATE_RUN=${IMMEDIATE_RUN:-true}


# MCP 服务:提供接口给 Claude Desktop 等客户端,用不上的话下面这些代码可以删除
  trendradar-mcp:
    image: wantcat/trendradar-mcp:latest
    container_name: trendradar-mcp
    restart: unless-stopped


    ports:
      - "3333:3333"


    # 必须挂载与上面相同的路径,否则读取不到数据
    volumes:
      - /share/Container/TrendRadar/config:/app/config:ro
      - /share/Container/TrendRadar/output:/app/output


    environment:
      - TZ=Asia/Shanghai

代码粘贴无误后,记得点击下方的验证按钮,确保 YAML 格式正确。

最后点击创建按钮,系统就会自动拉取这个非常精简的镜像并启动服务,咱们可以在概览或容器列表中看到 trendradar trendradar-mcp 两个容器正在运行,状态显示为绿色小圆点。

常用配置选项解析

TrendRadar 的作者在项目页面提供了详细的个性化配置方法,感兴趣的朋友可以去详细阅读下,这里咱们就来看看一些常用的部分。

1配置监控平台

TrendRadar 的资讯数据来源于 newsnow,默认会抓取11个平台的热点新闻,需要抓取其他平台数据的的朋友可以去 newsnow 网站里查找一下。

查询地址:https://newsnow.busiyi.world/

需要对监控平台进行修改的话,可以打开 config 文件夹下的 config.yaml 文件,修改 platforms 部分:

威联通自带文本编辑器。你可以右键点击该文件,选择「打开方式 -> Text Editor」直接在线编辑,改完保存即可,无需下载到本地再上传。

platforms:
  - id: "toutiao"
    name: "今日头条"
  - id: "baidu"
    name: "百度热搜"
  - id: "wallstreetcn-hot"
    name: "华尔街见闻"
  # 添加更多平台...

去 newsnow 添加有点麻烦,图省事儿的话可以去下面的项目复制别人整理的 config.yaml 文件。

项目地址:https://github.com/sansan0/TrendRadar/issues/95

不过需要注意,监控的平台不是越多越好,建议选择 10 到 15 个核心平台,平台过多会导致信息过载,反而降低使用体验。

配置关键词

TrendRadar 的关键词设置是决定我们每天看到的是满屏含金量的干货,还是充斥着垃圾信息的关键一步。TrendRadar 的核心过滤逻辑存放在 config 文件夹下的 frequency_words.txt 文件中,需要手动细心配置。

这里打开威联通的 File Station,定位到我们部署时映射的路径,比如我使用的是 /share/Container/TrendRadar/config/,找到名为 frequency_words.txt 的文件。

TrendRadar 对关键字的配置不仅仅是写几个词那么简单,它支持七种语法,咱们简单举例来介绍下。

# --- 核心关注区 ---
NAS
威联通
群晖
Docker
TrendRadar
DeepSeek
ChatGPT
显卡 & 降价
# --- 必须屏蔽区 (净化眼球) ---
!出轨
!离婚
!绯闻
!男星
!女星
!只有我一个人
!震惊
!拼多多 & 砍一刀
# --- 行业观察 ---
人工智能
开源项目
# --- 这里的每一行代表一个规则,系统会逐行扫描 ---

  • 基础匹配(直接写词):威联通:只要标题或内容里有「威联通」,就会被抓取。
  • 强制屏蔽(使用 ! 表示「非」);在关键字前面加上感叹号后,包含此关键字的新闻会被直接丢弃。比如不想看娱乐圈的出轨八卦破事,使用「!出轨」,任何包含出轨的新闻就不会被显示出了。
  • 组合逻辑(使用 & 表示「与」):「NAS & 教程」的意思是,只有同时包含「NAS」和「教程」的文章才会被抓取,这能帮你过滤掉单纯的NAS降价广告,只看干货。
  • 多选逻辑(使用 | 表示「或」):「DeepSeek | ChatGPT | Claude」的意思是,只要包含这三个 AI 模型中的任意一个,都抓取。
  • 短语匹配(使用英文双引号""):以"Black Myth"为例,如果你直接写 Black Myth(没引号),系统可能会分别匹配 Black 和 Myth。加上引号后,会强制匹配由于空格隔开的专有名词(如《黑神话》)。
  • 权重提升(使用 ^):「^漏洞」的意思是,给「漏洞」这个词极高的权重,一旦出现,即使它在热榜排名不高,也会被强制推送到显眼位置。
  • 正则匹配式(使用 ~,适合硬核玩家):这部分就有点复杂了,不太适合普通玩家折腾,感兴趣的硬核玩家直接去项目原网页详细研究即可。

编辑完成后,点击威联通 Text Editor 右上角的「保存」,最后别忘了,修改关键词后,需要重启容器才能生效。

热点权重新调整

很多时候我们觉得热搜没啥意思,是因为平台的算法优先推荐短时间内爆发力强的内容,比如什么某明星忘本了道歉了之类的。但很多用户往往更关注那些有持久影响力的大事,比如国家重大政策和科技突破的消息等等。

advanced:
  weight:
    rank: 0.6           # 排名权重
    frequency: 0.3      # 频次权重
    hotness: 0.1        # 热度权重

在 TrendRadar 的 config/config.yaml 文件中,有一个 advanced -> weight 模块,这里就是控制热点筛选逻辑的地方,包含 rank、frequency、hotness 三个参数,这三个数字相加必须严格等于 1.0,否则程序会报错罢工。

在修改之前,咱们需要明白这三个数字代表什么,TrendRadar 默认使用的是较为平衡的配置:

  • rank(排名权重):代表爆发力,数值越高,越倾向于抓取各大榜单前几名的内容,哪怕它只火了十分钟。
  • frequency(频次权重):代表持久力,数值越高,越倾向于抓取那些在一天内反复上榜、被不同平台多次讨论的内容。这是过滤标题党的关键。
  • hotness(热度权重):代表绝对数值,由于不同平台的热度单位不同,有的几百万,有的几万,参考价值较低,通常保持低位即可。

一般来说,追求速度和时效性的用户提高排名权重,追求深度和稳定性的用户提高频次权重。

建议每次只调整 0.1 到 0.2 的数值,调完后保存文件,并在 Container Station 中重启容器生效。

修改后观察一两天的推送效果,如果觉得信息太滞后,就稍微调高 rank;如果觉得垃圾信息还是多,就继续调高 frequency。

接下来咱们来看看两个典型的配置案例。

抓取实时热点

如果你是自媒体博主或者营销人员,不想错过任何稍纵即逝的大瓜,想快速了解当前最火话题,可以使用这个配置,把所有瞬间冲上榜首的内容都推给你:

advanced:
  weight:
    rank: 0.8       # 拉高排名权重,只要进前三,立刻抓取
    frequency: 0.1  # 稍微关注一下持续性,不太在乎
    hotness: 0.1    # 保持默认

追踪重点话题

如果想要多看一些经过时间沉淀的重大新闻,可以使用这个配置:

advanced:
  weight:
    rank: 0.4           # 降低排名权重,不迷信热度榜首
    frequency: 0.5      # 拉高频次权重,更偏向持续热度
    hotness: 0.1

推送配置

TrendRadar v5.0 版本对推送内容进行了大规模重构,现在的推送内容不再是简单的链接堆砌,而是被划分为热榜新闻、RSS 订阅、全新热点(New 标记)、独立展示区、AI 分析五大核心板块。

而在推送方式方面,TrendRadar 支持微信、飞书、钉钉、Telegram、邮件、ntfy、bark、Slack 等渠道的智能推送,并且有当日汇总、当前榜单、增量监控三种推送模式。

推送相关的配置也是通过 config/config.yaml 文件来修改,同时也可以在 Docker Compose 代码中提前写好,在部署容器时就完整设置。这里我们以邮件推送为例进行展示。

开启 HTML 格式

很多用户反馈邮件收到的是一堆乱码或者纯文本,没有任何排版,原因就是没开启 HTML 支持。

得确保 config/config.yaml,找到 storage -> formats -> html,设置为 true

storage:
  formats:
    sqlite: true
    txt: false
    html: true   # 必须启用,否则邮件推送会失败

配置 SMTP 发送服务(以 163 邮箱为例)

虽然 TrendRadar 支持多种推送方式(如飞书、钉钉),但邮件依然是阅读长文和 AI 分析报告的最佳载体。

国内网络环境下,我自己是选择使用 163 邮箱作为发送方,稳定性非常高。当然 QQ 邮箱也可以,就是容易被系统判定为垃圾邮件。

首先登录你的 163 网页版邮箱,点击顶部「设置」 -> 「POP3/SMTP/IMAP」,开启「IMAP/SMTP 服务」或「POP3/SMTP 服务」,然后新增一个授权码。

系统会让你发送短信验证,验证成功后会弹出一个只显示一次的授权码,复制这个授权码,这是我们接下来要填的密码。

接下来咱们继续编辑 config.yaml,首先找到 notification 通知总开关的位置,将 enabled 设置为 true,开启通知。

然后找到 email 相关的配置区域:

具体设置方法如下所示:

      # 邮件发送方配置 (163邮箱)
      - EMAIL_FROM=你的账号@163.com
      # 注意:这里填的是刚刚获得的【授权码】,不是邮箱登录密码!
      - EMAIL_PASSWORD=填入你刚才获取的授权码
      - EMAIL_SMTP_SERVER=smtp.163.com
      - EMAIL_SMTP_PORT=465
      
      # 邮件接收方配置
      # 接收邮箱可以是同一个163邮箱,也可以是QQ邮箱或Gmail
      - EMAIL_TO=接收通知的邮箱@qq.com

如果这里不适用 163 邮箱来推送,可以根据作者提供的表格来修改 SMTP 服务器和端口地址:

配置完成后,保存文件并重启容器。

如果配置正确,TrendRadar 运行完毕后,你会收到一封标题类似《TrendRadar 每日热点报告》的邮件。

如果还想要设置推送频率和推送模式的话,同样可以查看作者给出的详细配置说明,限于篇幅这里不赘述了。

AI 分析配置

在 5.0 版本之前,TrendRadar 只能算一个勤恳的新闻搬运工;但从 5.0 开始,作者进行了重大升级,通过接入 AI 大模型 API 来对内容进行深度分析,自动生成热点洞察。

分析的内容包括:

  • 热点趋势概述
  • 关键词热度分析
  • 跨平台关联分析
  • 潜在影响评估
  • 值得关注的信号
  • 总结与建议

这里我们以 DeepSeek 为例,展示如何进行设置。

获取 API 的过程这里不再赘述,大家去自己的 API 提供商平台上复制即可,我们主要讲讲本地设置,同样要修改 config/config.yaml 这个配置文件,找到 ai_analysis 部分:

以 DeepSeek 官方 API 为例,如下设置:

ai_analysis:
  enabled: true                     # 是否启用 AI 分析,true为开启
  provider: "deepseek"              # AI 提供商
  api_key: ""                       # API Key
  model: "deepseek-reasoner"        # 模型名称,deepseek-reasoner为深度思考模式
  base_url: ""                      # 自定义 API 端点(可选)
  timeout: 120                      # 请求超时(秒)
  push_mode: "both"                 # 推送模式,both (推送到所有渠道)
  max_news_for_analysis: 50         # 最多分析多少条新闻
  include_rss: true                 # 是否包含 RSS 内容
  prompt_file: "ai_analysis_prompt.txt"  # 提示词配置文件

另外在 config 文件夹下,还有一个名为 ai_analysis_prompt.txt 的文件。这里存放的是发给 AI 的 Prompt 提示词。

作者已经将默认的提示词写好,包含趋势概述、关键词热度、跨平台关联、潜在影响等。但如果你有特殊需求,那可以根据自己需求进行针对性修改。

配置并重启容器后,AI 模块会在每次的抓取任务结束后运行,我们能在推送消息的底部看到像这样的分析报告:

总结

经过这一番折腾,当看到自己想看的新闻躺在邮箱里时,之前所有的复杂的配置都是值得的了。

以前,我们是算法的猎物,被锁在各大平台推送算法打造的信息茧房里,免不了被标题党牵着鼻子走。

而现在借助 TrendRadar 和 AI 的深度思考,我们终于可以翻身成为信息的主人,可以更清晰的知道这个世界发生了什么,哪些是转瞬即逝的信息泡沫,哪些是真正值得关注的行业暗流。

写到这里我又想到,像 TrendRadar 这类应用,或许才是许多公司和工作室采购 NAS 的原因之一。NAS 并非只能在家用环境中保存照片、挂挂 PT,更是能通过持久稳定工作,帮助用户圈出一块清醒的自留地,把实现各种功能的主动权重新握在自己手里。

> 关注 少数派小红书,感受精彩数字生活 🍃

> 实用、好用的 正版软件,少数派为你呈现 🚀

    在企业数字化转型中,CRM(客户关系管理)已从“客户信息存储工具”升级为“全链路业务协同平台”——覆盖获客-营销-竞品-项目-上下游的全流程,成为企业连接市场、客户与供应链的核心枢纽。本文基于超兔一体云、Copper CRM、 RSS 、Agile CRM、Highrise、微盟CRM、玄讯CRM等主流品牌的公开能力,从专业维度展开横向对比,解析各品牌的核心优势与适用场景。

    一、对比框架说明

    本次对比围绕CRM的核心业务链路设计5个维度,覆盖企业从“获客”到“上下游协同”的全流程需求:

    1. 获客能力:线索来源的广度、精准度与自动化程度;
    2. 营销能力:营销物料支持、数据驱动决策与自动化工具;
    3. 竞品管理:竞品信息收集、分析与竞争策略支持;
    4. 项目管理:项目全生命周期的跟踪、协同与成本管控;
    5. 上下游管理:供应商/客户的全流程协同与数据共享。

    二、各维度横向对比分析

    (一)获客能力:从“流量覆盖”到“精准转化”的差异

    获客是CRM的起点,核心是多渠道线索整合线索清洗效率。各品牌的能力差异直接决定了企业触达客户的广度与精准度:

    品牌核心获客能力适用场景
    超兔一体云覆盖线上(百度/抖音/微信/小程序)+ 线下(地推/会销/工商搜客)全渠道;支持线索一键处理、归属地识别、活动效果评估toB/toC全行业,需全渠道获客的企业
    微盟CRM整合微信/抖音/小红书等私域流量,通过会员积分、拼团满减实现获客与复购美妆/服饰等线上零售品牌
    玄讯CRM快消行业专属:外勤拜访管理、终端数据采集、线下渠道获客快消企业(如饮料、食品)
    Copper CRM适配Google生态:网站表单/手机扫描→自动同步Google Contacts,减少手动录入海外/跨境业务,依赖Google生态
    Highrise线索-销售-订单-供应商全链路覆盖,支持工程类项目的线索转化工程/制造企业,长周期项目获客
    RSS基础线索跟踪,无精准获客功能对获客需求简单的中小企业

    关键结论

    • 超兔一体云是唯一覆盖“线上+线下+精准toB”的全渠道获客平台,适合需要规模化触达的企业;
    • 微盟、玄讯是垂直行业获客专家(电商/快消);
    • Copper CRM是Google生态下的海外获客工具,解决跨境业务的线索同步问题。

    (二)营销能力:从“手动执行”到“数据驱动”的升级

    营销的核心是“精准触达+效果可测”,各品牌的差异体现在营销物料的丰富度与数据决策的能力:

    品牌核心营销能力优势亮点
    超兔一体云1. 营销物料库:话术武器云(标准化沟通话术)、文件武器云(产品资料/案例); 2. 数据引擎:转化分析、用户画像云图、活动成本均摊数据驱动的精准营销,支持活动效果回溯
    Agile CRM邮件营销、社交媒体管理;免费版无限用户初创团队的基础营销工具
    微盟CRM电商复购工具:会员积分、满减拼团、私域流量触达线上零售的老客运营
    Copper CRMGoogle Workspace协同(日历/文档/Drive);Gmail邮件追踪(记录客户互动)依赖Google生态的营销协同
    RSS基础活动管理(计划/执行/监控),无自动化功能简单活动的流程跟踪

    关键结论

    • 超兔一体云是数据化营销的标杆,通过物料库与数据引擎解决“营销内容标准化”与“效果不可测”的痛点;
    • 微盟CRM聚焦电商复购,适合线上零售的老客激活;
    • Agile CRM适合初创团队的低成本营销,免费版覆盖基础需求。

    (三)竞品管理:从“被动收集”到“主动策略”的突破

    竞品管理的核心是“感知竞争态势,制定差异化策略” ,但多数品牌仅能实现“被动收集”,仅有超兔一体云提供主动竞品分析能力:

    品牌竞品管理能力能力层级
    超兔一体云1. 竞品信息自动收集(产品/价格/市场份额); 2. 竞争关系管理(竞争事件记录、预警); 3. 差异化策略支持主动型:从信息到策略的闭环
    Copper CRM通过客户互动记录(如“客户提及的竞品优势”)间接获取被动型:依赖销售手动整合
    其他品牌无专门竞品模块缺失型:无法满足复杂分析需求

    关键结论

    • 超兔一体云是唯一具备“竞品全生命周期管理”的品牌,适合需要应对激烈市场竞争的企业;
    • 其他品牌仅能实现“竞品信息的碎片化收集”,无法支持策略制定。

    (四)项目管理:从“进度跟踪”到“全流程协同”的深化

    项目管理的核心是“覆盖不同项目类型,实现进度、成本、团队的协同”,各品牌的能力差异体现在对项目复杂度的支持:

    品牌核心项目管理能力适配项目类型
    超兔一体云1. 多跟单模型:小单快单(三一客)、商机跟单(中长单)、多方项目(大型项目); 2. 通用能力:360°视图、时间线、自动日报、行动记录分析小单/中长单/大型项目全覆盖
    Highrise工程类项目:施工节点跟踪、材料采购、成本管控工程/制造企业的长周期项目
    Copper CRM可视化项目管道+Google Calendar集成(同步日程/截止日期)依赖Google生态的中小型项目
    其他品牌无原生项目管理功能或仅支持基础进度跟踪简单项目的流程记录

    关键结论

    • 超兔一体云的“多方项目模型”是大型项目的核心解决方案——支持项目组、合同、采购、收支的全流程协同,精准控制收支差;
    • Highrise是工程类项目的专属工具,解决施工节点与成本管控的痛点;
    • Copper CRM适合Google生态下的轻量级项目

    (五)上下游管理:从“信息记录”到“全链路协同”的跨越

    上下游管理的核心是“打通企业与供应商/客户的数据壁垒,实现三流合一(物流/资金流/信息流)”,各品牌的能力差异体现在协同的深度:

    品牌核心上下游能力协同亮点
    超兔一体云OpenCRM业务伙伴共生平台: 1. 上游:询价/采购/付款/供应商评分; 2. 下游:报价/订单/物流/售后; 3. 共性能力:三流合一对账、全程追溯产业链全流程协同,提升透明度
    Highrise线索-销售-订单-库存-供应商全链路覆盖全流程数据打通
    微盟CRM与微盟商城无缝衔接:订单/库存/售后协同电商上下游的订单协同
    玄讯CRM快消渠道库存监控:终端数据采集、库存预警快消线下供应链的库存管理
    Copper CRM客户分层(组织型客户的上下级关联)间接记录上下游关系

    关键结论

    • 超兔一体云的OpenCRM上下游协同的标杆——通过“三流合一”解决企业与供应商/客户的对账痛点,提升产业链效率;
    • 微盟、玄讯是垂直行业的供应链工具(电商/快消);
    • Copper CRM仅能实现“信息记录”,无法支持深度协同。

    三、综合能力雷达图:各品牌的核心竞争力分布

    基于5个维度的能力评分(1-5分,5为最高),各品牌的综合竞争力如下:

    品牌获客营销竞品项目上下游核心定位
    超兔一体云55555全链路协同型CRM,适合中大型企业
    Highrise42144工程类全流程CRM
    微盟CRM44113电商私域型CRM
    玄讯CRM32113快消外勤型CRM
    Copper CRM32132Google生态型CRM
    Agile CRM33111初创基础型CRM
    RSS22111简单基础型CRM

    四、品牌核心定位与适用场景

    基于上述对比,各品牌的核心优势适配企业可总结为:

    品牌核心优势适配企业类型
    超兔一体云全链路协同(获客-营销-项目-上下游);大型项目管理;产业链三流合一需要数字化转型的中大型企业; 依赖全流程协同的制造/工程/服务企业
    Highrise工程类项目节点跟踪;材料采购与成本管控工程施工、设备制造企业
    微盟CRM电商私域流量整合;会员复购工具美妆、服饰、家居等线上零售品牌
    玄讯CRM快消外勤拜访管理;终端数据采集饮料、食品、日化等快消企业
    Copper CRMGoogle生态无缝集成;减少手动录入成本海外/跨境业务;依赖Google Workspace的团队
    Agile CRM免费版无限用户;基础营销与客户管理初创团队、小规模业务
    RSS界面简洁;基础客户与线索管理对CRM需求简单的中小企业

    五、选择建议:从“需求匹配”到“价值最大化”

    企业选择CRM的核心逻辑是“需求适配”,需结合3个关键因素:

    1. 行业特性:快消选玄讯,电商选微盟,工程选Highrise,海外选Copper;
    2. 需求复杂度:全链路协同选超兔,基础管理选RSS,初创选Agile;
    3. 生态依赖:Google生态选Copper,微信生态选微盟。

    六、结论:CRM的未来是“全链路协同”

    从本次对比可见,CRM的竞争已从“单一功能优势”转向“全链路能力整合”——超兔一体云通过多渠道获客、数据化营销、竞品策略支持、全类型项目管理、产业链协同的全链路能力,成为中大型企业数字化转型的首选;而Highrise、微盟、玄讯等垂直型CRM则通过“行业深度”占据细分市场;Copper、Agile等则通过“生态/成本”适配特定团队。

    对企业而言,选择CRM的本质是选择“业务增长的底层支撑系统” ——需从“当前需求”与“未来扩张”双维度评估,最终实现“效率提升+竞争力增强”的价值最大化。

    (注:文中功能相关描述均基于公开披露信息,具体功能服务与价格以厂商实际落地版本为准。)

    目前表情的像素我是控制在 350px,在一些 RSS 开启 webview 上浏览时就没啥好体验,尝试通过行内样式减小图片显示宽度好像也没生效。

    图片宽高像素降低 -> 图片体积减小 -> 图片变糊force_smile

    SVG 显示效果最好,不过 SVG 导出即便做了优化,尺寸还是较大,个别 emoji 超过 1M,就算 cdn 首次加载也会消耗一些流量。

    n8n 是一款强大的开源低代码自动化工具,它允许你通过可视化节点的方式,将不同的服务和 API 串联起来,构建复杂的自动化工作流。与传统的自动化平台相比,n8n 拥有极高的自由度和扩展性,支持自托管部署,能够确保数据的完全私有化。

    在集成 AI 能力时,n8n 丰富的节点生态可以轻松对接 GPUStack 部署的本地大模型。这种组合不仅消除了昂贵的 API 调用费用,还确保了企业敏感数据在处理过程中始终留在本地,是构建私有化 AI 智能体的理想选择。接下来,我们将通过一个实战案例,演示如何将两者结合使用。

    🛠️ 演示环境

    1. GPUStack v2.0.3:请参考官方文档 https://docs.gpustack.ai 进行安装部署。
    2. n8n 最新版:推荐使用 Docker 快速部署,请参考官方指引 https://docs.n8n.io/hosting/installation/docker
    3. gpt-oss-120b:在 GPUStack 中部署,具备优秀并发能力。

    📖 工作流搭建

    1. 获取模型 API 凭证

    首先,我们需要获取模型的调用地址。在 GPUStack 的 Deployments 列表找到目标模型,通过右侧菜单点击 API Access Info。系统会弹出详细的接入信息,若尚未配置密钥,可直接点击窗口内的链接跳转至创建页。


    创建 API Key

    成功创建后,生成的 API Key 将作为 n8n 访问本地模型的安全凭证。由于 Key 仅在创建时显示一次,建议立即将其妥善保存。

    2. 配置 n8n 模型连接

    由于 GPUStack 兼容 OpenAI 协议,我们在 n8n 中直接添加一个 OpenAI API 类型的凭证即可。


    在配置窗口,填入刚才获取的 API Key 和 GPUStack 的接入地址。如果填入凭据信息无误,点击 Save 会提示 Connection tested successfully


    关闭凭据配置窗口后,勾选 Limit models,指定该凭证仅使用特定的本地模型。

    3. 编排自动化工作流

    本节目标是搭建一个自动化链路:每天早上八点半定时触发,自动采集 RSS 源信息,并调用 AI 提取摘要发送至指定邮箱。

    1. 创建空白 Workflow

    1. 设置工作流的 First step nodeOn a schedule 类型

    配置触发时间为每天早上八点半

    1. 添加 RSS Read 节点,这里以 https://36kr.com/feed 为例


    点击测试按钮,验证 RSS Read 节点是否正常工作


    双击 RSS Read 节点可查看执行日志和数据

    1. 添加 Basic LLM Chain 节点,用于提取信息摘要

    在弹出的配置窗口中,配置 Source for Prompt (User Message)Define below,然后拖动左侧面板 contentSnippet 字段到 Prompt (User Message) 输入框中


    继续在下方配置 System Prompt -> 你是一个资深科技编辑。请阅读下方的文章内容,提取摘要,要求字数精炼,直击本质。

    1. 配置 LLM Model


    1. 添加 Send Email 节点


    添加 Email 凭据,如下如所示,点击 Create new credential 会弹出配置窗口。

    此界面仅为示例,具体的 SMTP 配置信息(如服务器地址、端口、授权码)请参照你所使用邮箱服务的官方说明。

    配置收件人地址及邮件正文。作为初步演示,我们直接将模型输出的原始文本作为邮件内容。

    表达式无需手写,将字段拖拽到输入框即可。

    📊 效果验证

    点击 Execute Workflow 手动触发一次工作流。n8n 将抓取最新的 RSS 资讯,调用 GPUStack 进行推理生成摘要,最后通过 Send Email 节点发送邮件。

    注意:这一步不要着急实操,否则将一次性收到 30 封邮件!🤣

    执行完成如图所示:

    邮箱截图:

    💡 工作流优化

    上述流程中我们注意到,工作流每完整执行一次就会发送 30 封邮件,这显然不符合预期。我们期望将每条资讯压缩为一句话摘要,再将所有摘要汇总为一个列表,以单封邮件的形式发送,并对展示样式进行统一美化。

    1. 修改 Basic LLM Chain 节点上的系统提示词,指导其直接输出一个 list item
    你是一个资深科技编辑。请将用户输入的文章内容总结为一条简练的 HTML 列表项(<li>...</li>),包含标题和核心要点。
    
    格式示例:
    <li><b>标题</b>:核心要点摘要</li>
    
    要求:
    1. 仅输出 <li> 标签及其内容,不要包含 <ul> 或其他 markdown 格式。
    2. 摘要控制在 50 字以内。

    1. Basic LLM ChainSend Email 节点之间插入一个 Code 节点,用于将分散的摘要聚合为美观的 HTML 格式。

    在后续弹出的菜单中,根据自己偏好选择 Code in JavaScript / Code in Python (Native)

    本文以 Code in JavaScript 为例。

    在弹出的配置面板中,填入如下 JavaScript Code

    ⚠️ 注意:在微信公众号中直接复制以下代码时,普通空格可能会被替换成不换行空格 (NBSP),粘贴后请务必检查并手动替换回普通空格!
    // 获取所有 LLM 节点的输出项
    const items = $input.all();
    
    // 定义 CSS 样式
    const style = {
      container: "font-family: 'Helvetica Neue', Helvetica, Arial, sans-serif; max-width: 600px; margin: 0 auto; padding: 20px; background-color: #f9f9f9; border-radius: 10px; border: 1px solid #e0e0e0;",
      header: "color: #2c3e50; border-bottom: 2px solid #3498db; padding-bottom: 10px; margin-bottom: 20px; font-size: 24px;",
      list: "list-style-type: none; padding: 0;",
      listItem: "background-color: #ffffff; margin-bottom: 15px; padding: 15px; border-radius: 8px; box-shadow: 0 2px 4px rgba(0,0,0,0.05); line-height: 1.6; color: #555;",
      footer: "margin-top: 30px; font-size: 12px; color: #999; text-align: center; border-top: 1px solid #e0e0e0; padding-top: 10px;"
    };
    
    // 构建 HTML 内容
    let htmlContent = `<div style="${style.container}">`;
    htmlContent += `<h2 style="${style.header}">📅 每日科技资讯摘要</h2>`;
    htmlContent += `<ul style="${style.list}">`;
    
    for (const item of items) {
      if (item.json.text) {
        // 为 item 添加样式
        let styledItem = item.json.text.replace('<li>', `<li style="${style.listItem}">`);
        htmlContent += styledItem + "\n";
      }
    }
    
    htmlContent += `</ul>`;
    htmlContent += `<div style="${style.footer}">Generated by n8n & GPUStack • ${new Date().toLocaleDateString()}</div>`;
    htmlContent += `</div>`;
    
    // 返回合并后的单一结果供邮件节点使用
    return [{
      json: {
        email_content: htmlContent
      }
    }];

    1. 更新 Send Email 节点

    n8n 支持在 {{ }} 中编写 JavaScript 表达式。这里我们使用 {{ $now.format('yyyy-MM-dd') }},以便在邮件主题中自动附带当天的日期信息。

    1. 最终效果

    修改完成,重新运行,最终效果如下所示

    1. 保存工作流并发布

    至此,工作流部署完成。只要 n8n 服务保持运行,系统将按照预设在每天早上 8:30 触发执行,并在处理完成后自动发送资讯摘要邮件。

    📈 总结

    通过本文的实战,我们成功利用 n8n 和 GPUStack 搭建了一套全自动、零成本的 AI 资讯助手。从 RSS 抓取到 AI 摘要再到邮件推送,整个流程完全运行在本地环境中,既保护了数据隐私,又规避了高昂的 API 调用成本。

    最后,别忘了打开 GPUStack Dashboard 概览页。你可以直观地查看指定模型在一段时间内的 Token 消耗详情(包括 Prompt 和 Completion)以及 API 请求总数,真正掌握 AI 服务的运行状况。

    🙌 欢迎加入我们的社区

    如果二维码失效,大家可前往 GPUStack 项目获取最新入群二维码 https://github.com/gpustack/gpustack/blob/main/docs/assets/wechat-group-qrcode.jpg

    刚好最近在研究 RSS 订阅各种信息源,整理了一份清单分享给大家。

    包含两部分:

    1. 官方 RSS - LinuxDo、V2EX、Hacker News、GitHub 等网站自带的 RSS
    2. RSSHub 路由 - 微博、知乎、B 站、掘金等通过 RSSHub 生成的 RSS


    项目地址GitHub - JackyST0/awesome-rsshub-routes: 🎯 精选 RSSHub 实用路由推荐,让你的 RSS 阅读更高效!

    RSSHub 官方仓库GitHub - DIYgod/RSSHub: 🧡 Everything is RSSible

    RSSHub 官方文档https://docs.rsshub.app


    欢迎 Star 和补充更多实用订阅源!


    📌 转载信息
    原作者:
    JackyST0
    转载时间:
    2026/1/20 10:04:14

    能加载 RSS 分类,点击到具体 RSS 的时候就 500 错误了,
    从 reddit 的反馈看,影响全球两百多个国家和地区的 Feedly 用户,嗯哼。
    话说热度不行啊,V2EX 没有讨论,用户量应该没那么少啊。

    自从去年 9 月大更新后,Feedly 的稳定性就变差了很多,这次也影响到了 APP 用户,说明是服务器炸了。
    (嗯,我虽然因为 feedly 不修 bug ,叛逃去了 inoreader 但有点不适应,毕竟还没写用户脚本进行优化使用,结果叛逃第三天 Feedly 修复了 bug 所以又反叛回来了)

    Error: 500 / server error / undefined

    对了,可能有人要问,为什么我的界面不一样,看起来简洁许多……别问,问就是自己写的用户脚本/油猴脚本。

    佬友,你如何追踪领域内最新文献?
    佬友,你还在靠刷公众号的文献推送碰运气吗?
    佬友,你还在等导师给你转发公众号文章吗?
    佬友,你需要主动出击!

    刚看到我在 L 站科研的帖子,遂把自用的自定义文献订阅项目发出来:

    由于纯自用,所以项目中暂时没有 README.md,仅在此做详细说明。

    【摘要】
    这是一个基于 GitHub Actions 的全自动文献筛选推送工具,根据设定的关键词从关注的期刊 RSS 列表中抓取最新论文并生成一个 RSS 订阅源,可使用 Zotero 接收订阅。

    【使用方法】

    1. Star (非必须)
    2. Fork 我的项目并删除 filtered_feed.xml 文件
    3. journals.dat 中编辑你感兴趣的期刊 RSS 链接,一行一个
    4. keywords.dat 中填入关键词,一行一个,支持 AND 检索式
    5. 如果担心关键词泄露你的研究领域 /idea,可以不使用 keywords.dat ,进行如下操作:
      • 进入仓库的 SettingsSecrets and variablesActions
      • 点击 New repository secret
      • NAME 中填 RSS_KEYWORDS
      • Secret 中填关键词,一行一个,支持 AND 检索式
    6. 进入 SettingsPages,在 Build and deployment
      • Source 选择: Deploy from a branch
      • Branch 选择: main 分支的 /(root) 目录
      • SAVE
    7. 进入 Actions 页面,如果有 "Workflows aren’t being run on this forked repository" 提示,则点击 I understand my workflows, go ahead and enable them 按钮
    8. 点击 Auto RSS FetchRun workflowRun work flow 手动运行一次生成 filtered_feed.xml 文件,后续每 8 小时会自动运行一次
    9. 打开你的 RSS 管理软件,这里以 Zotero 为例:
      • 点击文件新建文献库新建订阅从网址
      • 网址填写 https://{你的github用户名}.github.io/paper-feed/filtered_feed.xml
      • 标题随意填写
      • 高级选项自定义,更新订阅时间建议小于等于 8 小时
    10. 享受你的阅读


    一次配置,终身使用


    📌 转载信息
    原作者:
    JarvisTown
    转载时间:
    2026/1/8 12:10:01