包含关键字 typecho 的文章

SAP 于 2026 年 3 月发布月度安全补丁,在全产品生态中修复15 个全新安全漏洞。本次更新尤为关键,其中包含两个高危漏洞,若未及时修复,可能导致远程代码执行系统完全沦陷
安全团队应优先处理以下两个 CVSS 评分超 9.0 的漏洞:

[CVE-2019-17571] SAP 报价管理保险模块(FS-QUO)

该漏洞 CVSS 评分 9.8,源于 Log4j 1.2 中过时的 SocketServer 类。

攻击者可利用该漏洞实现不受信数据反序列化,当系统监听外部网络流量时,可直接触发远程代码执行(RCE)

[CVE-2026-27685] SAP NetWeaver 企业门户管理

本次更新修复一处不安全反序列化漏洞CVSS 评分 9.1

拥有上传权限的用户可上传恶意内容触发漏洞,对目标主机的机密性、完整性、可用性造成毁灭性影响。

除关键漏洞外,多款应用也获得重要安全更新:

供应链管理拒绝服务漏洞 [CVE-2026-27689]

高危漏洞(CVSS 7.7),属于不受控资源消耗问题。

已认证攻击者可通过大循环参数反复调用特定功能,耗尽系统资源,导致全线业务中断

NetWeaver AS for ABAP

核心组件获得多项更新,修复:

  • 服务端请求伪造(SSRF)[CVE-2026-24316]
  • 权限校验缺失 [CVE-2026-24309、CVE-2026-27688]
  • 反馈通知中的 SQL 注入 [CVE-2026-27684]

SAP Business One(任务服务)

存在 DOM 型跨站脚本(XSS) 漏洞 [CVE-2026-0489],攻击者可在用户浏览器中执行恶意脚本。

SAP GUI 的 DLL 劫持漏洞

使用 Windows 且启用 GuiXT 的用户需更新 [CVE-2026-24317],防止攻击者通过恶意 DLL 执行未授权代码。

漏洞等级统计

  • Critical(严重):2 个

    影响:远程代码执行(RCE)、系统沦陷

  • High(高危):1 个

    影响:拒绝服务(DoS)

  • Medium(中危):11 个

    影响:SSRF、SQL 注入、XSS、DLL 劫持

  • Low(低危):1 个

    影响:权限校验缺失

2024 年成立的 AI 安全领域领先企业 Promptfoo 已正式被 OpenAI 收购

交易完成后,Promptfoo 将成为 OpenAI 全资子公司,其核心技术架构将无缝集成至全新的 OpenAI Frontier 平台

这家初创公司的核心技术,专门用于强化 AI 模型的防御能力,抵御提示词注入等各类恶意攻击。

而 OpenAI Frontier 是面向企业级场景的 AI 智能体安全平台,旨在帮助企业安全、稳定地部署自主 AI 智能体。

自成立以来,Promptfoo 累计融资 2300 万美元,收购后其整体估值达到 8600 万美元

据企业官方数据,超过 25% 的世界 500 强企业 正在使用 Promptfoo 技术方案,显著提升其 AI 智能体的安全水平。

2024 年成立的 AI 安全领域领先企业 Promptfoo 已正式被 OpenAI 收购

交易完成后,Promptfoo 将成为 OpenAI 全资子公司,其核心技术架构将无缝集成至全新的 OpenAI Frontier 平台

这家初创公司的核心技术,专门用于强化 AI 模型的防御能力,抵御提示词注入等各类恶意攻击。

而 OpenAI Frontier 是面向企业级场景的 AI 智能体安全平台,旨在帮助企业安全、稳定地部署自主 AI 智能体。

自成立以来,Promptfoo 累计融资 2300 万美元,收购后其整体估值达到 8600 万美元

据企业官方数据,超过 25% 的世界 500 强企业 正在使用 Promptfoo 技术方案,显著提升其 AI 智能体的安全水平。

如果你是一个 Java 后端开发者 或者 全栈开发者,那你大概率听过 RuoYi 系列框架

在国内开源后台管理系统里,RuoYi 可以说是 使用人数最多的框架之一
但传统的 RuoYi 项目也有一个问题:

前端架构逐渐显得“老派”。

而最近,我在做项目的时候发现了一个让我眼前一亮的项目:

RuoYi-Plus-Soybean

简单一句话概括:

RuoYi 的强大后端 + Soybean Admin 的现代化前端 + SaaS 多租户架构

在实际体验了一段时间之后,我觉得这个项目非常适合 企业后台系统开发、SaaS平台搭建、以及技术学习

这篇文章我就结合 真实使用体验,给大家详细介绍一下这个项目。


一、RuoYi-Plus-Soybean 是什么?

RuoYi-Plus-Soybean 是一个 现代化企业级多租户管理系统

它的核心思路非常简单:

后端使用 RuoYi-Vue-Plus

前端使用 Soybean Admin

然后整合成为一个 完整的企业级后台解决方案

简单来说,它帮开发者解决了三个核心问题:

1️⃣ 企业级后台系统架构

2️⃣ 现代化前端技术栈

3️⃣ SaaS 多租户支持

项目作者的定位也很明确:

为开发者提供一套 开箱即用的企业管理系统解决方案

二、为什么我会选择这个项目?

一开始我也是用传统的 RuoYi-Vue。

但在做项目的时候,我遇到了几个比较明显的问题:

1 前端技术栈稍微有点旧

传统 RuoYi-Vue 使用的是:

  • Vue2
  • ElementUI
  • Webpack

虽然稳定,但对于现在来说技术栈确实有点老了。

而 RuoYi-Plus-Soybean 使用的是:

  • Vue3
  • TypeScript
  • Vite
  • Naive UI
  • Pinia
  • UnoCSS

整个前端技术栈可以说是 非常现代化


2 支持 SaaS 多租户

现在很多系统都不是单租户系统,而是 SaaS模式

比如:

  • 企业管理系统
  • CRM
  • ERP
  • 教育平台
  • 电商管理后台

这些系统往往需要:

一个系统 → 多个企业使用

这就涉及到 多租户架构

RuoYi-Plus-Soybean 在这一点上做得非常完整:

  • 租户管理
  • 租户隔离
  • 租户配置
  • 租户数据管理

可以直接拿来做 SaaS平台


三、项目技术栈(非常现代)

这个项目的技术栈其实非常漂亮。

我们先看 前端部分

前端技术栈

核心技术:

  • Vue 3.5
  • TypeScript
  • Vite
  • Naive UI
  • Pinia
  • Vue Router
  • Axios / Alova
  • UnoCSS
  • pnpm

简单解释几个关键技术。

Vue3 + TypeScript

Vue3 + TS 基本已经成为 现在企业级前端标配

优点很明显:

  • 类型安全
  • 代码更规范
  • 可维护性更高

Vite

相比传统的 Webpack:

Vite 的启动速度 快很多

开发体验也非常丝滑。


Naive UI

这是一个 Vue3时代非常优秀的组件库

特点:

  • 设计现代
  • 组件丰富
  • TypeScript支持非常好

很多企业后台系统现在都在使用它。


UnoCSS

这个东西很多人第一次看到会有点懵。

其实它类似:

Tailwind CSS 的升级版。

写样式可以直接写在 class 里:

<div class="flex flex-col items-center justify-center p-4 bg-blue-100 rounded-md">

开发效率非常高。


后端技术栈

后端基本继承了 RuoYi-Vue-Plus 的架构:

  • Spring Boot
  • Spring Security
  • Sa-Token
  • MyBatis-Plus
  • MySQL

这一套组合基本就是:

Java 企业级后台黄金组合。

四、项目架构设计

这个项目的工程结构其实也很有意思。

它使用的是:

Monorepo 架构

项目核心目录如下:

root
├ build
├ docs
├ packages
├ public
├ src
└ vite.config.ts

其中比较有意思的是:

packages 目录

这个目录是 monorepo 多包管理

例如:

packages
├ axios
├ alova
├ hooks
├ materials
├ utils

好处是:

  • 代码复用更高
  • 结构更清晰
  • 模块化更强

对于大型项目来说,这种结构非常舒服。


五、项目核心功能

这个项目其实已经自带了一整套 企业后台能力

用户管理

包括:

  • 用户信息
  • 角色分配
  • 权限控制

角色权限管理

支持:

  • 角色权限
  • 菜单权限
  • 按钮权限

权限控制粒度非常细。


租户管理

这是整个项目的 核心亮点之一

支持:

  • 租户创建
  • 租户配置
  • 租户隔离

适合做:

  • SaaS平台
  • 企业系统
  • 多组织系统

字典管理

很多系统都会有:

  • 状态
  • 类型
  • 标签

这些都可以通过 数据字典管理。


系统监控

系统自带:

  • 登录日志
  • 操作日志
  • 在线用户
  • 缓存监控

对于后台系统来说非常实用。


代码生成器

这是 RuoYi 系列的 经典功能

通过数据库表结构可以直接生成:

  • Controller
  • Service
  • Mapper
  • 前端页面

对于 CRUD 系统来说:

开发效率直接翻倍。

六、项目安装其实非常简单

项目强制使用:

pnpm

所以第一步:

安装 pnpm

npm install pnpm -g

然后克隆项目:

git clone https://gitee.com/xlsea/ruoyi-plus-soybean.git

进入目录:

cd ruoyi-plus-soybean

安装依赖:

pnpm install

启动项目:

pnpm dev

浏览器打开:

http://localhost:5173

基本就能跑起来了。


七、我真实使用后的感受

我简单说一下 真实体验

优点

1 技术栈非常新

Vue3 + Vite + TS
开发体验很好。


2 组件封装非常完善

项目自带很多:

  • 表格组件
  • 表单组件
  • 字典组件
  • 布局组件

开发后台系统效率很高。


3 SaaS支持很好

多租户能力是这个项目最大的价值。

如果你想做:

  • 企业平台
  • 管理系统
  • SaaS产品

这个项目真的非常合适。


4 UI非常现代

相比传统 RuoYi:

这个 UI 真的好看很多。


不足

当然也有一点点小问题。

比如:

  • 文档还在不断完善
  • 生态还在发展

不过整体来说:

项目质量已经非常高。

八、适合哪些人使用?

我觉得这个项目特别适合以下几类人:

1 Java 后端开发者

想学习 企业后台系统架构


2 全栈开发者

想快速搭建:

  • 管理系统
  • SaaS平台
  • 企业后台

3 想做毕业设计的同学

这个项目其实也很适合:

  • 毕设
  • 课程设计
  • 项目练习

技术栈也很主流。


九、总结

如果让我用一句话评价这个项目:

它是目前 RuoYi 生态里,最现代化的后台管理系统之一。

它解决了几个关键问题:

  • 前端技术栈升级
  • SaaS 多租户支持
  • 企业级后台能力
  • 开箱即用

如果你正在找一个:

现代化 + 企业级 + Java后台框架

我真的建议你试试这个项目。

项目地址(gitee和github上都有项目地址,gitee更好获取):

https://gitee.com/xlsea/ruoyi-plus-soybean

如果你觉得项目不错,也可以:

  • ⭐ 点个 Star
  • 🐛 提 Issue
  • 🔧 提 PR

一起把这个项目做得更好。


感谢大家,我们下篇文章见 👋

本文由mdnice多平台发布

👋 SCALE 用户们的心声

在社区与用户的持续交流中,我们发现有两类高频需求始终未被充分满足。

test-llm

需求一​:我想知道某些榜单上没有的模型,或者我们团队微调/私有部署的模型,它的 SQL 能力是什么水平,缺少标准化的评测基准和工具。

需求二​:榜单上的模型很多,但我们的业务场景比较特殊,榜单分数不能直接指导选型,需要用自己的数据跑一遍才放心。

现在,SCALE 正式推出 ​模型测评实验室​,直接回应这两个核心诉求。

  • 自定义模型测评​:接入模型 API,选择关注的测评维度,即可获得与 SCALE 榜单同标准的能力评估报告。
  • 自定义数据集测评​:上传业务数据集,勾选候选模型,即可获得贴合真实场景的模型对比结果。

简而言之 — ​用户定义 “测什么” 和 “测谁”​,SCALE 负责给出专业、可信的答案。

👉️ 你来决定测什么模型

模型测评实验室 界面中的 自定义模型测评 部分点击创建测评。用户只需三步,即可验证自有模型在 SQL 赛道上的真实段位。

diy-llm

第一步:接入模型

填写模型名称和 API 参数。支持 OpenAI 标准接口格式,兼容该接口的模型只需填入 openai_api_basekeymodel 即可完成接入。

config-llm

第二步:选择关注的测评维度

不需要跑完所有测试 —— 根据实际关注点,自由勾选需要评测的维度和子维度即可。例如:

  • 模型主要用于查询性能调优?

    只勾选 SQL 优化 下的相关子维度

  • 关注跨数据库迁移能力?

    只勾选 方言转换

  • 想做一次全面体检?

    全部选择

    change-datasets

选择后,页面会实时显示预估 Token 消耗,便于提前评估成本。每个子维度还支持查看数据集详情,测评前即可了解 “考题”。

第三步:确认并等待报告

确认模型参数和测评范围后,填写接收邮箱即可提交。测评完成后,《评测报告》将直接发送至邮箱。

适用场景

  • 企业技术选型​:正在评估某个榜单目前没有模型能否胜任内部 SQL 相关任务,需要一份客观的能力报告。
  • 模型研发团队​:微调或训练了面向 SQL 场景的模型,需要用权威基准验证能力水平、找到短板方向。
  • 模型服务商​:希望了解自家模型在 SCALE 标准下的表现,为产品迭代和市场定位提供数据支撑。

获得的价值

接入模型 API 后,将获得一份与 SCALE 榜单模型同数据集、同维度、同标准的专业评测报告。这意味着可以直接将自有模型的表现与 GPT、Claude、Gemini、DeepSeek、MiniMax 等主流模型进行横向对标,清晰定位能力梯队和提升方向。

👉️ 你来决定测什么数据

模型测评实验室 界面中的 自定义数据集测评 部分点击创建测评。用户可以在真实业务数据中测试出哪款模型最适合。

diy-datasets

第一步:上传数据集,选择候选模型

上传测评数据集(支持 jsonl 或 csv 格式),描述测评方向和评价标准。随后从 SCALE 榜单中 勾选想对比的模型 —— 可以只选 2-3 个最终候选做精准对比,也可以选更多做全面摸底,完全按需决定。

当前模型覆盖国内外主流厂商,如果关注的模型不在列表中,也可以提交扩展请求。

change-llm

第二步:填写联系方式

留下姓名、手机号和企业名称,便于测评完成后联系交付报告。商业信息严格保密。

适用场景

  • 技术选型决策者​:团队正在为某个 SQL 相关项目选择大模型,榜单排名是参考,但真正的决策依据应该来自自己的业务数据
  • DBA/数据工程团队​:手头有一批典型的业务 SQL(慢查询、迁移脚本、复杂报表等),想看看不同模型处理这些 SQL 的实际效果
  • 产品经理/架构师​:需要为管理层提供一份基于真实场景的模型对比报告,支撑采购或集成决策

获得的价值

上传业务数据后,SCALE 会用勾选的模型逐一运行测评,输出一份 ​基于真实业务场景的模型对比报告​。不同于通用榜单分数,这份报告直接回答 ​哪个模型最适合你的业务​。

🤔 哪种测评模式更合适你?

验证自有模型的 SQL 能力水平

  • 推荐模式:自定义模型测评
  • 需要准备:模型 API 相关参数
  • 将获得:《模型 SQL 能力评估报告》

用业务数据对比不同模型的实际表现

  • 推荐模式:自定义数据集测评
  • 需要准备:业务数据集(jsonl/csv)
  • 将获得:基于真实场景的《模型对比报告》& 专业咨询

🤔 为什么要推出此功能?

模型测评实验室 解决的核心问题是:​让评测回归真实需求​。

每个团队的模型不同、业务不同、关注点不同 —— 通用榜单排名是重要参考,但无法替代针对性的评估。模型测评实验室 正是为此而生:用户决定测评的维度和对象,SCALE 确保评测过程的专业性和结果的可信度。

欢迎访问 SCALE 官方平台,进入「​模型测评实验室​」开启专属测评。测评完成后我们会主动联系,提供详细的测评报告和专业的咨询服务。如有任何问题,欢迎随时与我们联系。

Hi大家好,我是给你们带来惊喜的运营小番茄。本期更新为短说V5.3.2正式版,修复了已知的问题。如需了解本次V5.3版本新增的功能,具体可点击查看下方链接查看详情:主要是在PC用户端新增了模块:活动模块、话题模块、认证模块、榜单模块、版主管理面板、用户小名片等功能;管理后台新增更多数据统计功能(版块数据统计、话题数据统计),新增操作日志(内容操作日志、用户行为日志、管理员操作日志)等,用户端新增了内容浏览记录,并做了大量新增和优化。01bug修复修复已知问题 1【PC】修复目前切换到门户首页,两张图重复加载了,然后无需缺省图情况下显示了缺省图的问题;2【PC】修复了取消版块内列表置顶,点击没有反的问题;3【PC】修复了论坛组件样式,视频封面没有显示的问题;【PC】修复了取消版块内列表置顶,点击没有反的问题;4【PC】修复了版块分类列表,背景图不显示的问题;5【PC】修复了用户自己发布的匿名评论没有删除按钮的问题;6【通用】修复了链接选择器,设置有符号的帖子链接时,会被截取,需要显示全的问题;7【通用】修复了管理员在版块列表页退出版块,没有弹出提示的问题;8【通用】修复了管理后台查看帖子详情,@用户没有显示出来的问题;9【通用】修复了人气榜 周人气榜列表目前无法显示的问题;10【通用】修复了新增带话题数未统计待审核话题的问题;11【通用】修复了非首页,点击禁言,选择其他原因,输入框显示异常的问题;12【移动端】修复了草稿箱数量,目前不是真实数量 新增删除草稿都无法改变这个的问题;13【移动端】修复弹窗广告,目前已经过期的也在接口中返回的问题;14【移动端】修复了频道列表,返回的置顶时间变成时间戳了的问题;15【移动端】修复了App首页导航-活动-活动中心点击进活动详情页,UI异常的问题;16【移动端】修复了小程序中,进入版块,分类列表的数据无法加载显示的问题;17【移动端】修复了频道列表,对帖子版块内列表置顶,刷新页面,接口没有返回已置顶信息的问题;18【移动端】修复了目前版块分类列表时,左侧的分类没有固定,能上下滑动了的问题;19【移动端】修复了热评榜显示了匿名用户的真实昵称的问题;20【移动端】修复了在问卷版块里,点击发布问卷,跳转到发布页面,此时版块logo丢失没有显示的问题;21【移动端】修复了我的发布页面,类型筛选失效的问题;22【移动端】修复问卷草稿删除失败的问题;23【PC】修复导航关闭后设置状态开启,无法开启的问题;24【PC】修复认证页面偶发进入一直在转圈的问题;25【移动端】修复版块列表中,帖子编辑点击无效过。频道列表可以触发的问题;26【移动端】修复匿名贴,作者信息栏不显示了的问题;27【移动端】修复进入详情页,版块logo没有显示的问题;28【PC】修复刚创建的活动,还可以报名但是显示活动已结束的问题;29【PC】修复我的页面,问卷下拉第二页时数据加载异常的问题;30【通用】修复后台删除草稿箱,删除成功但没有效果的问题;31【PC】进入用户个人主页 缺省图错位的问题
图片
添加图片注释,不超过 140 字(可选)TIPS所谓产品共创,短说社区一直秉持“需求来自用户”的原则,倾听用户声音,主打一个“听劝”。短说社区的长期更新,离不开大家的支持与帮助,番茄在此代表短说团队向我们的用户表示感谢~感谢客户的需求和使用建议,未来我们会推更多更好用的功能,帮助大家在社区项目上更好地变现~您的关注是我们更新的动力分享最新产品资讯

作为一名在高校讲授金融工程的讲师,我常从开发者的角度去审视金融工具。券商投顾在日常路演或向客户展示时,极度需要一个流畅的多币种汇率走势大屏,这是非常典型的可视化需求

但不少开发者在初期容易踩到一个数据痛点的坑:习惯性地写个定时器,用 Ajax/HTTP 每秒去请求一次接口。这种“伪实时”在金融级应用中非常拉垮,不仅造成页面数据跳动生硬,还存在严重的通信延迟。

最佳的产品功能实现路径是采用 WebSocket 流式订阅。我常拿 alltick api 这类支持实时推送的服务给学生做 Demo。它的逻辑很清晰:握手成功后,发过去一组你感兴趣的资产代码(比如各种法定货币兑人民币)。之后,只要数据源端有哪怕细微的价格变化,核心的 [symbol, price, change, timestamp] 数据就会像流水一样推送到客户端,彻底消灭了请求等待的时间。

来看看这种模式在前端大屏和后台脚本中的行业应用写法。如果是用 Python 做后端行情落库或预警:

import websocket
import json

def handle_market_stream(ws, message):
    # 解析 JSON 格式的推送流
    data_dict = json.loads(message)
    print(f"{data_dict['symbol']} 最新价: {data_dict['price']}, 波动值: {data_dict['change']}")

def init_connection(ws):
    # 向服务端注册监听列表
    sub_cmd = {
        "cmd": "subscribe",
        "args": ["forex:USD/CNY", "forex:EUR/CNY", "forex:JPY/CNY", "forex:GBP/CNY", "forex:AUD/CNY"]
    }
    ws.send(json.dumps(sub_cmd))

# 启动并维持 WebSocket 守护进程
ws_client = websocket.WebSocketApp("wss://ws.alltick.co/realtime", on_message=handle_market_stream, on_open=init_connection)
ws_client.run_forever()

如果是前端的浏览器大屏环境,逻辑也是极其轻量化的:

const liveFeed = new WebSocket("wss://ws.alltick.co/realtime");

liveFeed.onopen = () => {
  // 建立连接即刻订阅
  liveFeed.send(JSON.stringify({
    cmd: "subscribe",
    args: ["forex:USD/CNY", "forex:EUR/CNY", "forex:JPY/CNY"]
  }));
};

liveFeed.onmessage = (event) => {
  // 根据推送上来的 Symbol 局部刷新页面 UI
  const incoming = JSON.parse(event.data);
  console.log(`${incoming.symbol} 现价: ${incoming.price}`);
};

开发建议:大屏展示时,收到新数据只需更新对应表格行的 DOM,千万不要整表重绘,这样体验才会如丝般顺滑。

本文在鲲鹏920openEuler+Ubuntu,从0开始使用Containerd部署k8s1.34.5+开源KS3.4.1版本。

1.说明

关于kt

kt是基于kk二次开发的产物,具备kk的所有功能。二开主要为适配信创国产化环境、简化arm部署过程和国产化环境离线部署。支持arm64amd64架构国产操作系统,已适配芯片+操作系统 如下。

kt新增功能点

  • 适配arm架构harbor和支持,部署体验与X86一样简单。
  • 离线环境部署增强。常用国际和国产操作系统依赖,内置到安装包中。已适配芯片和操作系统如下

    • ./kt init-os 一条命令完成操作系统依赖安装和初始化操作。
    • CPU:鲲鹏、飞腾、海光、兆芯、intel、amd等。
    • OS:Centos、Rocky Linux、Ubuntu、Debian、银河麒麟V10、麒麟V11、麒麟国防版、麒麟信安、中标麒麟V7、统信UOS、华为欧拉、移动大云、阿里龙蜥、TencenOS等。
  • 支持开启防火墙,只暴露30000-32767端口,其他k8s端口添加到节点白名单。

    • ./kt firewall 一条命令自动获取节点信息开白名单和防火墙。

kt版本更新和下载地址

  • kt:kt
  • 关注我不迷路

2.环境准备

服务器基本信息

主机名架构OS配置IP
masterarm64openEuler4核8G192.168.0.18
harborarm64Ubuntu2核4G192.168.0.203

2.1 上传离线制品

操作系统不需要安装docker,不需要设置selinux,swap等操作,全新的操作系统即可。

将离线制品、配置文件、kt和sh脚本上传至服务器其中一个节点(本文以master为例),后续在该节点操作创建集群。本文使用kt:3.1.14版本

2.2 修改配置文件

根据实际服务器信息,配置到生成的config-sample.yaml中,默认使用containerd运行时,如果需要使用docker运行时,请修改31行 为dockercontainerManager: docker

kind: Cluster
metadata:
  name: sample
spec:
  hosts:
  - {name: harbor, address: 192.168.0.18, internalAddress: 192.168.0.18, user: root, password: "123213", arch: "arm64"}
  - {name: node1, address: 192.168.0.103, internalAddress: 192.168.0.103, user: root, password: "123213", arch: "arm64"}
  roleGroups:
    etcd:
    - node1
    control-plane:
    - node1
    worker:
    - node1
    # 如需使用 kk 自动部署镜像仓库,请设置该主机组 (建议仓库与集群分离部署,减少相互影响)
    # 如果需要部署 harbor 并且 containerManager 为 containerd 时,由于部署 harbor 依赖 docker,建议单独节点部署 harbor
    registry:
    - harbor
  controlPlaneEndpoint:
    ## Internal loadbalancer for apiservers 
    internalLoadbalancer: haproxy

    domain: lb.kubesphere.local
    address: ""
    port: 6443
  kubernetes:
    version: v1.34.5
    clusterName: cluster.local
    autoRenewCerts: true
    containerManager: containerd
  etcd:
    type: kubekey
  network:
    plugin: calico
    kubePodsCIDR: 10.233.64.0/18
    kubeServiceCIDR: 10.233.0.0/18
    ## multus support. https://github.com/k8snetworkplumbingwg/multus-cni
    multusCNI:
      enabled: false
  registry:
    type: harbor
    registryMirrors: []
    insecureRegistries: []
    privateRegistry: "dockerhub.kubekey.local"
    namespaceOverride: "kubesphereio"
    auths: # if docker add by `docker login`, if containerd append to `/etc/containerd/config.toml`
      "dockerhub.kubekey.local":
        username: "admin"
        password: Harbor@123 # 此处可自定义,kk3.1.8新特性
        skipTLSVerify: true # Allow contacting registries over HTTPS with failed TLS verification.
        plainHTTP: false # Allow contacting registries over HTTP.
        certsPath: "/etc/docker/certs.d/dockerhub.kubekey.local"
  addons: []
---
apiVersion: installer.kubesphere.io/v1alpha1
kind: ClusterConfiguration
metadata:
  name: ks-installer
  namespace: kubesphere-system
  labels:
    version: v3.4.1

2.3 系统初始化

解压kt-centos.tar.gz文件后执行./kt init-os -f config-sample.yaml 已适配操作系统和架构见1.说明

该命令kt会根据配置文件自动判断操作系统和架构以完成所有节点的初始化配置和依赖安装。

3 创建 Harbor私有仓库

3.1 创建镜像仓库

./kt init registry -f config-sample.yaml -a artifact-arm-k8s1345.tar.gz

此命令会在harbor节点自动安装dockerdocker-compose

3.2 创建harbor项目

<font style="background-color:rgb(255,245,235);">说明:</font>

<font style="background-color:rgb(255,245,235);">Harbor 管理员账号:</font><font style="background-color:rgb(255,245,235);">admin</font><font style="background-color:rgb(255,245,235);">,密码:</font><font style="background-color:rgb(255,245,235);">Harbor@123</font><font style="background-color:rgb(255,245,235);">。密码同步使用配置文件中的对应password</font>

<font style="background-color:rgb(255,245,235);">harbor 安装文件在 </font><font style="background-color:rgb(255,245,235);">/opt/harbor</font><font style="background-color:rgb(255,245,235);"> 目录下,可在该目录下对 harbor 进行运维。</font>

创建 Harbor 项目

chmod +x create_project_harbor.sh && ./create_project_harbor.sh

4 创建k8s和KubeSphere

./kt create cluster -f config-sample.yaml -a artifact-arm-k8s1345-ks3.4.1.tar.gz --with-local-storage

此命令kt会自动将离线制品中的镜像推送到harbor 私有仓库

执行后会有如下提示,输入yes/y继续执行

等待一段时间,直至出现熟悉的等待安装完成的小箭头>>--->

期间可以另开一个窗口用以下命令查看部署日志

kubectl logs -n kubesphere-system $(kubectl get pod -n kubesphere-system -l 'app in (ks-install, ks-installer)' -o jsonpath='{.items[0].metadata.name}') -f

继续等待一段时间,可以看到在内核3.10.0上面使用containerd成功部署了1.34.5版本+ks

5 验证

ps:default-http-backend那个pod显示:ImagePullBackOff,没啥用,不需要理会。

登录页面

集群管理

集群节点

监控告警

集群信息

节点情况

配置文件默认只安装了监控,如果需要安装其他组件,可以自行在自定义资源中开启

微信图片_20260310175840_3112_3.jpg
2026年全国两会期间,AI4S成为代表委员的热议焦点。全国政协委员、中国科学院院士周志华在政协会议上强调,“人工智能赋能科学研究”正推动科研范式发生历史性变革,被视为继经验、理论、计算和数据范式之后的“第五科研范式”。

周志华同时指出,部分科研工作对“人工智能赋能科学研究”停留在对工具的简单套用,或盲目尝试训练通用“科学大模型”以应对所有问题。同时,科学数据获取成本高、标准不统一、共享意愿低,数据标注质量参差不齐等问题,导致AI模型训练效率不高、可靠性难以保障。据此,他提出加强政策引导,构建科学数据生态等建议。

全国人大代表、上海国投董事长袁国华也提到了这一痛点:高质量、标准化、可及性强的科学数据稀缺,已成为制约AI4S规模化落地的关键瓶颈。袁国华建议加快构建统一科学数据库,建立科学数据治理与流通标准,破解“数据孤岛”难题。

这些政策呼声恰与产业现实形成呼应。近一年来,全球AI4S领域模型与算法都实现了飞速升级,中国科研领域一些模型能力跻身全球顶尖水平。然而,将科学创新落实到产业转化,模型的精准预测能力只是其中的第一步,高效的验证和产业化能力在当今仍然非常稀缺。

作为深耕企业级复杂场景落地的AI原生企业,枫清科技尤其专注于AI4S领域,并长期服务于产业链链主企业。枫清科技提供的可落地的AI4S解决方案,兼顾了数据合规与实验验证的系统化支撑能力。

以数据为中心的科研智能体平台

枫清科技坚持“以数据为中心”的架构,通过部署端侧科研助手,将实验记录、化合物结构、工艺参数等核心机密留存本地,提供数据敏感的端侧科研助手及个人端智能化引擎,在保障数据安全的前提下,满足智能化分析与报告生成等科研需求。

而这种云端协同的模式,并非简单调用大模型API,而是通过知识引擎将企业内外部数据知识化,结合大模型和智能体能力,构建智能应用,在本地构建企业私域知识图谱,让数据在本地完成从原始记录到结构化知识资产的转化,既享受AI赋能,又无需触碰合规风险。

产业实践:贯通“干湿闭环”的科研全周期管理

基于服务中化的AI4S实践,枫清科技构建了一条贯通“产-学-研-用”的完整闭环。依托“人工智能赋能新材料”联合实验室及985高校的前沿研究,通过AI技术在数字空间完成材料筛选与性能预测;通过与东营化工园区合作,导入东营中试基地进行工程放大,验证工艺稳定性与经济性;最终回归园区企业实现规模化量产,并将生产数据回流至前端模型,实现全链路产业闭环。

换言之,“干实验设计-湿实验验证-产业化落地-数据再训练”的科研全生命周期链路,让企业完成从实验到落地的完整闭环,构建产学研用的完整生态。

微信图片_20260310181125_3116_3.png

智能体矩阵构建自我强化的科研生态

在具体应用层,枫清科技构建了“通用智能体+场景智能体”双轮驱动的科研赋能体系。通用智能体涵盖专利和论文检索、论文精读、报告生成等模块,聚焦信息获取与知识管理;科研场景智能体则针对特定需求,提供科研立项、实验设计、数据分析、聚合物生成与筛选等垂直能力。

更重要的是,实验数据通过“科研垂类模型微调和蒸馏”机制,形成高质量数据集,进行模型微调和蒸馏,构建起垂类大模型,形成自我强化的数据飞轮。

枫清科技携手火山引擎共建的石景山AI4S平台,更将这一能力系统化,支撑新材料、生物医药等多领域、多场景的智能化科研,为AI4S的规模化落地提供可复制的工程化基座。

枫清科技等企业的实践,正在为AI4S的“工程化无人区”探索路线图,推动科研创新从实验室走向产业化的深水区。2026年,随着产业数智化基础设施的不断完善,中国有望在全球AI4S竞争中率先突破这一关键瓶颈。

据《The Information》3 月 10 日报道,腾讯正在为微信秘密开发一款“绝密级”AI 智能体项目。

据报道,四位知情人士透露,腾讯正在秘密为其微信应用开发 AI 助手。该项目在公司内部被列为高度机密计划,其启动时间至少可以追溯到去年上半年。

根据计划,腾讯打算在年中启动灰盒测试,并在第三季度向所有用户推出该功能。但内部人士表示,如果该功能尚未成熟,上线时间仍有可能调整。

一旦上线,该智能体将连接微信平台内数百万个小程序,涵盖网约车、外卖等多种服务,从而取代 14 亿月活跃用户手动完成这些任务的需求。

https://www.theinformation.com/articles/tencent-joins-chinas-ai-agent-race-top-secret-wechat-project

此外,腾讯已宣布 QClaw 正处于内测中。

qClaw

这次腾讯是要丢弃元宝了吗?各位看好不。

在数字化转型的下半场,企业面临的核心挑战已不再是“如何存储数据”,而是“如何高效、安全地使用数据”。当业务端的需求以天甚至小时为单位迭代时,传统“手写代码开发接口”的模式早已捉襟见肘。数栈DataAPI作为企业级数据资产开放平台,通过可视化配置、全生命周期管理与金融级安全保障,帮助企业构建统一的数据服务层。

一、 行业背景:数据资产化面临的困境

企业在构建数仓、湖仓一体后,沉淀了海量的数据资产。然而在将这些资产推向业务端、赋能实际业务场景的过程中,往往存在三大痛点 :

  • 资产无法直观呈现:业务方不知道有什么数据,技术方不清楚数据被谁用了,数据资产成了难以追溯的“黑盒”。
  • 开发效率低下:每一个数据接口都需要后台开发人员手动编写逻辑,不仅响应周期长,且存在大量低效率的重复劳动,难以支撑敏捷的业务创新。
  • 安全管控失焦:数据出口零散,缺乏统一的权限审批、流量控制和审计机制,敏感数据泄露风险居高不下。

二、数栈 DataAPI:建立数据服务的核心能力

数栈 DataAPI(数据服务平台)提供了一套从数据源连接到 API 生成、管理、调用的闭环解决方案。它彻底改变了传统的接口开发流程,通过可视化配置、全生命周期管理与金融级安全保障,帮助企业构建统一的数据服务层,实现数据资产从“原始数据”到“数据服务”的华丽转身。

图片
图 1:数栈 DataAPI 核心功能架构

1.API 高效生成能力:支持向导与脚本双模式

DataAPI 提供了多种灵活的 API 构建方式,全面覆盖从简单查询到复杂逻辑的各类业务需求:

  • 模板向导模式(零代码):通过可视化配置,用户只需选择目标表、输入参数和输出参数,即可一键生成API。这种模式无需编写任何代码,极大降低了使用门槛,适合初学者和标准化的简单查询场景
  • 自定义 SQL 模式(DQL/DML)用户可以直接编写 SQL,实现多表关联查询、复杂条件过滤、聚合函数计算等能力,灵活满足复杂数据获取需求。同时支持DML 模式,在保障权限与安全控制的前提下,允许通过 API 执行数据写入、更新或删除操作
  • 服务编排(逻辑组合)通过可视化画板将多个 API 及函数编排为工作流。内置 API 节点、Python/Java 函数节点、条件判断节点,能够轻松实现“1+N 聚合调用”、“串联调用”等单个 SQL 无法实现的复杂业务联动场景
  • 注册API支持将企业现有的外部 API 统一注册到平台网关进行集中托管与管理。平台兼容多种主流接口协议,包括HTTP / HTTPS、WebService、Socket,通过注册后,所有接口将统一纳入平台的认证鉴权、访问控制、日志审计与监控告警体系,实现接口的统一治理与可视化管理

图片
图 2:API 生成 - 可视化参数配置界面

2. 数据安全保障:精细到行的权限控制

安全是数据开放的底线。数栈 DataAPI 构建了多维度的安全防线,确保数据“供得出”且“管得住”:

  • 多重认证机制:支持固定的 API-TOKEN、统一的 USER-TOKEN 以及 AK/SK 动态签名认证。AK/SK 方式通过数字签名校验发送者身份,确保数据传输过程中不被篡改。
  • 行级权限管控:平台支持设置行级权限标识。当不同用户调用同一个 API 时,系统能根据用户身份自动拼接过滤条件,实现“同口径、不同数据范围”的精细化管控。
  • 流量监控与黑白名单:支持 IP 安全组(黑白名单)校验。同时提供基于用户维度的流控限制,支持按时间段配置调用上限(如高峰期与低谷期设置不同阈值),有效防止突发流量冲垮后端服务。

图片
图 3:行级权限 - 配置参数值

3. 全生命周期管理:从开发到消费的闭环

  • API 市场:DataAPI 提供了类“电商”的 API 市场模式 。业务人员可以像逛超市一样通过关键词搜索、分类浏览等方式快速找到所需 API。并支持在线查看接口说明、参数定义、调用示例以及调用效果预览,在确认接口能力后即可发起调用申请。目前支持跨项目API申请,彻底打破组织间的协作壁垒。
  • 版本切换与快速回滚:支持线上版本的平滑切换。当新接口上线发现问题时,运维人员可通过平台一键回滚至历史稳定版本,无需重新开发或部署,即可快速恢复服务能力,最大程度保障接口服务的稳定性和业务连续性。
  • 监控告警体系:平台提供完善的 API 监控与告警体系,对接口运行状态进行全方位观测。系统能够实时统计 API 的调用次数、失败率、错误类型等关键指标,帮助运维人员全面掌握接口运行情况。另外,当接口出现调用失败、用户调用次数超出上限等情况,平台可通过配置的告警通道(如邮箱、钉钉)及时推送告警信息

图片
图 4:API市场 - API预览

三、典型应用场景

1. 敏捷 BI 与大屏展示

  • 痛点:前端大屏展示需要频繁调整数据指标,传统模式下每次修改都需要后端研发排期改代码,响应极慢。
  • 解决方案:数据工程师通过 DataAPI 的“向导模式”快速生成接口,直接对接前端看板。结合“结果缓存”功能,轻松应对大屏展示时的高并发查询请求,需求响应周期从“周”级缩短至“小时”级。

    2.复杂业务逻辑的数据中台开放

  • 痛点:某业务线需要整合存储在 HBase 中的历史订单与存储在 MySQL 中的当日订单,前端调用逻辑复杂。
  • 解决方案:通过 DataAPI 的“服务编排”功能,利用条件判断节点,根据入参(如订单时间)自动路由到不同的底层 API,并将异构数据源的查询逻辑封装为一个统一的 API 暴露给前端,大幅降低了调用方的接入成本。

图片
图 5:服务编排 - 业务逻辑可视化组合

四、 产品价值总结

数栈 DataAPI 凭借可视化生成、全场景适配、金融级安全管控以及闭环管理四大核心优势,真正实现了数据资产的“服务化”。它不仅解放了开发者的生产力,消除了“重复造轮子”的低效劳动,更为企业构建了一套可持续迭代、可复用、安全可控的数据资产体系。

在数字化驱动的未来,DataAPI 将不再是一个可选的组件,而是企业构建敏捷、安全、高效数据生态的必备基础设施。让数据智能“触手可及”,从构建一个强大的数据服务层开始。

TiSpark是TiDB为解决用户复杂OLAP需求而推出的产品。它借助Spark平台,同时融合TiKV分布式集群的优势,和TiDB一起为用户一站式解决HTAP的需求。下面展示了TiSpark的体系架构。
image.png

视频讲解如下:
https://www.bilibili.com/video/BV1KLPZzAEje/?aid=116203410429...

下面通过具体的操作步骤来演示如何使用TiSpark查询TiKV中的数据。
(1)进入Spark的conf目录,生成spark-defaults.conf文件。

cd /root/training/spark-3.0.0-bin-hadoop3.2/conf/
cp spark-defaults.conf.template spark-defaults.conf

(2)在spark-defaults.conf中添加如下配置

spark.sql.extensions  org.apache.spark.sql.TiExtensions
spark.tispark.pd.addresses  127.0.0.1:2379
spark.sql.catalog.tidb_catalog  org.apache.spark.sql.catalyst.catalog.TiCatalog
spark.sql.catalog.tidb_catalog.pd.addresses  127.0.0.1:2379

(3)重启Spark集群。
(4)启动TiDB数据库集群

tiup playground v8.5.1 \
     --db 1 --pd 1 --kv 2 \
     --tiflash 0 --without-monitor
    
# 提示:这里将会使用部门表(dept)和员工表(emp)进行演示。

(5)启动Spark交互式命令行工具spark-shell,并同时加载TiSpark的包

bin/spark-shell --master spark://192.168.79.10:7077 \
    --jars /root/tools/tispark-assembly-3.0-2.5.3.jar

(6)通过TiSpark执行一个多表连接查询。

scala> spark.sql("use tidb_catalog")
scala> spark.sql("select d.dname,e.ename,e.sal from scott.dept d,scott.emp e where d.deptno=e.deptno").show

# 输出的结果如下:
+----------+------+----+                                                        
|     dname| ename| sal|
+----------+------+----+
|  RESEARCH| SMITH| 800|
|     SALES| ALLEN|1600|
|     SALES|  WARD|1250|
|  RESEARCH| JONES|2975|
|     SALES|MARTIN|1250|
|     SALES| BLAKE|2850|
|ACCOUNTING| CLARK|2450|
|  RESEARCH| SCOTT|3000|
|ACCOUNTING|  KING|5000|
|     SALES|TURNER|1500|
|  RESEARCH| ADAMS|1100|
|     SALES| JAMES| 950|
|  RESEARCH|  FORD|3000|
|ACCOUNTING|MILLER|1300|
+----------+------+----+

通过Spark Web Console可以进一步查看TiSpark任务执行的过程。
image.png

通过使用TiSpark也可以连接不同数据源中的数据从而进行多表连接查询。下面的示例将两张表:一张表是部门表dept,该表存储在文件系统中,如:本地文件系统或者Hadoop HDFS中;另一张表是员工表emp,该表存储在TiDB中。具体的操作步骤如下:
(1)查看部门表dept中的数据

# cat dept.csv 
10,ACCOUNTING,NEW YORK
20,RESEARCH,DALLAS
30,SALES,CHICAGO
40,OPERATIONS,BOSTON

# 提示:这是一个本地文件系统上的csv文件。

(2)启动Spark Shell

bin/spark-shell --master spark://192.168.79.10:7077 \
    --jars /root/tools/tispark-assembly-3.0-2.5.3.jar

(3)将部门表加载到Spark的DataFrame中

scala> val deptDF = spark.read.format("csv").option("seq",",").schema("deptno int,dname string,loc string").load("/root/dept.csv")
                  
# 提示:通过Spark可以加载本地文件系统、Hadoop HDFS、Hive等数据源中的数据。

(4)将deptDF注册为视图。

scala> deptDF.createOrReplaceTempView("dept")

(5)通过TiSpark关联TiDB数据库中的员工表emp,执行多表查询。

scala> spark.sql("use tidb_catalog")
scala> spark.sql("select d.dname,e.ename,e.sal from dept d,scott.emp e where d.deptno=e.deptno").show

# 输出的结果如下:
+----------+------+----+                                                        
|     dname| ename| sal|
+----------+------+----+
|  RESEARCH| SMITH| 800|
|     SALES| ALLEN|1600|
|     SALES|  WARD|1250|
|  RESEARCH| JONES|2975|
|     SALES|MARTIN|1250|
|     SALES| BLAKE|2850|
|ACCOUNTING| CLARK|2450|
|  RESEARCH| SCOTT|3000|
|ACCOUNTING|  KING|5000|
|     SALES|TURNER|1500|
|  RESEARCH| ADAMS|1100|
|     SALES| JAMES| 950|
|  RESEARCH|  FORD|3000|
|ACCOUNTING|MILLER|1300|
+----------+------+----+

科技云报到原创。

 

当一家全球科技巨头决定“舍近求远”,启动一场历时3年、跨越千里的“数字史诗级迁徙”,背后必然蕴藏着战略远见与技术底气。

 

2025年底,xCloud联想智能云主导的联想北研数据中心由北京圆满迁移至内蒙古,这并非是一次单纯意义上的IT基础设施“物理迁移”,而是一场针对超复杂IT系统迁移的极限挑战,跨越千里的不仅是地理空间距离,更彰显了数据中心迁移能力的新高度。

 

 

内蒙古数据中心

 

通过超复杂场景的试炼,xCloud联想智能云淬炼出一套数据中心迁移方法论,并形成了“实践-沉淀-输出”的能力闭环,从而将一次内部战略工程打造成为数据中心迁移的全球标杆范本。

 

以极限场景 淬炼数据中心迁移硬核能力

 

在北研数据中心面临搬迁的关键节点,xCloud联想智能云没有选择就近的搬迁方案,而是毅然启动了这场横跨千里的迁移工程。

 

从城市区位条件角度,内蒙古的优势相对有限,但如果站在数据中心精细化运营的角度,就不难以理解这场“舍近求远”的迁移。由于内蒙古租金成本、工业电价的降低,使整体TCO实现大幅下降。同时,当地电力充裕、绿电资源丰富,自然冷却条件优越,契合双碳要求。此外,内蒙古拥有充裕土地足以支撑超大规模算力集群建设,并满足未来10-20年的数据中心扩容需求。更为重要的是,数据产业还被内蒙古列为战略产业,一系列政策扶持有助于数据中心项目的加速落地。

 

这场历时3年的迁移工程,涉及将近2500台设备,350个机柜,其中包括1000+台服务器、620+台网络设备、300+台存储设备及其它类型设备,共包含10000+实例、近1000个应用系统,总数据量高达近10PB,远超行业平均水平。

 

从复杂度上看,800个应用系统中包含全球订单系统等60+个核心应用,涉及多条上下游依赖链路,跨部门业务协同频繁,单点错误可能引发全局业务瘫痪。部分关键应用单次迁移数据量更是超过80TB,其数据设备规模之大、系统关系之复杂堪称行业之最。

 

面对如此超大规模、超复杂度的IT系统迁移,xCloud联想智能云在3年内完成全部核心应用的平滑迁移,并最终实现了“数据零丢失、业务零中断、用户零感知”的硬核战绩。

 

事实上,联想将数据中心迁移至内蒙古并非冲动决策,而是面向未来的综合战略考量,既契合了“降本”“双碳”“增长”三大战略,更是主动锤炼核心能力的战略布局,通过超复杂场景打造行业标杆级迁移样本,让每一项技术、每一个流程都经得起极端实战检验。

 

此次数据中心迁移带来的最明显变化就是成本的显著下降。内蒙古数据中心机柜租赁费用相比北京北研数据中心降低50%,相比北京市场平均价格降低约66%,将为联想的未来业绩带来正向反馈。

 

其次,联想积极响应国家“双碳”目标,推进“东数西算”工程绿色发展。新数据中心位于内蒙古呼和浩特绿色能源园区,可以依托当地风能、光伏等丰富的绿色电力资源,将PUE降至1.3以下,从而实现长期能耗节约,推动算力基础设施向绿色化转型。‌

增长方面,xCloud联想智能云的双站点数据中心将为核心应用提供“双活”方案,确保业务的持续性,同时提供智算专区,为AI、大数据、云计算等新兴业务提供算力支持。相比北京北研数据中心的固定数量机柜,内蒙数据中心可在现有基础上进行3倍容量扩展,从而满足10年以上的业务增长需求。

 

建成后的内蒙数据中心将作为联想国内核心节点,与海外及区域数据中心形成一体化的全球算力调度体系,为全球业务提供稳定、低延时、可扩展的计算支持,并通过统一的云平台和安全体系,实现全球资源与数据治理标准的统一。

 

三大杀手锏 重新定义数据中心迁移标准

 

在数据中心迁移领域,多数服务商仍停留在保证机器设备运行的初级阶段,而xCloud联想智能云则实现了迁移后业务应用100%启动。凭借自动化工具链、业务导向的迁移标准、行业领先的架构设计三大杀手锏,xCloud联想智能云构建了难以逾越的技术壁垒,重新定义了超复杂IT系统迁移的行业标准。

 

l自动化+架构创新,破解迁移效率与安全难题

 

数据中心迁移的核心痛点,在于效率与安全的平衡。人工迁移效率低、易出错,而单纯追求速度又可能引发安全风险。xCloud联想智能云通过自动化工具链与架构创新的双重突破,有效解决了这一矛盾。

 

xCloud联想智能云自主研发并应用自动化迁移与验证工具链,实现迁移流程标准化、可追溯,确保数据迁移完整性。此次项目中,约90%应用通过自动化工具完成迁移,显著提升效率并节省人力投入。相比传统人工迁移方式,自动化工具不仅将迁移周期缩短40%以上,更把人为失误风险降到近乎为零。通过该工具链,xCloud联想智能云实现100余个实例的并行迁移,在相同带宽条件下创造迁移效率新高,即便面对单次80TB以上的超大容量数据迁移,也能保持稳定高效。

 

在架构设计上,xCloud联想智能云采用“Tier III+双活架构”,实现了容灾能力的跨越式提升。内蒙数据中心的双站点物理距离小于50KM,网络延迟小于3ms,通过大二层网络实现同一IP跨数据中心飘移。

 

这种架构设计意味着,即使在极端情况下出现单点故障,系统也能无缝切换,确保业务持续运行。相比北研数据中心,容灾能力实现质的飞跃,为核心应用提供了前所未有的高可用性保障。

 

此外,xCloud联想智能云全面采用云原生架构与容器化部署,实现资源弹性伸缩与快速交付。迁移过程中,不仅完成了物理设备的搬迁,更同步实现了应用架构的优化升级。例如,将全球商城系统从单点灾备升级为同城双活灾备,大幅提升业务连续性。这种迁移与升级同步推进的模式,让企业在完成数据中心搬迁的同时,实现了技术架构的迭代升级,为未来业务发展预留了充足空间。

 

l以“业务可用性”为核心,满足数据中心差异化迁移需求

 

在行业内,多数服务商将“设备正常运行”视为迁移成功的终点,而xCloud联想智能云则将“业务不受影响”作为起点。这种理念差异,让xCloud联想智能云在迁移标准上实现了本质超越。迁移的成功与否,不仅要看技术指标,更要看业务体验。

 

在迁移过程中,不仅测试设备是否正常运行,更模拟全球订单实时下单、跨国团队协同办公、大型数据运算等真实业务场景,验证系统响应速度、数据处理能力与稳定性,确保迁移后业务体验不下降、用户无感知。

 

针对不同类型的应用,xCloud联想智能云还制定了差异化的迁移策略:无状态应用通过迁移工具在线迁移,业务无感知;有状态应用依托主备同步等高可用方案,实现平滑过渡。这种定制化方案,确保了每一个应用的迁移都能适配其业务特性与需求。

 

l用技术实力说话,塑造数据中心迁移标准范式

 

真正的技术壁垒,不仅在于单点技术的领先,更在于可复制、可推广的标准体系。通过北研数据中心迁移这一超复杂场景的实战,xCloud联想智能云沉淀出一套涵盖“规划-实施-验证-运维”全生命周期的迁移方法论,将其打造成为多个行业数据中心迁移的标准参考。

 

迁移起始阶段,xCloud联想智能云技术团队通过与各业务部门多轮沟通,详细梳理上下游依赖,AI识别关键路径,并AI生成可视化的链路图谱,确保迁移方案无遗漏。

 

之后,对迁移进行分级分阶段实施,按应用重要性与关联度划分优先级,核心应用单独制定方案,非核心系统随云平台整体迁移,降低风险传导。

 

通过对迁移全流程进行风险管控,比如迁移前方案多轮评审、迁移中全链路监控、迁移异常时的AI自主问题定位及修复建议、迁移后端到端质量验证,确保方案完整与可执行,保障迁移过程安全可控。

 

此外,建立了统一指挥体系与跨部门系统机制,通过迁移责任矩阵(RACI)与变更窗口统一管理,确保多团队高效协同。

 

这套经过严苛实践检验的标准化体系,成功规避了超大规模数据中心迁移中的技术风险、业务风险与合规风险,它让迁移的每一个环节都处于可控范围,既避免了数据泄露、业务宕机等重大损失,也为后续同城双活架构的稳定运行、智能化运维的落地奠定了坚实基础。

 

不止于“迁移”更要“赋能” 全维赋能企业数字化升级

 

如果说,此前数据中心迁移体现的是基础设施层面的工程化能力,那么此次迁移则实现了“基础设施迁移+业务能效升级”的双重价值。通过智能化运维衔接与业务创新赋能,xCloud联想智能云让数据中心成为企业数字化的核心引擎,而非单纯的基础设施。

 

迁移完成后,内蒙数据中心在运维效率、稳定性与安全性上实现全面升级,为智能化运维奠定了坚实基础。

 

运维可视化方面,数据中心实现Smart PDU的100%应用,能够实时监控用电、能耗等关键数据,实现可视化管理与主动预警。运维团队可以通过统一平台掌握数据中心运行状态,及时发现并处理潜在问题,相比传统运维模式,故障响应时间缩短60%以上。

 

高可用性方面,同城双活架构与故障自动切换机制,让核心业务在单点故障时仍能持续运行。例如,存储交换机的端口速率由原来的16GB提升至32GB,性能提高约一倍,显著提升数据处理和访问效率;网络接入能力从北研的部分1G、部分10G升级为40G 高速接入,带宽提升约4倍,数据传输与业务处理能力大幅增强。

 

安全合规方面,数据中心实现了网络层单独划分数据库隔离区,实现应用层和数据库层的物理隔离,增强业务数据安全访问。同时,安全团队对迁移架构进行多轮安全审查,加固网络与访问控制,验证数据加密策略,确保迁移后环境安全基线不下降且更可控。符合等保三级安全要求的设计,让企业在数据安全与合规方面更具底气。

 

这些智能化运维能力的落地,不仅降低了企业的运维成本,更提升了数据中心的稳定性与可靠性,让企业能够将更多精力投入到核心业务创新中。

 

更为重要的是,内蒙数据中心的先进架构与资源配置,为企业业务创新提供了强大支撑,尤其在AI、大数据、云计算等新兴业务领域,展现出北京机房所不具备的潜力和容量。

 

云原生架构与容器化部署能力,让业务上线速度提升50%以上。对于全球业务而言,低延时的全球算力调度体系,让跨国团队协同办公、全球订单处理等业务更加顺畅,提升了企业的全球运营效率。

 

此外,xCloud联想智能云通过资源隔离实现应用按可用区划分,底层存储物理隔离,显著缩小故障域、提升系统稳定性。云安全能力的全面增强,实现了多层数据保护与合规防护,为关键业务提供更高等级的安全保障。这些能力的叠加,让企业在数字化转型的道路上更具底气,能够从容应对各种挑战。

 

从更广泛的意义看,xCloud联想智能云的这场“数字大迁徙”,用实战重新定义了超复杂IT迁移的标准,打破了行业常规,证明了其在大型IT工程、核心技术研发上的硬实力。从“自我升级”到“赋能他人”,xCloud联想智能云开辟了新的增长曲线,也为科技企业如何将内部能力转化为商业价值,提供了可复制的范本。

 

随着数字化转型的深入推进,企业对数据中心迁移的需求将持续增长,xCloud联想智能云将以此次项目为基础,持续打磨核心能力,为更多企业提供可靠、高效、安全的数字化基础设施升级方案,开启一段“内生外化、赋能全球”的新征程。

 

关于xCloud联想智能云

 

xCloud联想智能云是联想以AI为核心打造的新一代智能云,凝聚联想40年IT智慧、全球化服务经验与专业业务流程的深厚积淀,为企业提供更智能、更可靠、更具成本效益的云+AI解决方案。xCloud联想智能云屡获IDC、Gartner等国际权威机构认可,成为唯一入选Gartner相关魔力象限的中国厂商,领跑中国IT服务市场。其构建了完善的解决方案矩阵,涵盖混合云、知识和数据管理、模型生产运营、智能体开发运营、可信计算。目前,xCloud联想智能云已深度服务于政务、制造、医疗、教育、能源、金融等行业,满足客户在AI算力、工程化及治理领域的智能化需求,充分释放AI潜能。

 

【关于科技云报到】

企业级IT领域Top10新媒体。聚焦云计算、人工智能、大模型、网络安全、大数据、区块链等企业级科技与数字化转型与赋能的领域。原创文章和视频获工信部权威认可,是世界人工智能大会、数博会、国家网安周、可信云大会与全球云计算等大型活动的官方指定传播媒体之一。

大家好,我是陈哥。

产品经理为什么不能一次性确定好需求?

这个问题在知乎一直有着很高的讨论度和关注度。

相信做研发的小伙伴或多或少都遇到过这种情况:大家或多或少都遇到过这种情况:明明跟产品经理都对接好需求了,一旦开始写代码,对方就突然说需求要调整。

在实际工作中,一次性确定需求这件事,本身就不符合产品研发的逻辑,更违背了我们实际工作的常态。

就像我们平时做一件没做过的事,不可能一开始就把每一步都想得天衣无缝,总要在推进过程中不断修正,产品需求的确定,也是同样的道理。

产品经理-需求管理

首先,需求的源头就自带不确定性,产品经理一开始拿到的,从来都不是标准答案。很多人以为,产品需求是产品经理拍脑袋想出来的,其实不然。

需求的来源特别杂,可能是用户反馈、业务方诉求,也可能是市场竞品的动作、公司的战略调整。而这些来源,本身就充满了模糊性和变数。

比如用户反馈,大多时候都是“我觉得不好用”“希望能更方便一点”等,很少有人能精准说出“我需要一个XX功能,点击后出现XX效果”;

业务方今天说要重点做获客,明天看到数据不好,又说要转向留存,诉求随时可能变;

甚至有时候,竞品突然上线一个新功能,原本定好的需求,就必须跟着调整,否则产品就会失去竞争力。

产品经理一开始只能基于这些碎片化、不确定的信息,梳理出一个大致方向,根本没法一次性敲定所有细节。

其次,需求的落地需要多方配合, 不同角色的认知差异,注定了需求要在磨合中完善。

产品经理眼中的好用,是流程顺畅、体验完整;技术负责人关注的可行,是架构稳定、风险可控;而开发与测试关心的 能实现,是逻辑清晰、边界明确。

同一个需求,在不同角色心里往往是不一样的模样,只有坐在一起对齐、碰撞、修正,才能把模糊的想法,变成大家共识、可落地的方案。

这也是我们团队开迭代计划会需要产品经理、技术负责人、开发、测试多方参与的原因。

迭代计划会具体如何开,大家可以参考 《禅道研发流程规范3.0》 ,备注3.0可领取。

还有一个容易被忽略的点:产品研发本质上就是一个从无到有的探索过程

产品经理在最开始,能把握的只有产品的核心痛点和大致方向,就像我们去陌生的地方,一开始只知道目的地,却不知道路上会遇到什么。

所以,产品经理不可能在一开始就预判到所有可能性,只能边推进、边发现、边调整。

当然,这并不是说产品经理可以随意变更需求,更不是为反复改需求找借口。

真正专业的产品经理,会在一开始就梳理出核心需求和大致框架,尽量减少不必要的调整。同时,会建立规范的需求变更流程,提前和各团队沟通,让每一次调整都有依据、有通知,避免浪费研发资源。

产品研发是在推进中做对的。理解了这一点,研发、测试、产品之间的矛盾会少很多,整个团队的协作效率,也会大大提升。

毕竟,大家的目标都是一样的——做出一款好用、有价值的产品

在数字化转型浪潮中,客户关系管理(CRM)系统已成为企业提升销售效率、优化服务体验的核心工具。相较于传统单体架构,基于微服务与云原生理念的轻量级CRM系统凭借其高扩展性、低维护成本和快速迭代能力,逐渐成为中小企业的首选。本文以PHP技术栈为基础,深度解析轻量级云CRM系统的架构设计与实现逻辑。通过分层解耦、微服务化改造和领域驱动设计(DDD)的实践,展示如何构建高并发、易扩展的业务中台;结合AES-256-GCM加密、RBAC动态权限控制和AI行为分析等技术,构建覆盖"传输-存储-使用"全生命周期的数据安全防护体系。

系统架构设计:分层解耦与微服务化

分层架构模型

轻量级云CRM系统采用经典的MVC分层架构,结合微服务思想拆分业务模块:

  • 源码及演示:c.xsymz.icu
  • 表现层:基于Vue.js 3构建响应式前端,通过RESTful API与后端交互
  • 服务层:PHP 8.2+结合Hyperf框架(基于Swoole协程的高性能微服务框架)
  • 数据层:MySQL 8.0存储结构化数据,Redis 7.0实现缓存与分布式锁
  • 安全层:集成JWT认证、RBAC权限控制及AES-256-GCM加密模块

微服务拆分策略

系统核心业务拆分为四大独立服务:

// 服务注册配置示例(config/autoload/nacos.php)
return [
    'services' => [
        [
            'name' => 'crm-customer-service',
            'metadata' => ['protocol' => 'grpc', 'weight' => 100]
        ],
        [
            'name' => 'crm-opportunity-service',
            'metadata' => ['protocol' => 'grpc', 'weight' => 80]
        ]
    ]
];
  • 客户管理服务:处理客户CRUD、标签体系、跟进记录
  • 商机管理服务:管理销售管道、商机阶段、赢率预测
  • 合同服务:电子签章集成、回款计划、发票关联
  • 报表服务:漏斗分析、LTV/CAC计算、SLA监控

核心模块封装实践

客户实体模型封装

采用领域驱动设计(DDD)思想构建客户聚合根:

namespace App\Model;

use Hyperf\DbConnection\Model\Model;

class Customer extends Model
{
    protected $table = 'customers';
    protected $fillable = ['name', 'industry', 'source', 'owner_id'];
    
    // 关联跟进记录(一对多)
    public function followUps()
    {
        return $this->hasMany(FollowUp::class);
    }
    
    // 动态标签系统(多对多)
    public function tags()
    {
        return $this->belongsToMany(Tag::class, 'customer_tags');
    }
    
    // 行为追踪(AOP切面实现)
    public function recordActivity($type, $content)
    {
        ActivityLog::create([
            'customer_id' => $this->id,
            'type' => $type,
            'content' => json_encode($content)
        ]);
    }
}

服务层业务逻辑封装

以客户创建服务为例展示事务管理与缓存策略:

namespace App\Service;

use App\Model\Customer;
use Hyperf\Redis\Redis;
use Hyperf\Di\Annotation\Inject;

class CustomerService
{
    #[Inject]
    protected Redis $redis;
    
    public function createWithCache(array $data): Customer
    {
        // 分布式锁防止并发冲突
        $lockKey = 'lock:customer:create:' . $data['phone'];
        if (!$this->redis->set($lockKey, 1, ['NX', 'EX' => 10])) {
            throw new BusinessException('操作频繁,请稍后重试');
        }
        
        try {
            // 开启数据库事务
            \DB::beginTransaction();
            
            // 数据清洗与业务校验
            $this->validateCustomerData($data);
            
            // 创建客户记录
            $customer = Customer::create($data);
            
            // 更新缓存(Redis Hash结构)
            $this->updateCustomerCache($customer);
            
            \DB::commit();
            return $customer;
        } catch (\Exception $e) {
            \DB::rollBack();
            throw $e;
        } finally {
            $this->redis->del($lockKey);
        }
    }
    
    protected function updateCustomerCache(Customer $customer)
    {
        $cacheData = [
            'basic' => $customer->only(['id', 'name', 'phone']),
            'tags' => $customer->tags->pluck('name')->toArray()
        ];
        
        $this->redis->hMSet("customer:{$customer->id}", $cacheData);
        $this->redis->expire("customer:{$customer->id}", 86400);
    }
}

客户数据安全防护体系

全链路加密方案

  • 传输层加密:强制HTTPS协议,配置TLS 1.3
  • 存储层加密

    • 敏感字段(身份证、银行卡)使用AES-256-GCM加密
    • 加密密钥通过AWS KMS或HashiCorp Vault管理

      // 加密服务示例
      class CryptoService
      {
      public function encrypt($data, $key): string
      {
          $iv = random_bytes(12);
          $encrypted = openssl_encrypt(
              $data,
              'aes-256-gcm',
              $key,
              OPENSSL_RAW_DATA,
              $iv,
              $tag
          );
          return base64_encode($iv . $tag . $encrypted);
      }
      }

精细化权限控制

基于RBAC模型实现最小权限原则:

-- 权限表设计
CREATE TABLE permissions (
    id INT AUTO_INCREMENT PRIMARY KEY,
    resource VARCHAR(50) NOT NULL COMMENT '资源标识',
    action VARCHAR(20) NOT NULL COMMENT '操作类型',
    effect ENUM('allow', 'deny') DEFAULT 'allow'
);

-- 角色权限关联
CREATE TABLE role_permissions (
    role_id INT NOT NULL,
    permission_id INT NOT NULL,
    condition JSON COMMENT '权限条件(JSON逻辑)',
    PRIMARY KEY (role_id, permission_id)
);

动态审计与行为分析

  • 审计日志:记录所有数据变更操作(Who/When/Where/What)

    // 审计日志中间件示例
    class AuditMiddleware
    {
      public function handle($request, Closure $next)
      {
          $response = $next($request);
          
          if ($request->isMethod('POST') || $request->isMethod('PUT')) {
              $user = Auth::user();
              $action = $request->route()->getName();
              
              AuditLog::create([
                  'user_id' => $user?->id,
                  'action' => $action,
                  'ip' => $request->ip(),
                  'params' => json_encode($request->all())
              ]);
          }
          
          return $response;
      }
    }
  • 异常检测:基于用户行为基线模型识别潜在威胁

    # 伪代码:行为异常检测算法
    def detect_anomaly(user_id):
      baseline = get_user_behavior_baseline(user_id)
      current_activity = get_last_hour_activity(user_id)
      
      # 计算行为偏离度
      deviation_score = calculate_deviation(baseline, current_activity)
      
      if deviation_score > THRESHOLD:
          trigger_alert(user_id, deviation_score)

部署与运维最佳实践

容器化部署方案

# docker-compose.yml 示例
version: '3.8'
services:
  crm-api:
    image: hyperf/hyperf:8.2-alpine-v3.18-swoole
    ports:
      - "9501:9501"
    environment:
      - DB_HOST=mysql
      - REDIS_HOST=redis
    depends_on:
      - mysql
      - redis

  mysql:
    image: mysql:8.0
    volumes:
      - ./data/mysql:/var/lib/mysql
    environment:
      MYSQL_ROOT_PASSWORD: ${DB_PASSWORD}

灾备与数据恢复

  • 异地多活:主从数据库同步延迟<100ms
  • 备份策略

    • 全量备份:每日凌晨3点执行
    • 增量备份:每15分钟同步binlog
    • 备份验证:每月随机抽检恢复测试

结论

本文通过解析轻量级云CRM系统的PHP实现,揭示了现代企业级应用开发的三大核心趋势:架构微服务化、安全内生化、运维智能化。在技术实现层面,Hyperf框架的协程模型使PHP单机QPS突破10万级,配合Redis集群与MySQL分库分表策略,可轻松支撑百万级客户数据管理需求;在安全防护层面,通过"加密存储+最小权限+动态审计"形成三维防护机制。

展望未来,随着AIGC技术的渗透,智能CRM将呈现两大演进方向:一是基于大语言模型的自动化商机预测(如通过跟进记录文本生成赢率评估),二是通过知识图谱实现客户360°画像的动态构建。开发者需持续关注PHP 8.3的Fiber轻量级协程特性与Swoole的HTTP/3支持,这些改进将进一步缩小PHP与Go/Java在并发处理领域的性能差距。在安全领域,同态加密技术的实用化或将颠覆现有数据加密模式,实现"加密状态下计算"的革命性突破。

云CRM系统的开发已进入"架构决定上限,安全决定生死"的新阶段。本文提出的分层解耦方法论与安全防护体系,不仅适用于PHP技术栈,其设计思想亦可迁移至Python/Node.js等动态语言生态,为多技术栈融合的云原生开发提供参考范式。

在企业数字化转型加速的今天,一套好用的CRM系统早已不是“可有可无”的工具,但在评估CRM客户管理系统时,价格无疑是决策者最为关注的核心环节。
不同的CRM厂商、版本和服务范围,其收费模式千差万别,常常让选型团队陷入困惑。

实际上,SaaS CRM的收费逻辑并不复杂,主流CRM厂商普遍采用以下三种方式计费,多数厂商会采用其中一种或多种的组合形式:
• 按用户数/时间: 按每个使用账号和订阅时长(通常是月或年)收费。
• 按功能套餐 : 提供不同功能集的版本,企业按需选择。
• 按使用量: 根据联系人数量、数据储存空间等实际用量计费。
理解这些基本模式,是看懂主流CRM产品报价单的第一步。
值得注意的是,部分厂商虽提供“免费版”,但功能受限、用户数上限低(通常≤3人),仅适用于极小团队试用,难以支撑正式业务运营。接下来我将深入解析这些主流CRM的收费模式,并且对比纷享销客、Salesforce,EC这三款代表性产品的定价策略,揭示价格标签背后可能存在的“隐性成本”~

一、CRM客户管理系统的核心收费模式

1、按用户数量/时间收费

这是SaaS软件领域最普遍、最直观的收费模式。服务商会为每个使用系统的用户账号设定一个单价,通常以“元/用户/月”的形式报价,但多数情况下会要求按年支付。
• 这种模式的优势在于成本的可预测性。企业可以根据团队规模轻松计算出年度软件预算,并且在团队扩张时,只需增加用户许可数量即可,扩展性良好。
• 但潜在的挑战在于,对于用户基数较小但需要高级功能的团队,单位用户的成本可能会显得较高。

2、按功能套餐/版本收费

为了满足不同规模和需求复杂度的企业,CRM厂商通常会将产品划分为多个功能等级,例如基础版、专业版、企业版等。不同版本的差异主要体现在功能的深度和广度上。
• 基础版: 通常包含核心的联系人管理、销售机会跟进等基础功能,适合初创团队或需求单一的小微企业。
• 专业版: 在基础版之上,增加销售自动化、自定义报表、API接口等功能,适合成长型企业。
• 企业版/旗舰版: 提供最全面的功能,包括高级PaaS平台定制能力、复杂的审批流、多事业部管理等,面向大型企业或有特殊需求的企业。这种模式的好处是企业可以根据当前的核心需求选择最匹配的版本,避免为用不上的功能付费。

3、按使用量收费

这种模式不像前两者那样普遍作为主要计费方式,但常常作为功能套餐的补充。它不关心有多少用户在使用系统,而是根据具体的资源消耗量来计费。常见的计费维度包括:
• 存储的客户/联系人记录数量
• 每月通过系统发送的营销邮件数量
• API接口的调用次数• 数据存储空间这种模式对于业务量有明显季节性波动或使用场景非常特定的企业来说,可能更具成本效益。

4、混合收费模式

在现实中,绝大多数CRM厂商采用的是“功能套餐 + 用户数量”的混合收费模式。
也就是说,企业首先选择一个功能版本(如专业版),然后根据需要使用的用户数量来计算最终的总费用。例如,某CRM专业版定价为 300元/用户/月,一个10人的销售团队采购一年的费用就是 300 10 12 = 36000元。

二、3款热门CRM收费模式剖析

1、纷享销客CRM

【1】产品定位: 纷享销客作为智能型CRM的创领者,通过以 AI + CRM + 行业智慧的核心理念,实现AI技术与行业实践深度融合,覆盖销售、营销、服务、渠道及项目管理等全链路业务的一体化、智能化管理。专为高科技、制造、消费品、医疗等行业打造数字化增长解决方案。其中PaaS平台是核心竞争力之一,为大中型企业提供了强大的定制和扩展能力。

【2】主要版本与价格体系: 主要提供三个层级的产品方案,包括专业版、旗舰版及定制版。
• 专业版:¥119/人/月(12个月起购)聚焦基础销售管理场景,包含客户管理、线索池、商机跟进、报价单、订单回款等核心CRM功能。适合预算有限、业务流程标准化程度高的中小企业,快速上线、易用性强。
• 旗舰版:¥220/人/月(12个月起购)面向大中型企业或有深度定制需求的客户。支持PaaS级定制、流程自动化、系统集成、多语言、渠道管理等。可叠加多个行业套件和付费应用,例如订货通、服务通、营销通、AI货架盘点等。满足制造、快消、农牧、高科技等行业的深度场景需求。
• 定制版:按需报价针对集团型企业或有复杂IT架构的企业,提供基于PaaS平台的 深度定制开发服务,可结合ERP、HR、MES等异构系统进行数据打通,并支持私有化部署或混合云方案。计费方式根据用户规模、功能模块、实施复杂度及增值服务综合评估。
【3】适用企业画像:纷享销客适用组织架构复杂、销售周期长、项目制强、渠道体系庞大、强调客户全生命周期运营、将CRM视为数字化转型核心平台的大中小型企业及集团型企业  

2、EC CRM

【1】产品定位:EC以社交化CRM为独特定位,核心差异化优势在于与微信、QQ、企业微信等国内主流社交工具的深度整合。帮助销售人员通过社交渠道高效获客、管理客户资源,并将沟通记录自动沉淀到CRM系统中。

【2】主要版本与价格
• 基础版:588账户/年(20账号起售)售价约12000元,含客户池、通话记录、简单跟进。
• 标准版:788账户/年(20账号起售)售价约16000元,增加智能外呼、客户标签、销售漏斗。
• 企业版:按需拓展(30账号起售)需单独计费,支持企微SCRM、营销自动化、BI分析、API对接。
【3】适用企业画像:销售过程严重依赖微信等社交工具进行客户开发和关系维护的中小企业,特别是ToC或客单价较低的ToB行业。

3、Salesforce CRM

【1】产品定位:全球CRM市场的开创者和领导者,以功能的深度、广度和强大的生态系统而闻名。产品覆盖销售、服务、营销等各个领域,并深度集成了AI能力。定价也代表了高端市场的标杆,但价格相对较高。

【2】主要版本与定价模式:以美元按用户/月计价,按年签约。产品线分立(销售云、服务云、营销云等)
以销售云为例:
○ Essentials版:10000元/用户/年,仅支持最多10用户,功能简化,适合小微企业。
○ Professional版:12000元/用户/年,包含完整销售云、自定义工作流、基础报表。
○ Enterprise版:18000元/用户/年,开放API、沙盒环境、角色层级、Einstein AI基础功能。
○ Unlimited版:21000元/用户/年,含高级安全控制、无限存储、专属支持。
○ 附加成本:Lightning平台开发、CPQ、Marketing Cloud等模块需单独购买,年费可达主系统2–3倍。
定价模式:Salesforce的定价哲学在于,基础版本提供核心能力,但几乎所有高级功能,如额外的API调用次数、数据存储空间、Einstein人工智能分析等,都需要作为附加项单独购买。
【3】适用企业:预算充足、业务全球化、且有复杂定制开发需求的超大型企业。 

三、警惕“冰山之下”CRM系统的潜在额外费用

CRM的总拥有成本远不止软件订阅费。在评估预算时,必须将以下潜在的额外费用考虑在内:

1、实施与配置费

几乎所有功能稍复杂的CRM系统都需要专业的实施服务才能真正落地。这笔一次性费用通常包括了:
• 需求调研与方案设计: 服务商顾问与企业深入沟通,将业务需求转化为系统配置方案。
• 系统初始化配置: 设置组织架构、用户权限、业务参数等。
• 业务流程配置: 根据企业的销售流程、服务流程等,在CRM中进行定制化配置,如设置销售阶段、自动化规则等。这笔费用的高低与企业需求的复杂度直接相关。

2、数据迁移费

如果企业正在使用旧的CRM系统、Excel表格或其他工具管理客户数据,那么将这些历史数据安全、准确地迁移到新系统中,通常需要支付额外的服务费用。数据清洗、格式转换和导入验证是项专业且耗时的工作。

3、培训与支持费

标准的软件订阅通常包含了基础的技术支持(如在线工单、热线电话)。但如果企业需要更高级别的服务,例如:
• 现场或专属的管理员/用户培训
• 7x24小时的优先技术支持
• 专属的客户成功经理(CSM)这些增值服务都需要额外付费。

4、定制开发与集成费

当标准功能无法满足企业独特的业务需求时,就需要进行定制开发。此外,将CRM与企业现有的ERP、OA、财务软件等系统打通,实现数据同步和流程联动,也需要支付相应的API接口开发和集成费用。这部分费用通常是项目中最不可预测且可能最高昂的部分。

四、 企业选型与预算制定行动指南

1、需求自诊,明确核心痛点:是解决销售过程不透明?还是打通营销与销售闭环?或是提升客户服务质量?列出优先级。
2、功能对标,圈定必要模块:基于痛点,列出“必须要有”、“最好能有”和“未来需要”的功能清单,以此作为筛选版本的核心标尺。
3、用户规划,测算规模成本:统计当前必须使用的核心用户数,并预估未来1-3年的合理增长。向厂商咨询对应量级的阶梯报价。
4、计算TCO,而非只看单价:综合评估软件订阅费、实施费、培训费、与其他系统集成的成本,计算3年的总体拥有成本。
5、申请试用,验证真实匹配度:充分利用至少两周的免费试用期,让销售、市场等关键角色在真实业务流中测试,检验易用性与匹配度。
6、评估厂商,考量长期伙伴:除了产品与价格,还需评估厂商的行业口碑、实施能力、技术响应速度、产品迭代路线图以及长期经营的稳定性。

结语

CRM系统的收费标准看似透明,实则暗藏玄机。企业需结合自身规模、行业特性、数字化成熟度,理性评估功能需求与预算边界。纷享销客凭借本土化优势与行业深耕,成为大中小型企业的高性价比之选;Salesforce适合全球化布局、流程复杂的头部企业;EC则在强销售导向的垂直领域表现突出。
总的来说,CRM的价值不在于花了多少钱,而在于是否真正驱动了客户资产沉淀、销售流程标准化与业绩可持续增长。 

常见问题解答(FAQ)

1、纷享销客和Salesforce哪个更适合中国中小企业?
答:纷享销客更适合。原因有三:一是价格仅为Salesforce的1/3左右;二是深度适配微信、钉钉等国内办公生态;三是提供中文界面、本地客服及行业模板,实施周期短(通常2–4周)。Salesforce虽功能强大,但学习成本高、本地支持弱,更适合有国际化需求或IT团队较强的企业。
2、免费版CRM能否用于正式业务?
答:不建议。免费版通常限制用户数(≤3人)、功能模块(无报表、无自动化)、存储空间(≤1GB),且不提供技术支持。一旦业务量上升,将面临频繁导出数据、手动操作等问题,反而降低效率。建议至少选择入门付费版,确保系统稳定性与扩展性。
3、CRM和ERP有什么区别?能否只上其中一个?
A:CRM聚焦“客户与收入”(获客、销售、服务、续费),ERP聚焦“资源与成本”(采购、生产、库存、财务)。两者互补,不可互相替代。对于以销售驱动的企业(如软件、咨询、教育),建议优先部署CRM;对于重资产制造企业,则需CRM+ERP协同。 

更新了一版后,按 fn 键一直弹窗让我开语音输入,都找不到关这个的地方,只要是涉及到 fn+快捷键的操作,都弹一个框,为了打豆包的语音输入也不用这样教用户使用吧 ,v 友们也是这样么 有没有关闭的办法

在做跨境电商运营、社媒营销、数据采集等业务时,静态代理IP这个词越来越常见。不少用户在选择代理服务时都会提出同一个问题:静态住宅IP安全吗?

实际上,这个问题并没有绝对的“安全”或“不安全”。它既有明显优势,也存在需要注意的地方。下面IPDEEP小编从几方面为大家详细讲解下。

静态住宅IP安全吗?

一、什么是静态住宅IP?

简单来说,静态住宅IP是由真实互联网服务提供商分配给家庭网络的IP地址,并且在较长时间内保持不变。与频繁更换的动态代理不同,静态住宅IP通常会长期保持同一个地址。

因此,在网络环境中,它往往看起来更像普通家庭用户的真实访问。

二、为什么很多人认为静态住宅IP更安全?

很多用户选择静态住宅IP,主要是因其有以下优势:

1.更接近真实用户网络

住宅IP来自真实的家庭网络环境,因此在很多平台的风控系统中,它的可信度要高于数据中心IP。

例如在以下场景中,住宅IP往往更容易通过检测:

广告验证

数据采集

电商平台访问

社交媒体账号登录

因为平台看到的是一个来自真实ISP网络的访问请求,而不是典型的数据中心服务器。

2.IP稳定,不频繁变化

静态住宅IP的另一个特点就是地址长期固定。

如果IP频繁更换,很容易被平台判定为异常登录,而静态IP则可以保持稳定的网络身份。

三、静态住宅IP真的完全安全吗?

虽然静态住宅IP有很多优势,但它并不是绝对安全或完全不可被识别的。

以下几个因素同样会影响安全性。

1.IP质量差可能被列入黑名单

如果某个IP被大量用户使用,或者曾经用于违规操作,就可能被网站平台标记为风险IP。

一旦进入黑名单,即使是住宅IP,也可能出现:

登录异常

验证码增加

访问限制

因此,IP来源和服务商质量非常重要。

2.不合理使用仍然会触发风控

很多平台并不是只检测IP类型,还会综合判断:

访问频率

设备指纹

浏览行为

登录环境

如果操作行为异常,即使使用住宅IP,也可能触发风控系统。

四、如何更安全地使用静态住宅IP

如果想充分发挥静态住宅IP的优势,可以注意以下几点:

1、选择可靠的代理服务商

优质服务商通常拥有更干净的IP资源,IP被封的概率更低。

2、避免过度使用单个IP

不要在同一个IP上操作大量账号或产生异常访问。

3、保持正常的访问行为

模拟真实用户操作,避免短时间内大量请求。

4、定期检测IP状态

通过IP检测工具查看是否存在黑名单或代理标记。

五、总结

总体来说,静态住宅IP在稳定性和真实性方面确实具备一定的优势,因此在很多业务场景中被认为更加安全可靠。