2026年4月

随着 eSIM 技术的快速普及,越来越多的人将实体 SIM 卡更换为 eSIM 卡。但是,更换手机时,能否将 eSIM 从安卓手机转移到 iPhone 呢?幸运的是,答案是肯定的。继续阅读本指南,了解实用方法。之后,您就可以轻松地在 iPhone 上使用 eSIM 服务了。

图片

第一部分:将 eSIM 从安卓手机转移到 iPhone 之前需要做什么

在开始迁移过程之前,完成一些准备步骤非常重要,以确保迁移顺利进行。

更新两台设备:确保您的安卓设备运行的是最新可用软件,您的 iPhone 运行的是最新版本的 iOS 系统。
检查运营商兼容性:并非所有运营商都支持跨平台 eSIM 卡转移。请与您的运营商(例如 Verizon、T-Mobile、AT&T)确认他们是否允许从 Android 设备到 iPhone 的数字转移。
稳定的 Wi-Fi:由于传输是通过云端进行的,因此两部手机都必须具备稳定的 Wi-Fi 连接。
解锁您的手机:确保您的安卓设备已“解锁”,并且没有绑定到阻止您转移号码的特定运营商合约。
备份重要数据:虽然转移 eSIM 通常不会影响手机数据,但在进行任何更改之前,备份联系人、照片和其他重要信息始终是一个好习惯。

第二部分:如何通过设置将 eSIM 从 Android 转移到 iPhone

如果您的运营商支持 Apple 的 eSIM 快速转移功能,例如 AT&T、FirstNet、T-Mobile、Verizon,您或许可以直接通过 iOS 设置过程完成迁移。

通过“设置”将 eSIM 从 Android 传输到 iPhone:


在新 iPhone 上,依次进入“设置”>“蜂窝网络”>“添加 eSIM ”>“从 Android 传输”。

图片


你的 iPhone 上会显示一个二维码,使用你的安卓设备的摄像头扫描该二维码。

图片


在您的安卓设备上,选择要转移的电话号码,然后点击“转移”。出现提示时,点击“是”以确认转移的 eSIM 卡将成为您的主 eSIM 卡。然后在您的 iPhone 上点击“完成”>“确定”。


第三部分:如何通过运营商应用程序将 eSIM 从安卓手机转移到 iPhone

部分移动运营商提供专门的应用程序,简化 eSIM 管理。您可以使用当前运营商的应用程序将 eSIM 从安卓手机转移到 iPhone。

方法如下:


在您的 iPhone 上下载运营商的应用程序(例如,My Verizon 或 T-Mobile 应用程序)。然后使用您现有的帐户凭据登录。


查找标有“管理设备”、“更改设备”或“激活 eSIM ”的选项。


按照提示“将我的服务转移到此设备”。该应用将自动执行后台技术请求并安装新的蜂窝网络配置文件。

图片

第四部分:如何通过联系运营商将 eSIM 从安卓手机转移到 iPhone

如果以上方法均无效,直接联系您的运营商通常是最可靠的解决方案。

承运商可能会采取的措施:

发布新的eSIM二维码。
在您的安卓手机上停用 eSIM 功能。
在你的 iPhone 上激活 eSIM。
请提供手动激活说明。

您可以通过以下方式联系您的运营商:

客户服务电话支持。
在线聊天。
前往实体运营商门店。

运营商完成激活后,您的 iPhone 应该会立即连接到网络。

第五部分:关于将 eSIM 或 SIM 卡从安卓手机转移到 iPhone 的问答

问题1:为什么我无法将我的 eSIM 转移到我的新 iPhone 上?

可能有以下几个原因:

您的运营商不支持跨平台 eSIM 卡转移。
安卓设备上的 eSIM 配置仍然处于激活状态。
二维码已被使用或已过期。
激活过程中,iPhone 未连接到互联网。

如果遇到此问题,通常向运营商申请新的激活码即可解决问题。

Q2:将 eSIM 从 Android 转移到 iPhone 更容易,还是转移实体 SIM 卡更容易?

实体SIM卡在技术上“更便捷”,因为它无需软件认证。然而,eSIM安全性更高。如果您的运营商支持基于应用程序的转移,eSIM流程会更快,因为它无需任何物理工具(例如SIM卡弹出工具)。

Q3:使用 eSIM 有哪些优势?

eSIM技术具有以下几个优点:

无需实体SIM卡。
更便捷的运营商切换。
支持多种移动套餐。
设备内部空间利用率更高。
降低SIM卡损坏或丢失的风险。

由于这些优势,许多现代智能手机正逐渐转向仅支持 eSIM 的设计。

第六部分:技巧 - 一键将联系人从安卓手机传输到 iPhone

一旦您的移动网络服务已激活,您仍然需要数据流量。“转移到 iOS”应用虽然很常见,但像iReaShare Phone Transfer这样的专业工具提供了更稳定、一键式的解决方案。完成设置后,它可以让您将Android 联系人传输到 iPhone 。此外,传输的数据不会覆盖 iOS 设备上的现有内容。

iReaShare手机传输的主要功能:

  • 通过 USB 将联系人和文档直接从 Android 传输到 iPhone 。

*支持在 iPhone 和 Android 之间传输数据,以及在 Android 设备之间传输数据。

  • 允许您在传输数据之前选择数据类型。
  • 转移联系人数量没有限制。
  • 支持 iOS 5.0 或更高版本以及 Android 6.0 或更高版本。

下载传输软件。

下载 Win 版下载 Mac 版

一键即可将联系人从安卓手机传输到 iPhone:


在电脑上下载并安装 iReaShare 手机传输软件,然后打开它。之后,使用 USB 数据线将两部手机连接到电脑。


在安卓设备上启用 USB 调试模式,然后在 iPhone 上点击“信任”。程序随后会识别到两台设备。连接成功后,请确保您的 iPhone 是“目标”设备,或者点击“切换”。

图片


选择“联系人”选项,然后点击“开始复制”将您的 Android 联系人传输到 iPhone。

结论

将 eSIM 从安卓手机迁移到 iPhone 可能需要比使用实体卡多几个步骤,但它提供的安全性和灵活性绝对值得付出这些努力。无论您是使用 iOS 设置、运营商应用程序还是直接致电客服,请务必确保您的数据(尤其是联系人)已备份并准备好迁移。

转移 eSIM 后,您可以使用iReaShare Phone Transfer轻松转移联系人,然后享受 Apple 生态系统带来的便利。

第十七章 LEDC实验

LEDC(LED PWM控制器)是一种专门用于生成PWM信号的外设,设计初衷是用于LED的亮度控制。LEDC控制器具备丰富的功能,包括自动调整PWM占空比的渐变(即“渐变功能”),从而无需处理器干预即可实现平滑的亮度变化。此外,LEDC不仅适用于LED控制,还可以用于其他需要PWM信号的应用场景。本章将详细介绍LEDC的架构、功能特性及其配置方法,帮助读者掌握如何在实际项目中使用LEDC生成PWM信号。
17.1 LEDC简介
17.2 硬件设计
17.3 程序设计
17.4 下载验证

17.1 LEDC简介

ESP32的LEDC(LED PWM控制器)外设是一种专为控制LED亮度和其他PWM信号应用而设计的硬件模块。该控制器以其高效、灵活的特性,广泛应用于各种电子设备中,尤其是在需要调节灯光亮度、驱动马达或控制音量等场景中。
LEDC具有以下几个主要特性:
1)多通道支持:LEDC支持多达八个独立的PWM通道,每个通道可以独立配置,实现对多个输出设备的控制。
2)高分辨率占空比:LEDC可提供最高20位的占空比分辨率,能够精确调节输出信号的高低电平,从而实现更细腻的亮度控制。
3)渐变功能:通过自动占空比渐变功能,LEDC能够在不干预处理器的情况下,实现信号输出的平滑过渡,提升用户体验。
4)低功耗模式:在低功耗下,LEDC依然可以稳定输出PWM信号,有效降低整体能耗。
5)丰富的配置选项:LEDC支持多个时钟源和小数分频配置,允许用户根据具体需求灵活调整输出频率。
LEDC的灵活性和高效性使其成为ESP32系列芯片中不可或缺的组件,尤其在需要动态调整输出信号的场景中,LEDC的优势尤为明显。无论是用于LED驱动、音量控制,还是其他PWM信号生成任务,LEDC都能提供强大的支持。下面,我们来看一下LEDC PWM架构图。

图17.1.1 LEDC PWM架构图

上图中,LED PWM(脉宽调制)模块的架构由四个定时器(Timer0到Timer3)和多个PWM生成器(PWM0到PWM7)组成。这种设计允许每个PWM生成器独立配置和使用其对应的定时器,从而实现灵活的PWM信号控制。该架构还包含事件和任务信号输入,支持对PWM信号进行更复杂的控制。例如,事件输入可以用来触发特定的PWM操作,而任务信号则用于控制PWM的开启、停止或其他功能。这种灵活性使得PWM模块适用于多种应用场景。
接下来,我们将深入了解LEDC PWM(LED脉宽调制)模块的工作原理和配置方法。

17.1.1 LEDC结构与配置概述

从图17.1.1可以看出,ESP32-P4芯片的LEDC外设包含四个独立的定时器,作为PWM信号的计数基准。同时,LEDC外设包含八个PWM控制器,每个控制器内置比较器,可以将计数器的值与设定的占空比进行比较,从而输出所需的PWM波形。
接下来,笔者将深入解析LEDC外设的详细结构,帮助读者更全面地理解其工作原理。下图为LEDC外设的工作流程结构。

图17.1.1.1 定时器和PWM发生器框图
从上图中可以看到,LEDC模块主要由三个部分组成:时钟源选择、定时器计数和PWM输出生成。接下来,我们将详细讲解这三个部分的配置与操作流程。

1,时钟源选择
LEDC控制器中的四个计时器可以选择以下三种时钟源之一作为时钟源,它们分别为XTAL_40M_CLK、FOSC_20M_CLK和FOSC_20M_CLK时钟源,从上图所示,我们可通过HP_SYS_CLKRST_PERI_CLK_CTRL22_REG寄存器中的HP_SYS_CLKRST_LEDC_CLK_SRC_SEL字段来控制,该字段描述如下所示。

图17.1.1.2 时钟源选择
完成上述设置后,LEDC_CLK信号将传递至时钟分频器(18位分频器),为计数器提供所需的时钟频率。分频器的分频系数可通过LEDC_TIMERn_CONF_REG(n: 03)寄存器中的LEDC_CLK_DIV_TIMERx(x: 03)字段进行配置。该字段由18位组成,其中高10位表示整数分频系数(22:13位),低8位表示小数分频系数(12:5位)。以下是该字段的详细描述。

图17.1.1.3 分频系数配置
分频值LEDC_CLK_DIV的计算方式如下:

上述公式中,A代表配置的整数分频系数,B代表小数分频系数。配置完成后,结合LEDC_CLK时钟和LEDC_CLK_DIV分频系数,可以得到以下公式:

上述 ref_pulsex是提供给计数器的时钟频率。如果选择 PLL_F80M_CLK作为计数器的时钟源,并将分频值设置为80,那么根据公式计算,ref_pulsex将为1MHz。这意味着计数器每计数一次的周期为1µs。

2,定时器计数
四个定时器包含一个20位可调位宽的基准计数器,使用ref_pulsex作为参考时钟(见图17.1.1.1)。我们可通过操作LEDC_TIMERn_CONF_REG(n: 0-3)寄存器中的LEDC_TIMERx_DUTY_RES 字段配置了实际使用的计数器位宽。因此,PWM信号的最大分辨率为20位。计数器从0开始递增,最大计数到 2^LEDC_TIMERx_DUTY_RES-1,然后溢出并重新开始计数。计数器的值可以通过软件读取、重置和暂停。下面我们来看一下这LEDC_TIMERx_DUTY_RES字段描述。

图17.1.1.4 配置定时器的位宽
要控制计数器的暂停和重置,可以通过配置LEDC_TIMERn_CONF_REG寄存器(n: 0-3)中的LEDC_TIMERx_PAUSE和LEDC_TIMERx_RST字段来实现。具体而言,LEDC_TIMERx_PAUSE字段可用于暂停计数器的运行,将其设置为1时,计数器将停止计数;而LEDC_TIMERx_RST字段则用于重置计数器,将其设置为1时,计数器会被重置。这些字段描述如下所示。

图17.1.1.5 暂停和重置计数器
最后,可以通过配置LEDC_CHn_CONF0_REG寄存器(n: 0~7)中的LEDC_TIMER_SEL_CHn字段来选择用于PWM生成器的计数器。具体而言,该字段允许用户指定所需的计数器,以便为PWM信号提供计数值。通过灵活配置该字段,可以实现不同计数器与PWM生成器之间的关联,从而满足各种应用需求,该字段描述如下所示。

图17.1.1.6 配置PWM生成器的计数来源
配置完计数值来源后,我们就可以利用PWM生成器来生成PWM信号。接下来,笔者将带领大家深入了解PWM生成器的原理和配置方法。

3,PWM输出生成
为了生成PWM信号,需要一个PWM生成器(PWMn)和一个定时器(Timerx)。每个PWM生成器可以通过设置LEDC_TIMER_SEL_CHn来单独配置,以使用四个定时器中的一个来生成PWM输出。PWM信号生成如下图所示。

图17.1.1.7 PWM生成框图
我们知道,每个PWM生成器都包含一个比较器和两个多路复用器。PWM生成器将定时器的20位计数器值(Timerx_cnt)与两个触发值Hpointn和Lpointn进行比较。当定时器的计数器值等于Hpointn或Lpointn时,PWM信号分别为高或低,具体如下:
1)如果 Timerx_cnt==Hpointn,则sig_outn为1。
2)如果 Timerx_cnt==Lpointn,则sig_outn为0。
上图展示了Hpointn和Lpointn如何用于生成固定占空比的PWM输出信号,其中Hpointn数值由LEDC_CHn_HPOINT_REG (n:0~7)寄存器中的LEDC_HPOINT_CHn字段配置,该字段描述如下。

图17.1.1.8 配置Hpointn数值
而Lpointn的数值由LEDC_CHn_DUTY_REG(n: 0~7)寄存器中的LEDC_DUTY_CHn[24:4]字段和LEDC_HPOINT_CHn字段的和计算得出。LEDC_DUTY_CHn[24:4]字段描述如下。

图17.1.1.9 配置通道信号占空比
最后,我们通过LEDC_CHn_CONF0_REG(n: 0~7)寄存器中的LEDC_SIG_OUT_EN_CHn和LEDC_IDLE_LV_CHn字段来配置PWM在空闲状态下的电平以及开启PWM通道输出。这两个字段的描述如下。

图17.1.1.10 配置空闲电平和PWM信号输出
关于PWM生成器占空比的渐变技术,可以参考《ESP32-P4技术参考手册》以获取更详细的信息和实现方法。

17.1.2 动态配置LEDC计时器的溢出值与PWM频率

每当计数器溢出时,它会触发LEDC_TIMERx_OVF_INT中断,该中断由硬件自动生成,无需配置。此外,还可以配置LEDC_OVF_CNT_CHn_INT中断,在计数器溢出LEDC_OVF_NUM_CHn + 1次后触发。要设置LEDC_OVF_CNT_CHn_INT中断,请按照以下步骤操作:
1)选择定时器:配置LEDC_TIMER_SEL_CHn以选择PWM生成器的定时器。
2)启用溢出计数器:通过设置LEDC_OVF_CNT_EN_CHn启用溢出计数器。
3)配置溢出计数:将LEDC_OVF_NUM_CHn设置为触发中断的计数器溢出次数减1。
4)启用溢出中断:通过设置LEDC_OVF_CNT_CHn_INT_ENA启用溢出中断。
5)设置占空比分辨率:配置LEDC_TIMERx_DUTY_RES以指定所选Timerx的计数器位宽,然后等待LEDC_OVF_CNT_CHn_INT中断。
在运行时更改溢出值时,首先需要设置LEDC_TIMERx_DUTY_RES字段,然后设置LEDC_TIMERx_PARA_UP字段。这将导致在计数器下一个溢出时生效新配置。如果LEDC_OVF_CNT_EN_CHn字段被重新配置,必须设置LEDC_PARA_UP_CHn以应用新配置。总之,这些配置值需要通过设置LEDC_TIMERx_PARA_UP或LEDC_PARA_UP_CHn进行更新。此外,LEDC_TIMERx_PARA_UP和LEDC_PARA_UP_CHn将由硬件自动清除。
根据图17.1.1.1,PWM生成器输出信号(sig_outn)的频率依赖于定时器时钟源 LEDC_CLK 的频率、时钟分频器 LEDC_CLK_DIV 以及占空比分辨率(计数器宽度)LEDC_TIMERx_DUTY_RES,其计算公式为:

根据上述公式,可以计算所需的占空比分辨率:

下表列出了常用频率及其对应的分辨率。通过这种方式,开发者能够灵活地调整PWM信号的频率和分辨率,以满足不同应用的需求。

表17.1.2.1 常用的频率和分辨率
值得注意的是,LED PWM寄存器通过APB_CLK时钟信号进行时钟驱动。要使用LED PWM外设,必须启用传输到LED PWM的APB_CLK信号。可以通过设置HP_SYS_CLKRST_LEDC_APB_CLK_EN字段在HP_SYS_CLKRST_SOC_CLK_CTRL3_REG寄存器中启用LED PWM 的 APB_CLK信号。此外,可以通过设置HP_SYS_CLKRST_LEDC_CLK_EN字段(见下图所示)在HP_SYS_CLKRST_PERI_CLK_CTRL22_REG寄存器中启用传输到LED PWM 的LEDC_CLK信号。LED PWM外设也可以通过设置HP_SYS_CLKRST_RST_EN_LEDC字段在HP_SYS_CLKRST_HP_RST_EN1_REG寄存器中实现软件复位。

图17.1.2.1 开启LEDC时钟

17.2 硬件设计

17.2.1 程序功能

使用LEDC输出特定频率的PWM信号,并调节PWM占空比来控制LED亮度,从而实现呼吸灯效果。

17.2.2 硬件资源

1)LEDC

LEDC_CHANNEL_0 - IO51

17.2.3 原理图

本章实验使用的LEDC为ESP32-P4的片上资源,因此并没有相应的连接原理图。

17.3 程序设计

17.3.1 LEDC的IDF驱动

LEDC外设驱动位于ESP-IDF的components\esp_driver_ledc目录。该目录中的include文件夹存放LEDC相关的头文件,声明了LEDC函数和结构体等;而src文件夹则存放实际的LEDC操作函数。要使用LEDC功能,必须先导入以下头文件。

#include "driver/ledc.h"

接下来,作者将介绍一些常用的LEDC函数,这些函数的描述及其作用如下:
1,LEDC定时器配置ledc_timer_config
该函数用于LEDC定时器配置,其函数原型如下:

esp_err_t ledc_timer_config(const ledc_timer_config_t *timer_conf);

函数形参:

表17.3.1.1 ledc_timer_config函数形参描述
返回值:
ESP_OK表示成功。
ESP_ERR_INVALID_ARG表示参数错误。
ESP_FAIL表示无法找到合适的预分频器数字,基于给定的频率和当前的占空比分辨率。
ESP_ERR_INVALID_STATE表示定时器无法被去配置,因为定时器尚未配置或未暂停。
timer_conf为指向LEDC配置结构体的指针。接下来,笔者将详细介绍ledc_timer_config_t结构体中的各个成员变量,如下代码所示:

typedef struct {

    ledc_mode_t speed_mode;    /* LEDC速度模式,高速模式(仅在esp32上存在)或低速模式 */
    ledc_timer_bit_t duty_resolution;    /* LEDC通道的占空比分辨率 */
    ledc_timer_t  timer_num;            /* 通道的定时器源(0 - LEDC_TIMER_MAX-1) */
    uint32_t freq_hz;                   /* LEDC定时器频率(Hz) */
    ledc_clk_cfg_t clk_cfg;             /* 从ledc_clk_cfg_t配置LEDC源时钟 */
    bool deconfigure;                  /* 是否去配置之前已配置的LEDC定时器 */
} ledc_timer_config_t;

上述结构体用于配置LEDC的PWM参数,以下对各个成员做简单介绍。
1)speed_mode:
设置LEDC速度模式。此字段可配置为LEDC_LOW_SPEED_MODE低速模式、LEDC_HIGH_SPEED_MODE高速模式。ESP32-P4只能配置为低速模式。
2)duty_resolution:
设置占空比分辨率。
3)timer_num:
选择计数器。选择范围为:0 ~ 3。
4)freq_hz:
设置定时器分辨率。
5)clk_cfg
设置定时器时钟源。此字段可配置为LEDC_AUTO_CLK、LEDC_USE_XTAL_CLK、LEDC_USE_PLL_DIV_CLK和LEDC_USE_RC_FAST_CLK。本章节实验配置为LEDC_AUTO_CLK。
6)deconfigure
是否去配置之前已配置的LEDC定时器。

2,LEDC通道配置ledc_channel_config
该函数用于LEDC通道配置,其函数原型如下:

esp_err_t ledc_channel_config(const ledc_channel_config_t *ledc_conf);

函数形参:

表17.3.1.2 ledc_channel_config函数形参描述
返回值:
ESP_OK表示成功
ESP_ERR_INVALID_ARG表示参数错误。
ledc_conf为指向LEDC PWM通道配置结构体的指针。接下来,笔者将详细 介绍ledc_channel_config_t结构体中的各个成员变量,如下代码所示:

typedef struct {
    int gpio_num;      /* LEDC输出GPIO编号,如果要使用GPIO16,则gpio_num = 16 */
    ledc_mode_t speed_mode;    /* LEDC速度模式,高速模式(仅在ESP32上存在)或低速模式 */
    ledc_channel_t channel;    /* LEDC通道(0 - LEDC_CHANNEL_MAX-1) */
    ledc_intr_type_t intr_type;    /* 配置中断,淡入中断使能或淡入中断禁用 */
ledc_timer_t timer_sel;       /* 选择通道的定时器源(0 - LEDC_TIMER_MAX-1) */
/* LEDC通道的占空比,占空比设置的范围为[0, (2**duty_resolution)] */
uint32_t duty; 
    int hpoint;        /* LEDC通道的hpoint值,范围为[0, (2**duty_resolution)-1] */
    struct {
        unsigned int output_invert: 1; /* 启用(1)或禁用(0)GPIO输出反转 */
    } flags;                            /* LEDC标志 */

} ledc_channel_config_t;

ledc_channel_config_t结构体用于传递LEDC通道的配置参数,以便在调用ledc_channel_config时进行初始化和设置。通过这个结构体,开发者可以灵活配置LEDC通道的工作模式,以满足不同的定时需求。以下是各个参数的说明及可选项。

表17.3.1.3 ledc_channel_config_t结构体的各个参数描述及可选项

3,设置LEDC占空比ledc_set_duty
该函数用于设置LEDC占空比,其函数原型如下:

esp_err_t ledc_set_duty( ledc_mode_t speed_mode, ledc_channel_t channel, 
uint32_t duty);

函数形参:

表17.3.1.4 ledc_set_duty函数形参描述
返回值:
ESP_OK表示成功;
ESP_ERR_INVALID_ARG表示参数错误。

4,更新LEDC通道参数ledc_update_duty
该函数用于更新LEDC通道参数,其函数原型如下:

esp_err_t ledc_update_duty(ledc_mode_t speed_mode, ledc_channel_t channel);

函数形参:

表17.3.1.5 ledc_update_duty函数形参描述
返回值:
ESP_OK表示成功;
ESP_ERR_INVALID_ARG表示参数错误。
至于其他LEDC配置函数,请读者查阅ESP-IDF的LEDC驱动文件。

17.3.2 程序流程图


图17.3.2.1 LEDC实验程序流程图

17.3.3 程序解析

在07_ledc例程中,作者在07_ledc\components\BSP路径下新建LEDC文件夹,并且需要更改CMakeLists.txt内容,以便在其他文件上调用。
1,LEDC驱动代码
这里我们只讲解核心代码,详细的源码请大家参考光盘本实验对应源码。LEDC驱动源码包括两个文件:ledc.c和ledc.h。
ledc.h主要用于声明ledc_init等函数,以便在其他文件中调用,具体内容不再赘述。
下面我们再解析ledc.c的程序,看一下初始化函数ledc_init,代码如下:

/**
 * @brief          初始化LEDC
 * @param         ledc_config: ledc配置结构体
 * @retval         无
 */
void ledc_init(ledc_config_t *ledc_config)
{
ledc_config->duty = ledc_duty_pow(ledc_config->duty, 2,
                                  ledc_config->duty_resolution);

    ledc_timer_config_t ledc_timer = {
        .speed_mode       = LEDC_LOW_SPEED_MODE,            /* 低速模式*/
        .duty_resolution  = ledc_config->duty_resolution,   /* 占空比分辨率 */
        .timer_num        = ledc_config->timer_num,         /* 定时器选择 */
        .freq_hz          = ledc_config->freq_hz,           /* 设置频率 */
        .clk_cfg          = ledc_config->clk_cfg            /* 设置时钟源 */
    };
    /* 配置ledc定时器 */
    ESP_ERROR_CHECK(ledc_timer_config(&ledc_timer));

    /* 配置pwm通道 */
    ledc_channel_config_t ledc_channel = {
        .speed_mode     = LEDC_LOW_SPEED_MODE,      /* 低速模式 */
        .channel        = ledc_config->channel,     /* PWM输出通道 */
        .timer_sel      = ledc_config->timer_num,   /* 那个定时器提供计数值 */
        .intr_type      = LEDC_INTR_DISABLE,        /* 关闭LEDC中断 */
        .gpio_num       = ledc_config->gpio_num,    /* 输出GPIO管脚 */
        .duty           = ledc_config->duty,        /* 占空比 */
        .hpoint         = 0                         /* 设置hpoint数值 */
    };
    /* Lpoint = duty + hpoint */

    /* 配置pwm通道 */
    ESP_ERROR_CHECK(ledc_channel_config(&ledc_channel));
}

该函数用于初始化LEDC模块。它接收一个指向LEDC配置结构体的指针,计算占空比并配置定时器和PWM通道。通过调用相应的配置函数,它设置定时器的工作模式、频率和时钟源,确保LEDC在预期的模式下工作。最终,它注册PWM通道,准备好为后续的PWM信号输出提供支持。
接下来,我们来看一下ledc_duty_pow函数,它根据占空比分辨率来计算占空比,即高电平时间。如下代码所示。

/**
 * @brief          计算一个周期的占空比计数值
 * @param         duty:   占空比
 * @param        m^n:    输入参数
 * @retval       返回一个周期的占空比计数值
 */
uint32_t ledc_duty_pow(uint32_t duty, uint8_t m, uint8_t n)
{
    uint32_t result = 1;

    while (n--)
    {
        result *= m;
    }
    return (result * duty) / 100;
}

该函数用于计算一个周期的占空比计数值。通过输入的占空比和基数、指数参数,该函数计算出一个相应的计数值。它在实际占空比设置中起到辅助作用,将占空比从百分比转换为对应的计数值,以便于后续的LEDC配置和使用。
计算占空比的数值后,使用ledc_pwm_set_duty函数设置和更新占空比,如下代码所示。

/**
 * @brief         设置占空比
 * @param         ledc_config: ledc配置结构体
 *               duty: 占空比
 * @retval        无
 */
void ledc_pwm_set_duty(ledc_config_t *ledc_config, uint16_t duty)
{
ledc_config->duty = ledc_duty_pow(duty, 2, ledc_config->duty_resolution); 
/* 设置占空比 */
ledc_set_duty(LEDC_LOW_SPEED_MODE, ledc_config->channel, ledc_config->duty); 
/* 更新占空比 */    
    ledc_update_duty(LEDC_LOW_SPEED_MODE, ledc_config->channel);                    
}

该函数用于设置LEDC通道的占空比。接收一个指向LEDC配置结构体的指针和新的占空比值,通过计算新的占空比后,调用ledc_set_duty设置该通道的占空比,并随后调用ledc_update_duty更新设置。该函数确保在运行时能够动态调整PWM信号的占空比,以实现不同的输出效果。

2,CMakeLists.txt文件
本例程的功能实现主要依靠LEDC驱动。要在main函数中,成功调用LEDC文件中的内容,就得需要修改BSP文件夹下的CMakeLists.txt文件(重点看红色内容),修改如下:

set(src_dirs
            LEDC)

set(include_dirs
            LEDC)

set(requires
            driver)

idf_component_register(SRC_DIRS ${src_dirs} INCLUDE_DIRS ${include_dirs}
                       REQUIRES ${requires})

component_compile_options(-ffast-math -O3 -Wno-error=format=-Wno-format)

3,main.c驱动代码
在main.c里面编写如下代码。

void app_main(void)
{
    esp_err_t ret;
    uint8_t dir = 1;
    uint16_t ledpwmval = 0;

    ledc_config_t *ledc_config = malloc(sizeof(ledc_config_t));

    ret = nvs_flash_init();     /* 初始化NVS */
    if(ret == ESP_ERR_NVS_NO_FREE_PAGES || ret == ESP_ERR_NVS_NEW_VERSION_FOUND)
    {
        ESP_ERROR_CHECK(nvs_flash_erase());
        ESP_ERROR_CHECK(nvs_flash_init());
    }

/* 启动定时器时,根据给出的分辨率和占空率参数自动选择ledc源时钟 */
ledc_config->clk_cfg         = LEDC_USE_PLL_DIV_CLK;    
/* 选择哪个定时器计数(LEDC_TIMER_0~LEDC_TIMER_3) */
ledc_config->timer_num       = LEDC_TIMER_0;            
/* 1KHz(系统自动计算分配系数,并提供freq_hz频率给到定时器) */
ledc_config->freq_hz         = 1000;                    
/* 设置定时器最大计数值(请看ESP32-P4技术参考手册表32.4.1) */
ledc_config->duty_resolution = LEDC_TIMER_16_BIT;       
/* 设置输出通道(LEDC_CHANNEL_0 ~ LEDC_CHANNEL_7) */
ledc_config->channel         = LEDC_CHANNEL_0;          
/* 一个周期内占高电平时间(占空比) */
ledc_config->duty            = 0;                       
/* PWM信号输出那个管脚 */
ledc_config->gpio_num        = LEDC_PWM_CH0_GPIO;       
    ledc_init(ledc_config);

    while(1)
    {
        vTaskDelay(pdMS_TO_TICKS(100));

        if (dir == 1)
        {
            ledpwmval += 5;     /* dir==1 ledpwmval递增 */
        }
        else
        {
            ledpwmval -= 5;     /* dir==0 ledpwmval递减 */
        }

        if (ledpwmval > 95)
        {
            dir = 0;            /* ledpwmval到达100后,方向为递减 */
        }
        if (ledpwmval < 5)
        {
            dir = 1;            /* ledpwmval递减到5后,方向改为递增 */
        }

        ledc_pwm_set_duty(ledc_config, ledpwmval);        /* 设置占空比 */
    }
}

app_main函数是ESP32应用程序的主入口,用于初始化系统并控制LED灯的亮度。首先,函数通过调用NVS(非易失性存储器)初始化,处理任何可能的错误。接着,它动态分配内存以存储LEDC配置结构体,并设置定时器、频率、占空比分辨率和输出通道等参数。通过调用 ledc_init 函数,完成LEDC的初始化。
在主循环中,函数实现了LED亮度的渐变效果,每100毫秒更新一次占空比。根据 ledpwmval 的值,LED的亮度逐渐递增至最高点后,再逐渐递减。当亮度达到临界值时,调整方向以实现循环渐变。最终,通过ledc_pwm_set_duty函数更新当前占空比,确保LED灯的亮度变化平滑且连续。

17.4 下载验证

程序下载完成后,系统通过调节PWM占空比来控制LED亮度,从而实现呼吸灯效果。

AI故障预警在线监控系统,不是简单的监测工具,而是一套用人工智能、物联网、大数据算法打造的“设备健康管家”,能24小时不间断感知、分析、预判,把“事后抢修”变成“事前预防”,用技术守住安全与效率底线。

这套系统的核心逻辑很直白:先感知、再分析、后预警,全程不打扰设备运行,却能精准捕捉隐患。它通过电流互感器、温度传感器、局放传感器、光纤测温等前端设备,实时采集电流、电压、温度、湿度、放电信号、接地环流等关键数据,相当于给设备装上“神经末梢”。

真正的技术亮点在AI算法。系统不会只看单一数值,而是通过机器学习模型、时序分析、异常检测算法,建立设备正常运行的“健康基线”。一旦数据出现微小偏离——比如温度缓慢攀升、电流异常波动、局放信号增强,AI就能立刻识别,判断是正常波动还是潜在故障,并计算故障概率、发展趋势,比人工巡检早数小时甚至数天发现问题。

对运维人员来说,它是永不疲劳的智能哨兵。过去靠人工定时巡查,既漏检又耗时;现在系统自动采集、自动分析、自动推送预警,哪里有隐患、风险等级多高、建议怎么处理,一目了然。告警不再是简单的超限提醒,而是带依据、带定位、带方案的精准指令,大幅减少误报、漏报。

对管理者而言,它是透明化的运维大脑。所有设备状态、历史数据、预警记录、处理流程全平台打通,形成“监测—预警—派单—处理—复盘”的闭环。AI还能沉淀故障模型,不断优化预判精度,让管理从“被动救火”转向“主动预防”,降低停机风险、减少维修成本、提升运行稳定性。

从技术底层看,它融合了边缘计算、物联网通信、AI大模型、光纤传感、多维度数据融合等能力。边缘端就近处理数据,保证响应速度;云端持续训练算法,提升预警准确率;通信层支持4G、以太网、光纤,适配复杂场景,真正做到全天候、全覆盖、高可靠。

AI故障预警在线监控系统,不替代人工,而是把运维从繁琐、危险、低效的重复工作中解放出来。它用技术让设备可感知、状态可监控、故障可预测,用最小成本守住最大安全,让每一台设备都安全稳定、每一次运维都精准高效。

去年 12 月买了智谱的 coding plan ,lite.,一直没怎么用。4 月份智谱说 lite 用户可以用 glm 5.1 了,用了一下感觉不错。

结果可能是用的太猛,已经被封了 2 次了,说是检测多人使用,但肯定只有我一个人用。

第一次解封后,降低了使用频次,结果今天又被封了 30 天。

个人感觉是使用量太大,触发算法了。

有人知道不同 coding plan 大概多少 token 使用量,算合理使用吗?现在智谱没有公布 token 限制,只有消息请求限制,但请求次数远远没到限制。

希望智谱能够公布不同 coding plan 的 token 使用量限制,这样用户使用量大,自己可以升级套餐。现在不公布,升级套餐也不知道会不会继续封?

“面对日益复杂的业务生态与数据孤岛挑战,如何构建企业连接力?”

这是青山利康药业给出的答案:携手得帆云,通过建设统一的iPaaS集成平台,完成了从传统网状集成向现代中枢集成的华丽转身。这不仅终结了数据孤岛的困局,更让信息化建设步入了提质增效的快车道。

青山利康信息总监兰凡对此评价道:这次合作,已为公司数字化转型进程奠定了坚实的基石。

客户简介
成都青山利康药业股份有限公司创建于2001年,专注于肾病与危重症治疗领域,是集药品、医疗器械研发、生产、销售于一体的国家高新技术企业、国家级专精特新“小巨人”企业。

公司在国内率先掌握1000至4000毫升超大容量注射剂生产工艺,主营产品:血液滤过置换基础液、抗凝血用枸橼酸钠溶液、腹膜透析液、氯化钠注射液在全国31个省(自治区、直辖市)超过1500家医院广泛使用。

企业痛点

利康药业内部ERP(BIP)、SRM、TMS、费控、ELN、HR、OA等多套核心业务系统之间,主要依赖传统的点对点直连进行集成。随着信息化建设不断深入,这种“网状”架构在业务规模化扩张面前,显现出多重挑战:

耦合度高,运维复杂:系统间接口错综复杂,往往牵一发动全身,导致故障排查困难,运维成本居高不下。

重复建设,资源浪费:缺乏统一的复用机制,相似功能的接口被反复开发,造成IT资源的严重浪费。

标准缺失,稳定性差:接口开发缺乏统一的技术规范和安全标准,数据交互质量参差不齐,影响业务连续性。

管控乏力,资产流失:缺少全生命周期的接口管理和监控手段,接口资产底数不清,运行状态不可视,难以支撑业务的快速发展。

面对日益增长的数据交互需求和公司规模化发展的战略要求,原有的集成架构已成为制约企业数字化转型的瓶颈。因此,建设一套统一、标准、高效的iPaaS集成平台势在必行。

建设目标

经过多番选型,利康药业引入先进的得帆iPaaS集成平台,旨在重构IT集成架构,实现从“网状”到“星状”的根本性转变,达成以下四大目标: 

1架构标准化
通过iPaaS平台统一接入各业务系统,解耦系统间直接依赖,实现服务的高复用性和低耦合度,构建稳定、可扩展的分布式集成架构。 

2开发规范化
制定并发布《接口技术规范》及《集成管理制度》等,统一接口协议、命名规则、安全认证等标准,确保新旧系统集成有章可循。 

3运营一体化
建立全方位的接口监控、预警及日志分析体系,实现接口运行状态的实时可视、异常快速定位及性能持续优化,提升运维效率。

4自主可控化
赋能企业IT团队,提升自主开发、自主运维及自主优化能力,降低对外部厂商的过度依赖,打造可持续演进的集成生态。

实施亮点

1全面深入的现状调研与蓝图规划 
得帆项目组对TMS、费控、SRM、ERP等核心系统进行了详尽的现场调研,梳理出百余条关键业务接口,精准识别“缺乏管理制度”、“缺少技术标准”等核心痛点。基于此,项目组制定了科学的蓝图方案,明确了多租户模式、高可用集群部署架构,为项目成功落地奠定了坚实基础。

2构建高性能、高可用的技术架构 
集群部署:采用网关集群与编排集群分离的架构,结合Kafka消息队列、Elasticsearch日志集群及数据库主备方案,确保平台在高并发场景下的稳定性。
多租户管理:支持双流、眉山等多基地的多租户隔离模式,满足不同业务单元的独立管理与灵活扩展需求。
压力测试验证:在正式环境开展的高强度压力测试中,平台展现出卓越的抗压性能与稳定性。即便在极高并发负载的持续冲击下,系统依然运行平稳无异常,响应速度达毫秒级,充分验证了架构设计的韧性与高可用能力。

3标准化的集成治理体系 
除了交付技术平台,项目组更输出了一套完整的集成治理资产:制度规范:建立了涵盖接口需求、设计、开发、测试、上线的全生命周期管理制度。技术标准:定义了统一的Restful接口标准、安全认证机制及数据脱敏、限流熔断等治理策略。典型场景库:梳理并固化了主数据分发、单向/双向数据同步等典型集成场景方案,大幅缩短后续接口开发周期。

4可视化的运营监控驾驶舱 
项目组构建了集成平台“驾驶舱”,实时展示API接入总量、调用次数、错误率排行、响应时长趋势等关键指标。通过直观的图表和异常知识库,管理人员可全局掌握集成运行态势,实现从“被动救火”到“主动预防”的运维模式转变。

项目收益

“在得帆的深度赋能下,青山利康iPaaS集成平台已实现顺利上线并稳定运行。该平台的落地,为业务系统的敏捷集成与数据的高效流转提供了坚实支撑,对加速公司全面信息化建设具有里程碑意义。” 
—— 青山利康信息总监 兰凡

1降本增效,显著提升IT产出
通过接口的标准化复用,预计减少30%以上的重复开发工作量。敏捷的开发模式使得新接口上线周期从周级缩短至天级,极大提升了IT对业务需求的响应速度。

2稳定可靠,保障业务连续运行
高可用的架构设计与完善的监控预警机制,消除了单点故障风险。接口异常可秒级发现并告警,平均故障修复时间大幅降低,有力保障了供应链、生产、财务等核心业务的连续稳定运行。

3数据互通,打破信息孤岛
平台打通了ERP、SRM、TMS等系统间的数据壁垒,实现了主数据(物料、客商、组织人员)及业务单据(订单、库存、发票)的实时、准确流转,为企业数据治理和大数据分析提供了高质量的数据底座。

4自主赋能,沉淀核心技术资产 
项目为利康药业培养了内部集成专家团队,形成了自主可控的集成开发与运维能力。同时,沉淀下来的规范文档、场景方案及管理平台,将成为企业数字化转型的宝贵资产,支撑未来更多系统的快速接入与融合创新。

利康药业iPaaS平台的成功上线,标志着企业从“系统集成”跨越到了“集成治理”的新阶段。通过这一套高效、标准、可视的集成中枢,利康药业不仅理顺了复杂的IT血脉,更构建起了一套能够快速响应业务变化的敏捷架构。在数字化转型的长跑中,坚实的集成底座将持续释放数据价值,为企业的规模化发展与业务创新提供源源不断的动力。

规划2026年数字化战略时,很多企业都会遇到一个核心疑问:数据集成这块,到底是继续靠脚本勉强应付,还是干脆升级成专业ETL工具?

尤其现在AI项目纷纷从试点走向规模化落地,这个选择直接决定了企业的数据根基扎不扎实,甚至影响整个智能化转型的节奏。

判断一

如果你的业务对“速度”无感,或许还能等等

如果业务对数据速度没什么要求,比如只需要T+1的报表,数据源也稳定单一,暂时用不到AI实时决策。

此时,没有必要盲目升级,靠人力维护少量脚本也能应付。

判断二

若面临以下任一场景,专业ETL工具已成为2026必选项

响应速度跟不上业务节奏,成了拖累

当业务需求变化快于开发速度,数天才能上线的数据管道就是拖累。

此时,企业需要的是低代码可视化能力,像搭积木一样快速编排流程,无需投入大量人力编写复杂代码,实现数据链路的快速落地。

目前市面上成熟的专业ETL平台,以得帆云DataFlow为例,就通过拖拽式画布和40+开箱即用组件,将单链路开发从“天级”压缩至“分钟级”,轻松应对业务敏捷迭代的需求,让开发效率提升数倍,完美解决速度瓶颈。

业务要的是实时数据,不是隔夜数据

像风控、营销、IoT这些核心场景,数据延迟一秒和延迟一小时,差别天差地别——实时数据能帮助企业抓住转瞬即逝的商机、规避潜在风险,而隔夜数据早已失去核心价值。

这就要求ETL工具具备基于CDC的实时同步能力,而非传统的定时批量任务。

在实时同步领域,得帆云DataFlow的表现颇具优势,采用成熟的CDC技术,可实现≤1秒的数据捕获与同步,精准打破数据延迟壁垒,将数据时效从“历史回溯”变为“当下可用”,完美适配各类实时业务场景的需求。

项目卡壳,不是没数据就是数据不干净

这应该是2026年很多企业AI规模化落地时,最头疼的一个问题。

AI模型的训练和迭代,离不开持续、高质量、可追溯的数据流,要是数据供给不稳定,或者数据里掺了“脏东西”,轻则导致模型精度下降,重则直接让整个AI项目停滞,前期投入全都打了水漂。

优质的平台通常都会具备以下功能,为高质量数据保驾护航:

源头严控:内嵌非空、唯一性等多重质量校验规则,在数据入湖之前就自动拦截脏数据,从源头保证数据纯净;

一致性保障:提供全表、哈希、字段值三级比对功能,确保训练数据和源数据完全一致;

全链路追溯:具备完整的数据血缘能力,每一次数据流转都能追溯、可审计,既满足AI治理的合规要求,也能快速定位数据问题,减少排查成本。

以得帆云为代表的成熟平台,其相关功能已在900多家大型企业的AI实践中得到深度验证,是公认的高可靠性选择。

数据链路乱,维护成本越来越高

随着企业数据越来越多,链路也变得越来越复杂。很多时候没人能说清数据的完整流向,排查一个数据问题就像“破案”一样费时费力,人力维护成本、沟通成本也一路飙升。再加上碎片化的工具搭配,协同起来更是难上加难,严重拖慢数字化进程。

这种时候,企业需要的是一个一体化平台,能实现数据集成的统一调度、监控和追溯。

一体化管理也是得帆云DataFlow的核心优势,将设计、调度、监控、血缘四大核心功能整合在一个平台,无需额外搭配其他工具,即可实现数据链路的全生命周期管理;同时具备企业级的多租户与多环境管理能力,能够支撑大型企业的规模化应用,有效终结碎片化工具带来的协同噩梦,降低长期维护成本。

2026年,专业ETL工具的核心价值,在于为“数据驱动”与“AI落地”提供工业化、自动化的数据供应链。它不再是后台的辅助工具,而是企业业务敏捷与智能化转型的核心基础设施。

选择专业ETL工具时,低代码效率、CDC实时能力、内嵌质量体系与完整可观测性,是四大核心考察维度。

作为服务900+大型企业的成熟平台,得帆云DataFlow凭借这些核心优势,经过各类复杂业务场景的验证,能够切实解决企业数据集成痛点,为2026年企业数字化战略落地提供坚实的数据支撑。

传媒行业属于 NVIDIA RTX™ 企业级产品的老朋友了,目前工作站所使用的 NVIDIA RTX GPU 已经从大家所熟知的 NVIDIA Ampere、NVIDIA Ada Lovelace 架构升级至 NVIDIA Blackwell 架构。Blackwell 架构能够通过 AI 赋能画质提升实现实时逼真渲染,这对于传媒人来说可谓是巨大的助力。再加上新一代显卡相比上一代来说,显存增加了很多,能跑更大的场景,性价比一下就上来了!

最新一代的工作站显卡为 NVIDIA RTX PRO™ 系列。

表1: NVIDIA RTX PRO 系列显卡


图1: NVIDIA RTX PRO 系列高端显卡- NVIDIA RTX PRO 5000 Blackwell(图片来源于NVIDIA)

赞奇科技对 NVIDIA RTX PRO 系列产品所适配的传统3D软件进行深度应用,并对各个产品的图形能力和相应的应用场景做了基本划分:

表2: NVIDIA RTX PRO 系列显卡与图形场景适配

目前,生成式 AI 内容生产已经融入工作流,不过不仅仅是简单的 AI 生成,而是「AI 生成 + 实时渲染 + 高清编解码 + 大场景资产加载」的完整流程,对于算力越发依赖。NVIDIA RTX GPU能把生成式 AI 的模型推理、光追渲染、视频硬件编码、超大显存承载四项能力集成在一块卡上,性价比凸显。

赞奇科技同步对NVIDIA RTX PRO 系列显卡在生成式AI内容制作方面的本地化部署工作流,并做评估,并依据生产场景整理了一些选型建议。

表3: NVIDIA RTX PRO 系列显卡与 AI 内容生产场景适配

以上只是根据特定的应用场景所做的区分。工作流不同,对于GPU的要求也不尽相同。赞奇科技目前开放免费试用通道,用户可以在购卡前做远程的GPU选型测试,帮助用户选择到性价比更高的方案。

扫描下方二维码,即可申请!

*与NVIDIA产品相关的图片或视频(完整或部分)的版权均归NVIDIA Corporation所有。

整理|华卫

 

“开源已死,我们从未想过自己会说出这样的话。”

 

近日,为开发者和企业构建日程调度基础设施的开源初创公司 Cal 突然宣布,正将其旗舰级开源项目转为闭源模式,原因是该公司无力应对 AI 攻击其开源代码的风险。

 

Cal 联合创始人 Peer Richelsen 表示,“开源安全以往一直依赖人工发现并修复各类问题,如今 AI 攻击者却在公然利用这种代码透明性发起攻击。”

开源 5 年被 AI“吓退”,黑客多了 100 倍?

自成立之初,Cal 就宣称旨在打造 Calendly 的开源替代品,在 GitHub 上收获 4 万多 star,并坚持开源建设长达五年。其联合创始人兼首席执行官 Bailey Pumfleet 曾写道:“Cal.com 将作为开源项目运营,因为现有日程调度产品的局限性,唯有通过开源才能解决。”

 

现在 Cal 发展十分成功,自称是规模最大的 Next.js 项目,这也印证了其当初的定位判断。但如今,却一夜之间因 AI 闭源了。

 

“开源代码基本上就像是把银行金库的设计图纸公之于众。而现在研究这份图纸的黑客数量,已经暴增了 100 倍。”Pumfleet 补充道,“了解事物的内部运作原理,并进行逆向工程来找到漏洞,要容易得多。”

 

Cal 还援引了 Hex Security 首席执行官 Huzaifa Ahmad 的观点称,“开源应用被攻击利用的难度,比闭源应用要低 5 至 10 倍。在 Cal 看来,这一现状正引发软件行业生态的根本性转变。代码开源的企业,要么被迫承担客户数据泄露的风险,要么就得关闭代码的公开访问权限。”

 

与大多数商业开源初创公司一样,Cal 原本将源代码公开供人查看和修改,其一大核心卖点便是允许开发者验证系统运行逻辑、根据自身需求进行适配,并在自有服务器上独立部署。在此前“著佐权”协议 GNU Affero General Public License(AGPL)的授权下,Cal.com 支持这些操作,仅附带一项条款:任何修改该软件并将其作为服务运行的主体,都必须公开其修改内容。

 

Pumfleet 表示,像 Claude Opus 这类 AI 程序能够全面检索代码并查找漏洞,因此该公司正将项目的开源协议从 GNU Affero 通用公共许可证(AGPL)变更为专有许可,以此保障项目安全。

 

“我们致力于保护敏感数据。我们想做一家日程调度公司,而非网络安全公司。”他补充道,“Cal.com 处理着用户的敏感预约数据,我们不会因为对开源的热爱而拿这些数据冒这个风险。”

4 月初,Anthropic 的 Mythos 模型已证实,它可以识别和利用广泛使用的软件中的漏洞,甚至能够侵入全球部分安全性最高的软件系统。最典型的案例便是,Mythos 在极度注重安全的 OpenBSD 系统中发现了一处存在了 27 年的严重安全漏洞。作为一个以安全为中心的类 Unix 操作系统,OpenBSD 长期以来被认为是同类操作系统中最坚固的系统之一。

 

虽然目前 Mythos 功能仅限于通过 Glasswing 项目提供给特定合作伙伴,但其影响已经显现。对于那些基于开代码构建的公司而言,透明度和安全性之间的权衡正受到重新审视。现在,Cal 正成为率先响应这一转变的公司。

不过,促使 Cal 做出这一激进转变的并非完全是 Mythos。Cal.com 联合创始人兼董事长 Peer Richelsen 表示,放弃开放式开发的决策早已开始酝酿。Pumfleet 解释称,“我们本就预见了这一趋势。即便没有 Mythos,只需让 Claude Opus 这类上一代模型去分析开源代码库,就能轻而易举地找到漏洞。”

 

“但时机令人担忧”,Richelsen 这样说道。

社区大吵:安全,还是另有所图?

多年来,许多企业出于商业考量,已从开源许可转向半专有许可模式。此举或许算不上明智,但它们依然这么做了。而 Cal 的做法则是全新的,是因在 AI 黑客带来的威胁面前不堪重负,才选择彻底关停其商业开源项目。

 

Pumfleet 坚称,“做出这个完全是出于开源带来的安全隐患。我们依然坚定地热爱开源,如果未来形势发生变化,我们会重新采用开源。只是目前,我们不能冒客户数据泄露的风险。”

 

当被问及这类风险究竟源于代码公开可见,还是源于代码维护方式时,Pumfleet 表示两者都是原因,但开源状态显著加大了暴露风险。他说:“仅仅是代码公开这一点,就会让风险急剧上升。问题不在于只封闭代码或者加强代码安全,而在于我们两者都同时在做了。但仅仅加强代码安全并不足以降低风险。”

 

并且,Pumfleet 否认这一转变是为了加强管控。“这一决定完全是出于安全考虑,”他说道,“即便开源,我们也能掌控产品,转为闭源并不会给我们带来太多实际收益。这纯粹是为了降低安全层面的风险。”

 

然而,Cal 的做法还是迎来了不少开发者的质疑。“从长远来看,开源软件的安全性最佳。”“闭源并不能提高安全性。事实上,大多数安全研究人员甚至懒得去研究源代码,因为根本没必要。”许多开发者纷纷出来说道。

 

另一拨开发者则认为,应该利用 AI 来保障软件安全并使其变得更好。“如果这些工具好到让你担心它们会被用来暴露你的安全漏洞,也许你应该使用这些工具自己找出安全漏洞,然后修复它们,而不是通过隐藏来宣称安全。”

 

“借助 AI 的新技术,所有开源代码库的检查和修复速度将比任何闭源系统快 100 倍。”“开源软件并没有因为 AI 更容易逆向工程你的代码库就消亡。AI 同样可以轻易地逆向工程你的闭源系统。解决方案不是隐藏源代码,而是提高透明度、发布安全公告和加强安全加固。”

 

对于这类看法,Pumfleet 的回应是:“只是我觉得目前的 AI 还不够稳定。我们之前提到过,不同的 AI 扫描器会给出不同的结果。AI 很有可能完全漏掉一个 bug,然后在同一个 PR 里又抓到另一个 bug。”

 

还有网友评价,“如果 AI 读取你的开源代码对你的业务造成损害,那么你很可能把开源当作一种增长策略,而不是一种理念。现在关闭开源并不能保证安全。这只会减少那些真心实意加固代码的开发者,以及更多恶意攻击者利用 AI 攻击你的生产服务器。”

 

与开源版早已切割,核心组件数月前移出重写

尽管其商业项目不再开源,Cal 还是推出了 Cal.diy。这是面向爱好者推出的完全开源版平台,目前采用宽松的 MIT 许可证。Pumfleet 称,“Cal.diy 是 Cal.com 的核心部分,负责所有日程调度功能,只是剔除了全部企业级特性。”

 

具体来说,虽然 Cal.diy 保留了核心的日程安排引擎和预订基础设施,但移除了与商业产品相关的诸多功能,包括团队管理、工作流程、分析和企业身份验证。该开源项目可以在处理高敏感数据的闭源应用之外,供开发者进行试验和二次开发。

 

值得一提的是,支撑 Cal.com 托管平台的代码库,与公开版本的代码库早在随着时间推移逐渐出现差异,越来越多的商业及企业级功能是在开源代码仓库之外单独开发的。此次,这种分离状态算是正式明确下来了。

 

Cal 也表示,近几个月来已在公开代码库之外重写了核心组件,导致开源项目与实际生产环境使用的系统出现差异。“话虽如此,我们的主代码库如今已和开源版分道扬镳,因为我们重写了认证、数据处理等关键安全模块。我们只是希望保留 Cal.diy,以尽可能宽松的协议免费向社区开放并共享。”

 

实际上,对 Cal 来说,将核心平台转为闭源也引发了一个显而易见的问题:Cal.com 创立的初衷,至少在初期是成为对标 Calendly 的开源替代方案,此举是否会有疏远用户的风险?

 

Pumfleet 表示,“我们内部已和部分客户沟通,他们都很感激我们正采取措施,尽最大努力保障其数据安全。我认为不会有大量客户因此流失,因为归根结底,客户更关心的是数据安全,而不是软件是否开源。”Cal.com 还确认,作为过渡,目前使用自托管服务的客户将获得私有本地 GitHub 仓库的访问权限。

 

事实证明,AI 对开源项目和开发者而言确实是一把双刃剑。不仅是开源代码本身,开源商业模式也正因 AI 而发生根本性变革。关于 AI 对开源项目日益加深的影响,此前已有诸多讨论。本就时间紧张的开源维护者们,还要应付大量由机器生成、伪装成贡献的“AI 垃圾内容”。

 

而如今,能够系统性挖掘软件漏洞的 AI 系统相继出现,更是将这一议题推向了更严肃、以安全为核心的讨论方向。那么,今后其他没有足够资源应对大量 AI 黑客攻击的小型企业,是否会效仿 Cal?

 

“我确实了解到,许多和我们背景相似的商业开源公司,都在重新评估开源模式。”Pumfleet 对此说道。

 

参考链接:

https://www.zdnet.com/article/ai-security-worries-force-company-to-abandon-open-source/

https://thenewstack.io/cal-com-codebase-security-ai/

先说说大体情况:
最近一个月流量 3T ,请求数量 4 千万。
最近一年新增图片 3 万 5 ,还是低于预期。
和去年相比,有一点下降。可能和更严格的审查有关系吧。

2025 年年初,服务器从一开始的 3 机集群到单机,在线率依然保持在 99.999%。

根据监控来看,内存使用率没有超过 256M 。

地址: https://imgdd.com
代码: https://github.com/ericls/imgdd

准备加点新功能,看看大家比较需要什么功能

一、什么是类器官?有哪些用途?

类器官是三维微型器官,通常由干细胞(多能干细胞或成体干细胞)培养而成,它们在体外细胞外基质中自组织,与二维细胞培养相比,能够更好地模拟体内生理功能。类器官几乎可以从每个人类或动物器官中培养而来,其复杂性远超球状体。虽然两者都能生成包含多种细胞类型的三维结构,但类器官的复杂性更高,在组织学和遗传学上更接近原始器官。

研究人员利用类器官进行各种应用,包括疾病建模、药物发现和开发、个性化医疗、生物疗法和组织工程。它们为治疗如何影响患病或健康器官提供了宝贵的临床前信息,从而更好地指导临床研究。

二、传统类器官模型有哪些局限?

与其他任何模型一样,类器官的使用也存在局限性和挑战,包括:

  1. 培养寿命/坏死核心
  2. 血管化不足
  3. 缺乏免疫成分
  4. 细胞去分化
  5. 培养变异性和类器官同质性
  6. 检测灵敏度
  7. 数据输出深度(更高含量的输出需要类器官池化)
  8. 孤立的单器官模型

三、当前微生理系统的研究进展如何?

使用类器官时,一个简单的调整方法是改用灌注细胞培养,即使用微生理系统(MPS),通过持续流动培养基来模拟血液流动。

灌注具有多种功能。与血液一样,灌注可以提供持续的氧气和营养物质,同时清除代谢废物。这对于类器官的生长和分化尤为重要,因为它们经常会遇到生长停滞和坏死核心的问题。克服这一主要限制可以制备更大的组织,从而进行更丰富的数据分析。

此外,微流体流动还能提供重要的生物力学信号。例如,血流会产生剪切应力,即组织内部的平行摩擦力。通过将微循环的剪切应力引入模型,可以更好地模拟人体生理和生物化学过程。灌注的另一个关键方面是细胞间通讯。灌注会诱导细胞分泌组(例如细胞因子、蛋白质和囊泡)的细胞间移动,从而重现与人体内类似的条件。

利用微生理系统(MPS)在灌注条件下培养类器官确实可以缓解一些限制,但其有限的寿命仍然限制了其应用,尤其是在研究复杂或潜在的药物效应时。此外,它们相对较小的尺寸会影响检测灵敏度和数据输出的深度。后者可以通过将多个类器官混合来克服,但这会增加每次检测的成本。

四、未来类器官会是什么样?

芯片器官培养与类器官不同,前者代表了具有更接近人体空间结构的三维组织。例如,为了支持微组织形成,一些芯片肝脏装置,如CN Bio公司的PhysioMimix Core和Multichip Liver板(图1) ,包含带有胶原蛋白涂层孔隙的支架。

您可点击此处查看微流控器官芯片系统详情

微组织由预先混合的原代细胞自组装形成,且相对均匀。微组织在孔隙内形成(图2),留下内部腔隙,培养基可通过该腔隙流动,从而模拟肝窦结构并避免坏死核心问题。

灌注液如何在每个器官芯片周围循环
图1:CN Bio的PhysioMimix Core和肝芯片板,图中放大展示了灌注液如何在每个芯片周围循环。另有包含4倍芯片数量的肝脏-48板(MPS-LC48)可供选择。

在支架孔隙中形成的芯片肝脏组织
图2:在支架孔隙中形成的芯片肝脏组织。图片来源:CN Bio公司的Emily Richardson博士。

OOC培养物在灌注的辅助下,能够维持细胞健康和功能数周或数月之久,这比传统的类器官培养物有了明显提升,后者通常在几天或几周内就会失去活力和功能[1,2]。这些模型寿命的延长使得研究药物的长期慢性暴露以及更复杂的生物相互作用的长期研究成为可能[ 3]。

生理相关性是限制某些类器官应用的关键障碍,尤其是在肺等屏障器官方面。从结构上看,肺气道由假复层上皮构成,其顶端在呼吸过程中暴露于空气中。类器官通常在培养基或凝胶中浸泡培养以促进其形成,因此,尽管已开发出顶端朝内或顶端朝外的肺类器官,但它们无法模拟 体内环境。因此,类器官在感染、环境研究和药物开发等领域的应用受到限制,因为进入肺部的主要途径——气溶胶化和吸入——无法实现。此外,纤毛摆动频率和黏液分泌等关键肺功能指标也无法被充分理解。利用体外培养技术(OOC)(图3),研究人员可以构建更具生理相关性的屏障模型(图4),从而实现上皮细胞同时暴露于空气和下方培养基灌注[4, 5]。

屏障板,灌注液如何在Transwell插入物周围循环
图3:屏障板,放大图展示了灌注液如何在Transwell插入物周围循环。

支气管肺芯片组织在气液界面培养
图4:支气管肺芯片组织在气液界面培养7天后,可见支气管细胞在膜的顶端形成假复层上皮,内皮细胞在膜的基底外侧形成内皮。组织经阿利新蓝染色以突出显示黏液的产生。图片来源:CN Bio的Emily Richardson博士。

OOC生成的相对较大的组织具有高度功能性,能够提供临床相关的终点指标、毒性输出生物标志物以及与人体相关的代谢,从而使数据能够与 体内 或临床情况进行比较[6]。这些指标在体外检测一直非常困难 ,但更大规模的芯片器官微组织提高了检测灵敏度,使得更复杂的临床化学指标(例如天冬氨酸转氨酶 (AST) 和丙氨酸转氨酶 (ALT))以及由I期和II期代谢物引起的更细微的毒性均可被检测到[7]。Nitsche等人的一项有趣研究探索了不同配置的肝脏微生理系统 (MPS) 在模拟胆汁淤积化学效应方面的潜力。他们的研究结果表明,在灌注类器官培养中可以检测到胆汁酸合成,但其水平较低;然而,当应用测试化合物时,这些培养物未能重现胆汁淤积损伤生物标志物。相比之下,原代人肝细胞芯片肝脏微组织(由PhysioMimix MPS培养,点击了解PhysioMimix微流控器官芯片系统)对所有三种测试化合物均有反应,表现为胆汁酸释放减少,这是胆汁淤积损伤的生物标志物[8]。

此外,更大的微组织培养能够从每个组织(而不是类器官池)中获得更深入的机制见解,包括可溶性细胞健康和功能标记,以及挖掘组织以获取数据丰富的终点,例如高内涵成像和组学分析[9,10]。

通过将器官模型进行流体连接,可以进一步增强基于器官外吸收(OOC)的检测方法与人体的相关性。例如,将肝脏组织与其他“进入途径”器官(肠道或肺,图 5)连接起来,可以研究活性代谢物驱动的毒性,以及评估药物的吸收、代谢[11]和重要的生物利用度[12]。

双器官芯片板,灌注液如何围绕屏障和肝脏隔室循环
图5:双器官芯片板,放大图展示了灌注液如何围绕屏障和肝脏隔室循环。

免疫功能是类器官的另一项关键局限性,可以通过在类器官中培养组织驻留免疫细胞和外周免疫细胞来增强免疫功能,其中外周免疫细胞通过培养基灌注循环。这种免疫系统的模拟使科学家能够揭示免疫介导的毒性问题,诱发具有炎症成分的常见疾病,例如代谢功能障碍相关性肝病(MASH[6]),或模拟人类对感染的反应,例如COVID-19[5]或乙型肝炎[2],而这些感染不太适合使用动物模型。

器官芯片与2D,3D,动物模型的优势对比
图:器官芯片与2D、3D、动物模型的优势对比

五、结论和建议

总之,类器官是一种强大的体外工具,与传统的二维培养和动物模型相比,它能够显zhu提高药物发现和开发流程的人体相关性(表1)。然而,类器官的局限性促使人们开发出更复杂的细胞培养方法,例如类器官培养(OOC),这些方法能够更准确地模拟人体生理的关键方面。

将类器官与OOC结合使用,能够帮助我们进一步推进工作流程,发现更深层次的机制信息,以及更复杂、更潜在的效应,而这些效应在其他方法中可能被忽略。总而言之,这些方法为克服动物模型的跨物种局限性、弥合临床前数据和临床数据之间的差距提供了一条途径,同时也有助于推动监管机构减少和最终取代药物开发中的动物实验。

参考资料

[1]Rubiano et al., Characterizing the reproducibility in using a liver microphysiological system for assaying drug toxicity, metabolism, and accumulation. Clin Transl Sci, 2021.
[2]Ortega-Prieto et al., 3D microfluidic liver cultures as a physiological preclinical tool for hepatitis B virus infection. Nat Commun, 2018.
[3]Long et al., Modeling therapeutic antibody small molecule drug-drug interactions using a three-dimensional perfusable liver coculture platform. Drug Metab Dispos, 2016.
[4]Phan et al., Advanced pathophysiology mimicking lung models for accelerated drug discovery, Biomat Res. 2023.
[5]Caygill et al., Dynamic Culture Improves the Predictive Power of Bronchial and Alveolar Airway Models of SARS-CoV-2 Infection bioRxiv, 2025.
[6]Kostrzewski et al., A microphysiological system for studying nonalcoholic steatohepatitis. Hepatol Commun., 2019.
[7]Rowe et al., Perfused human hepatocyte microtissues identify reactive metabolite-forming and mitochondria-perturbing hepatotoxins. Tox In Vitro, 2018.
[8]Nitsche et al., Exploring the potential of liver microphysiological systems of varied configurations to model cholestatic chemical effects. Arch Toxicol (2025).
[9]Gallager et al., Normalization of organ-on-a-Chip samples for mass spectrometry based proteomics and metabolomics via Dansylation-based assay. Tox In Vitro, 2023.
[10]Novac et al., Human liver microphysiological system for assessing drug-induced liver toxicity in vitro. JoVE, 2022.
[11]Milani et al., Application of a gut-liver-on-a-chip device and mechanistic modelling to the quantitative in vitro pharmacokinetic study of mycophenolate mofetil. Lab Chip, 2022.
[12]Abbas et al., A primary human Gut/Liver microphysiological system to estimate human oral bioavailability. Drug Metab Dispos, 2025.

今日亮点

今天,OpenAI 通过播客向我们详细解读了他们在生命科学领域的新进展——GPT-Rosalind 模型,这款模型旨在加速生物研究和药物发现。与此同时,Anthropic 也在《自然》杂志上发表了一项关于大语言模型(LLMs)潜意识学习的重要研究,揭示了 AI 如何通过隐藏数据信号传递深层倾向。更令人瞩目的是,Anthropic 的自动化对齐研究员(AARs)在提升 AI 模型对齐效率方面展现出远超人类的能力,为 AI 安全研究带来了新突破。

💡 产品动态

OpenAI 详解生命科学模型 GPT-Rosalind

OpenAI 在其最新播客中深入介绍了生命科学领域的新模型 GPT-Rosalind。该模型旨在支持生物学研究、药物发现和转化医学,其研究和产品负责人详细探讨了这一模型带来的机遇与责任,包括优化研究工作流和未来实现更自主的实验室。

为什么重要: 这表明 OpenAI 正积极拓展 AI 在复杂科学领域的应用,同时强调在部署初期就注重安全与负责任。

阅读原文

🔬 学术前沿

Anthropic 发布 LLM 潜意识学习研究
Anthropic 联合撰写的关于大语言模型 (LLMs) 潜意识学习的研究论文已在《自然》杂志上发表。该研究揭示了 LLMs 如何通过数据中的隐藏信号传递特征,如偏好甚至偏差。这一发现对理解和控制 AI 模型的行为有重要意义。
论文

Anthropic 自动化对齐研究员 (AARs) 大幅提升 AI 对齐效率
Anthropic 的“自动化对齐研究员”(AARs,基于 Claude Opus 4.6 并配备额外工具)在提高 AI 模型对齐效率上表现出色。在一项测试中,AARs 在 7 天内将弱模型与强模型的性能差距弥补了 97%,而人类研究员仅达到 23%。此外,AARs 的最佳方法成功泛化到了新的编程和数学任务,显示了其通用性。
阅读原文

🌍 行业观察

Anthropic 董事会迎来前诺华 CEO

Anthropic 的长期利益信托(Long-Term Benefit Trust)任命了 Vas Narasimhan 加入其董事会。Vas Narasimhan 拥有二十多年的医学和全球健康经验,曾担任诺华公司(Novartis)首席执行官。

为什么重要: 这一任命将为 Anthropic 带来丰富的医疗和制药行业经验,有助于公司在负责任的 AI 研发和部署,尤其是在生命科学等关键领域的策略制定。

阅读原文

💻 开源项目

  • andrej-karpathy-skills:收集 Andrej Karpathy 相关技能和提示,帮助用户更好地利用 LLM。→ GitHub
  • CL4R1T4S:披露了 ChatGPT、Gemini、Grok、Claude 等主流 AI 的系统提示,旨在提升 AI 系统的透明度。→ GitHub
  • caveman:通过模拟“穴居人”说话方式,为 Claude Code 技能减少 65% 的 token 使用量,实现更高效的代码生成。→ GitHub
  • graphify:一款 AI 编码助手技能,能将任何代码、文档、论文或图像文件夹转换为可查询的知识图谱。→ GitHub
  • Claude-Code-Game-Studios:将 Claude Code 转化为一个完整的游戏开发工作室,集成 49 个 AI 代理和 72 个工作流技能。→ GitHub
  • rtk:一个 CLI 代理,能将常见开发命令上的 LLM token 消耗降低 60-90%,提供单个 Rust 二进制文件且无依赖。→ GitHub
  • multica:旨在将编码代理变为真正的团队成员,允许用户像分配给同事一样分配问题,代理能自主完成工作、编写代码并报告障碍。→ GitHub
  • openai-agents-python:OpenAI 推出的一个轻量级、强大的多代理工作流框架。→ GitHub

什么是类器官?有哪些用途?

类器官是三维微型器官,通常由干细胞(多能干细胞或成体干细胞)培养而成,它们在体外细胞外基质中自组织,与二维细胞培养相比,能够更好地模拟体内生理功能。类器官几乎可以从每个人类或动物器官中培养而来,其复杂性远超球状体。虽然两者都能生成包含多种细胞类型的三维结构,但类器官的复杂性更高,在组织学和遗传学上更接近原始器官。

研究人员利用类器官进行各种应用,包括疾病建模、药物发现和开发、个性化医疗、生物疗法和组织工程。它们为治疗如何影响患病或健康器官提供了宝贵的临床前信息,从而更好地指导临床研究。

二、传统类器官模型有哪些局限?

与其他任何模型一样,类器官的使用也存在局限性和挑战,包括:

  1. 培养寿命/坏死核心
  2. 血管化不足
  3. 缺乏免疫成分
  4. 细胞去分化
  5. 培养变异性和类器官同质性
  6. 检测灵敏度
  7. 数据输出深度(更高含量的输出需要类器官池化)
  8. 孤立的单器官模型

三、当前微生理系统的研究进展如何?

使用类器官时,一个简单的调整方法是改用灌注细胞培养,即使用微生理系统(MPS),通过持续流动培养基来模拟血液流动。

灌注具有多种功能。与血液一样,灌注可以提供持续的氧气和营养物质,同时清除代谢废物。这对于类器官的生长和分化尤为重要,因为它们经常会遇到生长停滞和坏死核心的问题。克服这一主要限制可以制备更大的组织,从而进行更丰富的数据分析。

此外,微流体流动还能提供重要的生物力学信号。例如,血流会产生剪切应力,即组织内部的平行摩擦力。通过将微循环的剪切应力引入模型,可以更好地模拟人体生理和生物化学过程。灌注的另一个关键方面是细胞间通讯。灌注会诱导细胞分泌组(例如细胞因子、蛋白质和囊泡)的细胞间移动,从而重现与人体内类似的条件。

利用微生理系统(MPS)在灌注条件下培养类器官确实可以缓解一些限制,但其有限的寿命仍然限制了其应用,尤其是在研究复杂或潜在的药物效应时。此外,它们相对较小的尺寸会影响检测灵敏度和数据输出的深度。后者可以通过将多个类器官混合来克服,但这会增加每次检测的成本。

四、未来类器官会是什么样?

芯片器官培养与类器官不同,前者代表了具有更接近人体空间结构的三维组织。例如,为了支持微组织形成,一些芯片肝脏装置,如CN Bio公司的PhysioMimix Core和Multichip Liver板(图1) ,包含带有胶原蛋白涂层孔隙的支架。

您可点击此处查看微流控器官芯片系统详情

微组织由预先混合的原代细胞自组装形成,且相对均匀。微组织在孔隙内形成(图2),留下内部腔隙,培养基可通过该腔隙流动,从而模拟肝窦结构并避免坏死核心问题。

灌注液如何在每个器官芯片周围循环
图1:CN Bio的PhysioMimix Core和肝芯片板,图中放大展示了灌注液如何在每个芯片周围循环。另有包含4倍芯片数量的肝脏-48板(MPS-LC48)可供选择。

在支架孔隙中形成的芯片肝脏组织
图2:在支架孔隙中形成的芯片肝脏组织。图片来源:CN Bio公司的Emily Richardson博士。

OOC培养物在灌注的辅助下,能够维持细胞健康和功能数周或数月之久,这比传统的类器官培养物有了明显提升,后者通常在几天或几周内就会失去活力和功能[1,2]。这些模型寿命的延长使得研究药物的长期慢性暴露以及更复杂的生物相互作用的长期研究成为可能[ 3]。

生理相关性是限制某些类器官应用的关键障碍,尤其是在肺等屏障器官方面。从结构上看,肺气道由假复层上皮构成,其顶端在呼吸过程中暴露于空气中。类器官通常在培养基或凝胶中浸泡培养以促进其形成,因此,尽管已开发出顶端朝内或顶端朝外的肺类器官,但它们无法模拟 体内环境。因此,类器官在感染、环境研究和药物开发等领域的应用受到限制,因为进入肺部的主要途径——气溶胶化和吸入——无法实现。此外,纤毛摆动频率和黏液分泌等关键肺功能指标也无法被充分理解。利用体外培养技术(OOC)(图3),研究人员可以构建更具生理相关性的屏障模型(图4),从而实现上皮细胞同时暴露于空气和下方培养基灌注[4, 5]。

屏障板,灌注液如何在Transwell插入物周围循环
图3:屏障板,放大图展示了灌注液如何在Transwell插入物周围循环。

支气管肺芯片组织在气液界面培养
图4:支气管肺芯片组织在气液界面培养7天后,可见支气管细胞在膜的顶端形成假复层上皮,内皮细胞在膜的基底外侧形成内皮。组织经阿利新蓝染色以突出显示黏液的产生。图片来源:CN Bio的Emily Richardson博士。

OOC生成的相对较大的组织具有高度功能性,能够提供临床相关的终点指标、毒性输出生物标志物以及与人体相关的代谢,从而使数据能够与 体内 或临床情况进行比较[6]。这些指标在体外检测一直非常困难 ,但更大规模的芯片器官微组织提高了检测灵敏度,使得更复杂的临床化学指标(例如天冬氨酸转氨酶 (AST) 和丙氨酸转氨酶 (ALT))以及由I期和II期代谢物引起的更细微的毒性均可被检测到[7]。Nitsche等人的一项有趣研究探索了不同配置的肝脏微生理系统 (MPS) 在模拟胆汁淤积化学效应方面的潜力。他们的研究结果表明,在灌注类器官培养中可以检测到胆汁酸合成,但其水平较低;然而,当应用测试化合物时,这些培养物未能重现胆汁淤积损伤生物标志物。相比之下,原代人肝细胞芯片肝脏微组织(由PhysioMimix MPS培养,点击了解PhysioMimix微流控器官芯片系统)对所有三种测试化合物均有反应,表现为胆汁酸释放减少,这是胆汁淤积损伤的生物标志物[8]。

此外,更大的微组织培养能够从每个组织(而不是类器官池)中获得更深入的机制见解,包括可溶性细胞健康和功能标记,以及挖掘组织以获取数据丰富的终点,例如高内涵成像和组学分析[9,10]。

通过将器官模型进行流体连接,可以进一步增强基于器官外吸收(OOC)的检测方法与人体的相关性。例如,将肝脏组织与其他“进入途径”器官(肠道或肺,图 5)连接起来,可以研究活性代谢物驱动的毒性,以及评估药物的吸收、代谢[11]和重要的生物利用度[12]。

双器官芯片板,灌注液如何围绕屏障和肝脏隔室循环
图5:双器官芯片板,放大图展示了灌注液如何围绕屏障和肝脏隔室循环。

免疫功能是类器官的另一项关键局限性,可以通过在类器官中培养组织驻留免疫细胞和外周免疫细胞来增强免疫功能,其中外周免疫细胞通过培养基灌注循环。这种免疫系统的模拟使科学家能够揭示免疫介导的毒性问题,诱发具有炎症成分的常见疾病,例如代谢功能障碍相关性肝病(MASH[6]),或模拟人类对感染的反应,例如COVID-19[5]或乙型肝炎[2],而这些感染不太适合使用动物模型。

器官芯片与2D,3D,动物模型的优势对比
图:器官芯片与2D、3D、动物模型的优势对比

五、结论和建议

总之,类器官是一种强大的体外工具,与传统的二维培养和动物模型相比,它能够显zhu提高药物发现和开发流程的人体相关性(表1)。然而,类器官的局限性促使人们开发出更复杂的细胞培养方法,例如类器官培养(OOC),这些方法能够更准确地模拟人体生理的关键方面。

将类器官与OOC结合使用,能够帮助我们进一步推进工作流程,发现更深层次的机制信息,以及更复杂、更潜在的效应,而这些效应在其他方法中可能被忽略。总而言之,这些方法为克服动物模型的跨物种局限性、弥合临床前数据和临床数据之间的差距提供了一条途径,同时也有助于推动监管机构减少和最终取代药物开发中的动物实验。

参考资料

[1]Rubiano et al., Characterizing the reproducibility in using a liver microphysiological system for assaying drug toxicity, metabolism, and accumulation. Clin Transl Sci, 2021.
[2]Ortega-Prieto et al., 3D microfluidic liver cultures as a physiological preclinical tool for hepatitis B virus infection. Nat Commun, 2018.
[3]Long et al., Modeling therapeutic antibody small molecule drug-drug interactions using a three-dimensional perfusable liver coculture platform. Drug Metab Dispos, 2016.
[4]Phan et al., Advanced pathophysiology mimicking lung models for accelerated drug discovery, Biomat Res. 2023.
[5]Caygill et al., Dynamic Culture Improves the Predictive Power of Bronchial and Alveolar Airway Models of SARS-CoV-2 Infection bioRxiv, 2025.
[6]Kostrzewski et al., A microphysiological system for studying nonalcoholic steatohepatitis. Hepatol Commun., 2019.
[7]Rowe et al., Perfused human hepatocyte microtissues identify reactive metabolite-forming and mitochondria-perturbing hepatotoxins. Tox In Vitro, 2018.
[8]Nitsche et al., Exploring the potential of liver microphysiological systems of varied configurations to model cholestatic chemical effects. Arch Toxicol (2025).
[9]Gallager et al., Normalization of organ-on-a-Chip samples for mass spectrometry based proteomics and metabolomics via Dansylation-based assay. Tox In Vitro, 2023.
[10]Novac et al., Human liver microphysiological system for assessing drug-induced liver toxicity in vitro. JoVE, 2022.
[11]Milani et al., Application of a gut-liver-on-a-chip device and mechanistic modelling to the quantitative in vitro pharmacokinetic study of mycophenolate mofetil. Lab Chip, 2022.
[12]Abbas et al., A primary human Gut/Liver microphysiological system to estimate human oral bioavailability. Drug Metab Dispos, 2025.

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。weibo.com/ttarticle/p/show?id=2309405289573151801449 weibo.com/ttarticle/p/show?id=2309405289573483151434 weibo.com/ttarticle/p/show?id=2309405289573852250227 weibo.com/ttarticle/p/show?id=2309405289574187794544 weibo.com/ttarticle/p/show?id=2309405289574523076640 weibo.com/ttarticle/p/show?id=2309405289575005684072 weibo.com/ttarticle/p/show?id=2309405289575336771804 weibo.com/ttarticle/p/show?id=2309405289575668121690 weibo.com/ttarticle/p/show?id=2309405289576003928298

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。weibo.com/ttarticle/p/show?id=2309405289569854816855 weibo.com/ttarticle/p/show?id=2309405289570186166391 weibo.com/ttarticle/p/show?id=2309405289570513322331 weibo.com/ttarticle/p/show?id=2309405289570848866377 weibo.com/ttarticle/p/show?id=2309405289571365028412 weibo.com/ttarticle/p/show?id=2309405289571696115781 weibo.com/ttarticle/p/show?id=2309405289572027465924 weibo.com/ttarticle/p/show?id=2309405289572354883953 weibo.com/ttarticle/p/show?id=2309405289572690428042

这五个坑每一个都在亚马逊的实际运营里造成过损失。分享出来,希望同行少踩。

踩坑一:把亚马逊关键词堆砌当成了GEO

第一个坑是把SEO的写法当成GEO的写法。

亚马逊关键词堆砌是:标题里塞满关键词——"Premium Bluetooth Earbuds Wireless Sports Headphones Best Noise Cancelling Waterproof Earbuds for Running Gym Workout"。

这个写法对亚马逊A9算法有效,对AI搜索完全无效。

为什么?A9要的是关键词密度和点击转化率。AI要的是具体的产品参数值——蓝牙版本5.3、续航30小时、IPX5防水。

具体损失:朋友的一款蓝牙耳机,A组标题按关键词堆砌写法,月销800件,AI搜索里从来没被引用过。改成结构化写法(蓝牙5.3+IPX5防水+CVC降噪+30小时续航+USB-C),四个月后月销掉到600件(因为标题改了影响了一点排名),但AI引用率上升了3倍。

这个取舍值得。月销差200件,但AI推荐的流量是新增的,而且是精准流量。

亚马逊标题的GEO逻辑:前三行全放具体参数,品牌词加在最后。字数不用控制,因为AI不关心字数,只关心有没有它需要的信息。

写了个小脚本,可以快速检测listing标题里有没有具体参数:

import re

def check_amazon_title_geo_score(title: str) -> dict:
    """
    检测亚马逊标题的GEO参数覆盖度
    返回各维度的得分和缺失项
    """
    patterns = {
        "bluetooth": r'Bluetooth\s*[0-9.]+',
        "battery": r'(\d+)\s*(?:hour|h|hr|小时)',
        "waterproof": r'IPX[0-9]',
        "charging": r'USB[-\s]?C',
        "noise_cancel": r'(?:ANC|CVC|降噪)',
    }
    hits = {}
    for dim, pat in patterns.items():
        m = re.search(pat, title, re.I)
        hits[dim] = bool(m)
    
    found = sum(v for v in hits.values())
    total = len(patterns)
    return {
        "title": title,
        "score": "%d/%d" % (found, total),
        "missing": [k for k, v in hits.items() if not v]
    }

# 示例:堆砌型标题 vs 结构化标题
titles = [
    "Premium Wireless Earbuds Best Running Headphones Noise Cancelling Waterproof",
    "Bluetooth 5.3 Wireless Earbuds, IPX5 Waterproof, 8h+22h Battery, USB-C, CVC ANC"
]
for t in titles:
    r = check_amazon_title_geo_score(t)
    print(r["score"], r["missing"])
# 输出:0/5 ['bluetooth', 'battery', 'waterproof', 'charging', 'noise_cancel']
# 输出:5/5 []

踩坑二:多语言listing各写各的,核心参数对不上

第二个坑是没有统一管理亚马逊各站点的多语言版本。

亚马逊在北美、欧洲、日本同时运营,每个站点都有对应语言。常见的问题是:英文版写重量200g,西班牙语版写180g;英文版有FCC认证,西班牙语版没有提认证;英文版写了"ships from China",法语版写了"expédié de Chine",发货地描述不一致。

具体损失:西班牙语买家用AI搜索"auriculares Bluetooth",AI从英文版提取了重量200g的描述。但买家点击进去看到的是西语版,重量显示180g。AI给了一个不准确的信息,品牌可信度直接受损。

后来怎么处理:建立多语言参数基准表,英文版为基准,各语言版本每周对照一次。参数必须一致的字段:净重、包装后重量、蓝牙版本、防水等级、认证编号、续航时间。表达方式可以本地化,数值不能改。

写了个对照脚本,跑一次就能找出不一致的字段:

def compare_multilingual_specs(base: dict, target: dict) -> list:
    """
    比对多语言版本的核心参数一致性
    base: 英文版参数 {"weight_g": 200, "battery_h": 30, "waterproof": "IPX5", ...}
    target: 目标语言版本参数
    """
    MUST_EQUAL = ["weight_g", "battery_h", "waterproof", "bluetooth", "certs"]
    issues = []
    for field in MUST_EQUAL:
        if base.get(field) != target.get(field):
            issues.append({
                "field": field,
                "en": base.get(field),
                "local": target.get(field)
            })
    return issues

# 示例:英文 vs 西班牙语
en = {"weight_g": 200, "battery_h": 30, "waterproof": "IPX5", "bluetooth": "5.3", "certs": ["CE","FCC"]}
es = {"weight_g": 180, "battery_h": 30, "waterproof": "IPX5", "bluetooth": "5.3", "certs": ["CE"]}
result = compare_multilingual_specs(en, es)
# [{'field': 'weight_g', 'en': 200, 'local': 180}, {'field': 'certs', 'en': ['CE','FCC'], 'local': ['CE']}]

踩坑三:认证证书只放图片,AI根本读不到

第三个坑是把CE、FCC、UL测试报告全部用图片附件形式展示。

亚马逊卖家经常这样操作:产品通过了CE认证,找设计师做了一个证书图片,放在产品描述最后一行,配上文字"CE Certified"。

这个做法对人类买家有效,对AI完全无效。

具体损失:一款户外蓝牙音箱在欧洲站销售,CE证书以图片形式展示。买家问AI"这款音箱有没有CE认证",AI的答案里显示"认证信息不明确"。结果是这款音箱在欧洲站的转化率比同类产品低了约15%,因为买家对认证不确定。

正确做法:证书编号、认证类型、适用产品型号、颁发机构、有效期,这五项以文本形式写进产品描述。CE认证编号示例:"CE-LVD-2024-CN-1234",UL测试编号示例:"UL-2024-88921"。有了具体编号,AI可以直接验证。

踩坑四:Vine评价写了几百条,AI一条都不引用

第四个坑是以为评价数量等于评价质量。

一款耳机,Vine评价写了300多条,评价分数4.2星。但这些评价清一色是"非常好用""音质很棒""推荐购买"。

AI在引用评价时,评估的是评价的"信息密度"。同样是4星评价,"续航实测28小时,和旧款比轻了5g,适合小耳道佩戴"的信息密度远高于"好用"两个字。

具体损失:这款耳机在Perplexity搜索"best earbuds for small ears"里从来没被引用。同类的竞品Vine评价只有80条,但每条都写了具体参数对比,AI引用的始终是竞品。

后来怎么改:在商品页加了一个FAQ:"你的耳机适合小耳道吗?"标准回答是"耳塞有S/M/L三个尺寸,S尺寸直径XXmm,适合耳道较浅的用户,实测小耳道用户满意度XX%"。FAQ里的内容AI是会引用的,而且比泛化的好评引用价值高得多。

踩坑五:亚马逊站内PPC广告和GEO混在一起优化

第五个坑是把亚马逊PPC广告优化和GEO优化当成同一件事。

PPC广告优化的是什么:关键词竞价、广告位排名、点击率和转化率。

GEO优化的是什么:产品参数的具象程度、评价内容的场景密度、认证编号的可验证性。

这两件事操作的对象完全不同:PPC管的是关键词和出价,GEO管的是产品内容本身。

具体损失:朋友把PPC广告里高转化的关键词直接加到产品标题里,想同时提升站内搜索位置和AI引用。结果标题变成了关键词堆砌,反而降低了AI对产品参数的提取质量。PPC转化率提升了一点,但AI引用率下降了。

亚马逊站内PPC和GEO的配合逻辑:PPC广告负责提升站内搜索位置和销量数据(影响A9算法),GEO优化负责提升内容质量(影响AI推荐)。两套策略各自独立运行,在标题层面不要互相干扰。

总结

这五个坑的共同原因是:用平台运营思维做AI时代的内容,没有区分"给人看的内容"和"给AI看的内容"。

GEO的核心是把"模糊的人类感受描述"转化为"AI可以提取和验证的具体参数"。做到这一点,亚马逊、速卖通、独立站的AI搜索可见性会同步提升。

各位 V 友好,我做了一个给 Vim 党的 Terminal

AI 编程时代,编辑器的地位越来越弱,练了多年 Vim 的一身功力无法施展。于是我做了这个东西。

核心目标很简单:用 Vim 的方式操控 Terminal ,进而高效指挥 AI Agent 做开发。

我想的是,未来的开发模式会是一个人同时调度多个 AI 并行工作,所以输入效率和操控体验至关重要。FluxTTY 就是为这个场景准备的。

主要特性
- 瀑布流布局:竖屏体验极佳,多个 Agent 并排一览无余
- Vim 式输入栏:输入命令像写代码一样顺手
- 没了

目前功能还比较精简,所以想让大家给我出出主意还有提提 bug 。

Windows 和 Linux 我没有环境,暂时没有测试和 Release 。

想收集一下大家的反馈:Bug 、体验问题、功能建议 都欢迎,帮我把这个工具做得更好

项目地址

🔗 github.com/amoswzw/fluxtty

截图:

SSL证书与IP地址、域名之间存在着密不可分的联系。然而,许多人对这三者之间的关系存在误解或认识不清。本文国科云将深入剖析SSL证书、IP地址和域名之间的内在联系,帮助读者建立清晰准确的理解。

一、先明确三者各自的“角色定位”

1.IP地址:互联网世界的“物理地址”

IP地址是互联网中设备的唯一标识,相当于“门牌号”,用于定位服务器等设备。其核心作用是“定位”,但缺点是难以记忆,且服务器迁移时IP易变,如果直接使用IP访问会极为不便。

2.域名:IP地址的“易记别名”

域名是为解决IP难记问题而诞生的“别名”,用户通过域名访问,经DNS解析转为IP。其核心作用是“映射与便捷访问”,一个IP可对应多个域名,一个域名也可对应多个IP(负载均衡)。域名比IP更稳定,IP变更时只需更新DNS记录即可。

3.SSL证书:网络通信的“安全通行证”

SSL证书由CA签发,用于在客户端与服务器间建立加密通道,核心作用是“身份验证”和“数据加密”。浏览器验证证书有效后会显示锁形标识;验证失败则提示“不安全连接”。

二、核心关联:SSL证书与域名、IP地址的绑定逻辑

SSL证书绑定的本质是“访问入口”(域名或IP),而非IP或域名本身。

1.SSL证书与域名:主流绑定方式

公开网站中,SSL证书与域名绑定,其优势是IP变更时只需更新DNS解析,证书无需重签。

证书类型包括:单域名证书(绑定一个具体域名)、通配符证书(绑定主域名及一级子域名)、多域名证书(SAN证书,可绑定多个不同域名)。绑定必须严格匹配,否则浏览器提示“证书与域名不匹配”。

2.SSL证书与IP地址:特殊场景绑定

适用于无法通过域名访问、只能通过IP访问的场景(如内部系统、物联网设备)。IP SSL证书限制明显:不支持通配符IP段,通常仅DV/OV类型,且IP变更时必须重新申请。

3.三者的协同关系

(1)用户在浏览器中输入域名,发起访问请求;

(2)浏览器通过DNS解析,将域名转化为对应的IP地址,找到目标服务器;

(3)服务器向浏览器返回已部署的SSL证书,证书中包含绑定的域名(或IP地址)、公钥等信息;

(4)浏览器验证SSL证书的有效性:检查证书颁发机构是否可信、证书是否在有效期内、证书绑定的域名(或IP)与用户访问的入口(域名或IP)是否一致;

(5)验证通过后,浏览器与服务器通过证书中的公钥、私钥建立加密通信通道,后续所有数据均通过该通道加密传输,确保安全;

(6)服务器将用户请求的内容通过加密通道返回给浏览器,浏览器解析后展示给用户,完成整个访问流程。

从这个流程可以看出,IP地址负责“定位服务器”,域名负责“简化访问入口”,SSL证书负责“验证身份+加密数据”,三者缺一不可。

三、常见误区:理清三者关系的关键要点

误区一:SSL证书只能绑定域名,不能绑定IP

纠正:两者均可,公开网站绑域名,特殊场景绑IP。普通证书不能直接用于IP访问。

误区二:SSL证书绑定IP后,更换IP也能正常使用

纠正:IP绑定证书与IP强关联,IP变更证书即失效,必须重签;域名绑定证书则只需更新DNS。

误区三:一个SSL证书可以绑定任意多个域名和IP

纠正:有明确数量限制,且IPSSL证书不支持IP段通配。

误区四:域名与IP绑定后,SSL证书只需绑定其中一个即可

纠正:证书绑定对象必须与用户访问入口一致。若同时支持域名和IP访问,证书SAN字段需同时包含两者。

四、国科云建议:如何正确搭配三者,保障网站安全?

国科云作为专业的域名与SSL证书服务商,针对不同类型的网站和服务,给出以下实际应用建议:

1.公开网站

优先“SSL证书绑定域名”。根据域名数量和层级选择合适证书类型;优先OV或EV证书(EV证书可在部分浏览器地址栏显示单位名称,增强身份认证);IP变更时仅需更新DNS解析。

2.内部系统、物联网设备等场景

选择“SSL证书绑定IP”。申请时需提供IP管理权限证明;如果IP可能变更需提前规划;内部系统可使用私有CA签发IP证书。

3.多IP、多域名的复杂场景

使用多域名证书(SAN证书),在证书中同时包含所有域名和IP,一个证书覆盖所有访问入口;配合负载均衡提升稳定性。

IP地址负责定位服务器,域名提供便捷访问入口,SSL证书实现身份验证与数据加密。理解并正确配置三者的关联,是保障网站安全、可信访问的基础。

概述

在数字化转型浪潮中,工业与工贸企业面临着比纯贸易或纯服务企业更为复杂的管理挑战。从线索获取到客户分层,从销售跟单到生产履约,再到最终的财务核算,数据的“断连”往往是效率低下的根源。

本次评测选取了市场上具有代表性的六款管理工具,包括主打“全业务一体云架构”的超兔一体云、协同办公领域的飞书 CRM、深耕SCRM的点镜CRM、侧重销售自动化的励销云,以及国际知名的客服工具Help ScoutEngageBay(注:Refract因公开信息有限,不纳入详细对比)。

本文将围绕客户分层管理、项目进度追踪、表单自定义、多维度报表四大核心维度,深度剖析各产品的底层逻辑与业务价值,旨在为企业选型提供客观、专业的参考依据。

一、客户分层管理:从静态标签到动态价值评估

客户分层是精细化运营的基石。在评测中我们发现,不同产品基于其基因差异,在分层的逻辑深度上呈现出显著区别。

1. 核心逻辑对比

  • 超兔一体云:采用了独创的“三一客”模型,即“定性(有价值/无价值)、定级(大单/正常/小单)、定量(预估金额/周期)”。这种模型超越了简单的标签分类,结合RFM模型(最近消费、频率、金额),系统能自动计算客户价值并触发流转。例如,系统会自动将高意向客户推入“上首屏池”,将休眠客户推入“挽回池”。此外,针对医院、高校等组织型客户,超兔支持“多级分组隔离与汇总”,实现了宏观(医院级)与微观(科室级)的分层管控。
  • 点镜 CRM:深度依赖企业微信生态。其分层逻辑主要基于社交行为数据,如聊天互动频次、转账记录、消费能力等。系统通过抓取企微侧的行为自动生成客户画像,支持按标签进行精准群发。其优势在于社交维度的分层,但在交易维度的深度量化上略逊于超兔。
  • Help Scout:主要基于客服交互数据。分层依据通常是咨询频次、满意度评分(CSAT)等。这属于服务视角的分层,旨在识别VIP服务对象,但缺乏销售和交易维度的自动评估机制。
  • 飞书 CRM & 励销云:两者均支持自定义标签与规则。飞书利用多维表格的灵活性,允许用户定义复杂的筛选规则进行分层;励销云则支持多业务模板配置,适配不同规模企业的分层需求。两者均具备良好的灵活性,但分层后的“自动化动作”(如自动流转、自动预警)能力相对基础,更多依赖人工查看。

2. 超兔客户分层逻辑脑图

为了更直观地展示超兔一体云在客户分层上的深度逻辑,以下通过脑图解析其核心体系:

mindmap
  root((超兔客户分层体系))
    三一客模型
      定性: 有价值/无价值/不确定
      定级: 大单/正常/小单
      定量: 预估签约金额/周期
    生命周期流转
      线索 -> 潜在 -> 意向 -> 成交
      自动流转机制
      超时预警
    RFM数据模型
      Recency: 最近一次消费
      Frequency: 消费频率
      Monetary: 消费金额
      自动计算: 价值/发展/挽留客户
    组织型客户
      多级架构: 医院->科室->主任
      分组隔离: 分别跟单
      数据汇总: 全景视图

3. 评测小结

在客户分层维度,超兔一体云展现了工业级管理的深度,不仅关注“客户是谁”,更通过算法关注“客户值多少钱”以及“处于什么阶段”。点镜 CRM在社交触达上表现优异,而Help Scout则局限于服务场景。

二、项目进度追踪:从销售漏斗到生产黑盒的穿透

对于工贸一体化企业,项目进度追踪的难点在于“销售”与“生产”的割裂。本次评测重点考察了各产品对全链路进度的穿透能力。

1. 核心能力对比

  • 超兔一体云:实现了“销售+生产”双端闭环

    • 销售端:提供360°项目视图,在一个页面内聚合合同、订单、采购、收支记录,实时计算“收支差”以预警利润风险。
    • 生产端:深度集成MES (生产执行系统) 。销售订单可转化为生产工单,通过甘特图可视化排程(蓝色为实际进度,绿色为计划周期)。车间班组长通过手机扫码报工,数据实时回传更新进度条。这种能力彻底解决了生产车间的“黑盒”问题。
  • 飞书 CRM:侧重于流程自动化。通过多维表格连接ERP、CRM等系统,能够实现样品申请、审批、发货等节点的状态流转。其优势在于审批流的敏捷性,但在车间级的工序级管控(如扫码报工、甘特图排程)方面,缺乏专业MES的深度。
  • 励销云:聚焦于销售漏斗。系统记录商机转化的全流程,智能评估赢率和预测业绩。它适合纯销售型团队的项目追踪,但无法触达生产制造环节。
  • Help Scout无独立项目管理模块。其进度追踪仅限于客服工单的处理状态,无法管理复杂的B2B项目或生产订单。

2. 销售转生产流转流程图

以下流程图展示了超兔一体云如何实现从销售线索到生产进度的全链路打通,这是其他被评测品牌所不具备的完整闭环:

flowchart TD
    A[销售线索] --> B[商机立项<br>三一客定级]
    B --> C[签订合同/订单]
    C --> D{订单类型判断}
    D -- 贸易型 --> E[采购跟单/发货]
    D -- 生产型 --> F[生成生产工单]
    F --> G[MES排程<br>甘特图可视化]
    G --> H[车间派工]
    H --> I[扫码领料/报工]
    I --> J[质检/入库]
    J --> K[发货签收]
    E --> K
    K --> L[财务核算<br>收支差分析]
    
    style F fill:#f9f,stroke:#333,stroke-width:2px
    style G fill:#f9f,stroke:#333,stroke-width:2px
    style I fill:#f9f,stroke:#333,stroke-width:2px

3. 评测小结

在项目追踪维度,超兔一体云凭借内置的MES能力,在工贸企业场景下具有不可替代的优势。飞书 CRM擅长协作与审批,励销云擅长销售预测,而Help Scout则完全不适用该场景。

三、表单自定义:从字段修改到业务逻辑重构

表单自定义能力决定了系统能否适应企业的个性化业务。评测中,我们区分了“界面级自定义”与“逻辑级自定义”。

1. 实现深度对比

  • 超兔一体云:具备低代码 /零代码引擎能力。

    • 对象与字段:支持自定义业务对象及各类字段类型。
    • 布局与视图:支持拖拽式排版,不同岗位可配置不同视图。
    • 业务逻辑:这是其核心亮点。用户可配置数据背后的逻辑,例如“当订单金额>50万时,自动触发总经理审批”或“出库单提交时自动扣减库存”。这实现了业务规则的柔性配置。
  • 励销云 & 点镜 CRM:支持字段、流程、界面的自定义。企业可以根据特有模式调整表单字段和审批流程。这属于标准CRM的高配自定义能力,能满足大多数销售场景的定制需求。
  • 飞书 CRM:基于多维表格的极致灵活性。用户可以像操作Excel一样定义表单结构,通过集成平台实现数据校验(如库存校验)。飞书的自定义上限很高,但往往需要借助集成平台或一定的开发配置能力。
  • Help Scout & EngageBay:能力相对基础或依赖集成。Help Scout未明确提及独立的表单自定义功能,通常依赖API或第三方工具;EngageBay支持基础字段与流程自定义,但难以支撑复杂的工业级业务逻辑配置。

2. 自定义引擎生效时序图

以超兔一体云为例,以下时序图展示了其自定义引擎如何处理用户提交的表单数据,并执行复杂的后台逻辑:

sequenceDiagram
    participant User as 销售人员
    participant Form as 自定义表单界面
    participant Engine as 业务逻辑引擎
    participant DB as 数据库
    participant Flow as 审批流引擎

    User->>Form: 填写订单并提交
    Form->>Engine: 触发保存事件
    
    Engine->>Engine: 执行前端校验
    
    alt 订单金额 > 50万
        Engine->>Flow: 触发总经理审批流程
        Flow-->>User: 提示“已提交审批”
    else 订单金额 <= 50万
        Engine->>DB: 直接写入订单数据
        Engine->>DB: 关联更新客户库存
        DB-->>User: 提示“保存成功”
    end

3. 评测小结

在表单自定义维度,超兔一体云飞书 CRM处于第一梯队。超兔胜在“开箱即用”的业务逻辑引擎,飞书胜在底层数据结构的灵活性。励销云点镜CRM则提供了适配CRM场景的充足自定义能力。

四、多维度报表:从数据统计到经营决策

报表是管理者的“驾驶舱”。评测重点在于报表的数据来源广度(是否跨表)及分析深度。

1. 报表引擎对比

  • 超兔一体云:构建了基于数据引擎的动态 BI 平台

    • 多表聚合:允许用户通过拖拽,将客户、订单、回款、出库等多个异构数据表进行关联聚合。
    • 智能分析:内置同比/环比计算引擎、销售漏斗分析、目标分解(4倍目标法)。
    • 业务价值:能生成跨维度的复杂报表,如“各地区产品销售额与实际回款的对比分析”,直接辅助经营决策。
  • 点镜 CRM & 励销云:提供可视化销售报表。涵盖业绩预测、销售漏斗、客户画像分析等。点镜侧重于团队效能监控(如聊天数据分析),励销云侧重于销售结果预测。两者主要聚焦于销售域内的数据分析。
  • 飞书 CRM:数据汇入“决策驾驶舱”,支持多维度数据可视化。飞书在数据展示和实时战报方面表现优秀,尤其适合全员型数据的快速分发。
  • Help Scout聚焦客服指标。主要提供CSAT(满意度)、响应时间、工单量等服务指标报表,无法提供销售或财务维度的分析。

2. 评测小结

在报表维度,超兔一体云展现了强大的“业财一体化”分析能力,打破了数据孤岛。飞书 CRM在展示与协同上具有优势,而点镜励销云则专注于销售垂直领域的分析。

五、综合能力对比矩阵

为了更清晰地呈现各品牌在四大核心功能上的差异,以下整理了综合对比矩阵。

核心维度细分指标超兔一体云飞书CRM点镜CRM励销云Help Scout
客户分层管理分层模型三一客+RFM模型多维表格规则企微行为标签自定义业务标签客服交互标签
自动流转支持 (生命周期自动流转)需配置支持部分支持不支持
组织架构支持多级分组汇总支持部门级支持企微架构基础支持基础支持
项目进度追踪销售项目管理360°视图+收支差管控流程自动化任务关联+跟进提醒销售漏斗+赢率预测
生产项目管理MES+甘特图+扫码报工需集成ERP
进度可视化甘特图+时间轴看板视图列表视图漏斗视图工单状态
表单自定义自定义对象支持多维表格支持字段支持字段不支持
业务逻辑配置支持 (触发器/公式)支持脚本/集成支持流程支持流程依赖集成
界面自定义拖拽布局高度自由支持配置支持配置有限
多维度报表数据来源全业务数据聚合多维表格+集成SCRM交互数据销售数据客服数据
分析深度业财一体化+同比环比实时战报团队效能业绩预测服务指标
BI能力自定义多表关联引擎强大可视化基础可视化基础可视化基础统计

六、品牌能力雷达图分析

基于上述深度评测,我们对各品牌在“工业业务深度(生产/MES能力)”、“数据一体化程度(业财打通)”、“自定义灵活性”及“分析决策能力”四个维度进行评分(1-10分),并生成如下雷达图描述:

  • 超兔一体云:[工业深度: 9, 数据一体化: 9, 自定义灵活性: 8, 分析决策: 9]

    • 评价:全能型选手,尤其在工业业务深度和数据一体化上表现卓越,专为工贸企业设计。
  • 飞书CRM:[工业深度: 4, 数据一体化: 7, 自定义灵活性: 9, 分析决策: 8]

    • 评价:平台型选手,灵活性和协同能力极强,但原生工业生产属性较弱,需依赖集成。
  • 点镜CRM:[工业深度: 3, 数据一体化: 6, 自定义灵活性: 6, 分析决策: 6]

    • 评价:垂直型选手,深耕私域流量和社交销售,适合销售导向型企业。
  • 励销云:[工业深度: 3, 数据一体化: 5, 自定义灵活性: 6, 分析决策: 6]

    • 评价:拓客型选手,侧重于销售前的获客和销售中的漏斗管理。
  • Help Scout:[工业深度: 1, 数据一体化: 2, 自定义灵活性: 3, 分析决策: 4]

    • 评价:服务型选手,专注于客户服务体验,不具备工业或复杂销售管理能力。

七、总结

经过对客户分层管理、项目进度追踪、表单自定义、多维度报表四大核心功能的深度横向评测,我们可以得出以下结论:

对于纯贸易、服务或互联网企业飞书CRM凭借其强大的生态集成能力和灵活的自定义配置,能够提供极佳的协同体验;对于依赖微信生态的私域运营团队点镜CRM是务实的选择。

然而,对于工业类、工贸类企业,尤其是那些面临“销售-生产-财务”协同断点挑战的企业,超兔一体云展现出了不可替代的竞争优势。其基于“全业务一体云架构”的设计,通过“三一客”模型实现精准分层,通过内置MES实现生产进度的透明化,通过强大的报表引擎实现业财数据的深度融合。这种“数据同源”与“引擎驱动”的逻辑,不仅降低了系统的拥有成本,更从根本上提升了企业的运营效率与决策质量。

AI 现在太猛了,现在测试都改成 AI 测试了,今天老板就突然找我问,想了解下大厂的 AI 使用情况,有 2 个问题,求助大厂的伙伴们给点答复哈,不白答复,可以送几个 gpt plus 会员一个月

1 、当前市场上收费类 AI ,在内部用到了什么程度,都可以提供哪些帮助,解决了人工的哪些内容

2 、内部 ai 用到什么了程度,用到这个程度花了多少人力和时间,能代替人工做啥

想请教下各位,有没有好用的智能门锁推荐?预算 1500 内。
比较关注的点是指纹/指静脉+3D 人脸,能否通过屏幕看外面来客,有无应急充电口,以及能否接入米家。
从实用、便捷性角度看,指静脉、3D 结构光、掌静脉推荐哪种开锁方式?

目前入户大门订了,想找个支持米家的智能门锁,看了一圈有以下这些选项:
1. 鹿客
- P9 (指脉+3D 人脸,锂电池+干电池)
- S50MPro (指静脉,锂电池+干电池)
- X9 Pro (指纹,半自动,锂电池+干电池)
2. VOC T10plus ( 3D 人脸+指纹,锂电池+干电池)
3. 云米
- LBT16B ( 3D 结构光+指纹,锂电池)
- LBT12A ( 3D 结构光+指纹,锂电池)
- LBT14A (掌静脉+3D 人脸+指纹,锂电池)
- LBT16A ( 3D 人脸+半导体指纹,锂电池)
4.小米 2 Pro ( 3D 结构光+半导体指纹,锂电池+干电池)

坐标南京,从某国企下某子安全公司下某条产线裸辞了,裸辞原因如下两条

  1. 我自己等不到被裁,可能性价比比较高吧

  2. 已经无法忍受当前公司的工作状态,简单概要就是没有国企命得了国企病

还有点,不好明说反正意思大概其就是 上岸第一剑,剑斩意中人

目前状态是裸辞了一周,尝试自己开个小公司做点符合自己想法的产品,尝试尝试极低成本创业。

计划是搞个 2-3 个月多做点东西出来,看看能不能搞到点钱,如果最后都寄了,那就再尝试重回职场,同时换个对待职场的心态。

老实说在这家公司这几年确实学到了很多人性层面上的事,不知道是该感慨自己太年轻?还是该骂自己蠢,反正我自己感觉蛮可惜的。

当前状态属于不定期不定点突发性焦虑(尤其是在各种平台刷到 AI 又怎么怎么之类的视频)、兴奋(感觉自己有了 100% 虚假的 自由)、害怕(因为底没有想象中的那么深,害怕一步错步步错)和迷茫(感觉身处于一个时代洪流之中,找不到一个抓手)

btw ,我也自我营销一下,日常技术栈:flutter 、rust 、full 前端,win 、移动端均有涉猎,win 为主。如果有老板有需要这种配合的可以联系我,eTI1MzgzNDA5MzQ=