2026年3月

一套原本只为特定国家服务的 iOS 漏洞利用框架,如今正在网络犯罪分子手中疯狂敛财,从乌克兰的政府网站到某大国的虚假加密货币平台,无一幸免。

2026 年 3 月,移动安全领域迎来了一场地震。安全研究机构 iVerify 与谷歌威胁情报小组(GTIG)几乎同时披露了一起震惊业界的重大安全事件:一套代号为“Coruna”的复杂 iOS 漏洞利用框架,已从政府客户手中泄露,并在过去一年中被多个不同背景的攻击者大规模使用。

这并非普通的黑客工具。Coruna 框架包含了 5 条完整的 iOS 漏洞利用链,整合了 23 个独立漏洞,能够攻击从 iOS 13 到 iOS 17.2.1 之间几乎所有版本的 iPhone 设备。这意味着,过去近四年间生产的 iPhone,在这套工具面前几乎门户大开。

01 解剖 Coruna:这不是普通黑客能造出的武器

谷歌威胁情报小组通过对 Coruna 框架的深入逆向分析,揭示了一个令人不寒而栗的事实:这套工具的工程化水平极高。

框架内部采用了极为精密的模块化设计,每个漏洞利用模块都有清晰的代码命名——buffout、jacurutu、bluebird、terrorbird、cassowary……这些以鸟类命名的 WebKit 远程代码执行漏洞,覆盖了从 iOS 13 到 iOS 17.2.1 的完整版本区间。

更令人震惊的是,框架内部嵌入了“调试版本”,将漏洞的代码名称清晰地暴露在研究人员面前。Photon 和 Gallium 这两个内核漏洞利用模块,与 2023 年卡巴斯基披露的“三角行动”(Operation Triangulation)中使用的零日漏洞完全一致——而那起攻击,此前被广泛归因于美国政府。

框架还包含了极为先进的绕过技术:能够检测设备是否开启了“锁定模式”(Lockdown Mode)或用户是否正在使用隐私浏览,一旦发现立即中止攻击;拥有针对指针认证码(PAC)的多种绕过方案;内核漏洞中嵌入了绕过内核级 PAC 的内部模块。

这是一套由国家行为体投入巨资研发、经过实战检验的顶级网络武器。

02 从政府工具到黑市商品:一次危险的扩散

Coruna 的传播路径揭示了商业间谍软件市场的失控现状。

谷歌威胁情报小组的追踪显示,2025 年 2 月,他们首次捕获到这套框架的部分组件——当时,一家商业监控供应商的客户正在使用它进行高度定向的监控行动。

仅仅几个月后,情况发生了变化。2025 年夏季,同一个 JavaScript 框架出现在乌克兰大量被黑的网站上——从工业设备供应商到本地服务网站,无一幸免。这些网站的页面上被嵌入了一个隐藏的 iFrame,加载来自 cdn.uacounter[.]com 的恶意代码,专门针对特定地理位置的 iPhone 用户发动攻击。谷歌与 CERT-UA 合作清理了所有被黑网站,并将其归因于一个疑似俄罗斯背景的间谍组织 UNC6353。

故事的转折发生在 2025 年底。 谷歌研究人员在某大国境内发现了一大批虚假金融网站——伪造的加密货币交易平台、投资理财页面,它们都在试图诱导用户使用 iOS 设备访问。一旦用户上钩,同样的 Coruna 框架便会悄然启动。

这一次,攻击者不再关注用户的地理位置,不再区分目标是政府官员还是普通公民。任何使用 iPhone 访问这些网站的人,都成为了攻击目标。

03 当国家级武器遇上经济犯罪

iVerify 的研究团队对 Coruna 框架的最终载荷进行了逆向工程,发现了一个令人不安的事实:这套工具的最后一步,不再是监控异见人士或窃取政府机密,而是直接盗窃加密货币。

框架最终会植入一个名为 PlasmaLoader(谷歌追踪为 PLASMAGRID)的加载器,使用 com.apple.assistd 作为标识符伪装成系统进程,并将自身注入到 iOS 中以 root 权限运行的守护进程 powerd 中。

复制
植入的载荷具备以下能力:

扫描设备磁盘上的图片,解码其中的二维码

分析文本内容,搜索 BIP39 助记词序列(加密货币钱包恢复短语)

在 Apple 备忘录中查找“备份短语”、“银行账户”等关键词

针对至少 19 款主流加密货币钱包应用进行钩子注入

被针对的应用名单几乎覆盖了所有主流加密钱包:MetaMask、Phantom、Trust Wallet、Uniswap、Tonkeeper……研究人员的发现更为惊人:除 WhatsApp 之外的所有加密货币钱包都易受攻击。

更可怕的是,载荷内置了动态模块加载机制,可以从 C2 服务器获取并执行任意附加模块。通信数据经过 AES 加密,密钥来自静态字符串的 SHA256 哈希值。当 C2 服务器失效时,植入物会使用种子“lazarus”生成域名算法(DGA),预测生成 15 位的.xyz 域名,并通过 Google 公共 DNS 验证域名活性。

代码中的中文日志字符串和表情符号,以及部分模块中出现的 LLM 生成风格注释,为攻击者的归属提供了线索,但更值得关注的是:这套工具的最终受害者,已经从“特定目标”变成了“任何拥有 iPhone 和加密货币的人”。

04 历史的重演:从 EternalBlue 到 Coruna

对于关注网络安全历史的人来说,这一幕似曾相识。

2017 年,美国国家安全局(NSA)开发的 Windows 漏洞利用工具 EternalBlue(永恒之蓝)被黑客组织“影子经纪人”泄露。NSA 明知这个零日漏洞的存在,却选择不向微软报告,而是在自己的网络行动中利用了它长达数年。

工具泄露后,微软紧急发布补丁,但为时已晚。两个月后,WannaCry 勒索软件席卷全球,利用 EternalBlue 漏洞攻击未打补丁的系统,造成数十亿美元损失。六周后,同一框架被用于 NotPetya 攻击,再后来被整合进 Retefe 银行木马。

iVerify 联合创始人 Rocky Cole 直言不讳: “这是 EternalBlue 事件的重演,只不过这次是在移动设备上。”

唯一不同的是,这一次的泄露渠道可能更为复杂。TechCrunch 曾报道美国国防承包商 L3Harris Trenchant 前负责人 Peter Williams 的案件——他承认窃取了 8 个漏洞利用程序,卖给与俄罗斯政府有联系的中间人,被判七年监禁。检方称,他出售的漏洞能够入侵全球“数百万台计算机和设备”。

这是一个正在蓬勃发展的“二手零日漏洞市场”。 当监控技术公司为了利润将工具出售给越来越多的“合法”客户,当政府开发的武器级漏洞被内部人员窃取倒卖,最终买单的,是每一个普通用户的数字安全。

05 普通用户如何自保?答案令人无奈

面对如此复杂的攻击框架,普通用户该如何应对?

好消息是,苹果已经在后续版本中修复了 Coruna 框架利用的漏洞。iOS 17.3 及以上版本的用户不受影响。 谷歌安全浏览已将所有识别到的恶意域名加入黑名单,保护用户免遭进一步利用。

但坏消息是,对于无法升级到最新系统的旧设备,风险依然存在。iVerify 的建议坦诚得令人心酸:

“每天重启设备。”

这是因为大多数间谍软件攻击缺乏持久性——重启可以清除内存中的感染。但如果用户再次访问恶意网站,设备可能再次被感染。

对于依赖 iPhone 处理工作事务、存储敏感信息、管理加密资产的用户来说,这显然不是一个理想的解决方案。但正如安全专家所言:在没有完整移动安全框架的情况下,这可能是普通用户抵御高级恶意软件的最有效方法。

复制
其他建议包括:

立即将设备更新至最新 iOS 版本(包含已知漏洞补丁)

在无法更新的设备上启用“锁定模式”(Lockdown Mode)

重置通过设备访问的所有在线服务密码

在所有重要账户上启用双因素认证

谨慎点击不明链接,警惕诱导访问的色情或加密货币网站

06 谁该为此负责?

Coruna 事件引发了更深层次的拷问。

“帕尔马尔进程”(Pall Mall Process)——一个旨在规范间谍软件使用的国际自愿框架——正在缓慢推进。商业间谍软件供应商和购买它们的政府一再保证,这些技术只会用于反恐、打击犯罪,仅限于非专制政府使用。

但现实一再证明,一旦间谍软件或漏洞利用能力被售出,对最终用户的控制便随之丧失。

iVerify 在其报告中直言不讳:“中间商不可信赖,间谍软件市场的企业间交易缺乏监管。使用范围越广,泄露的可能性就越大。”

谷歌在其分析报告中强调,他们一直积极参与帕尔马尔进程,致力于建立国际规范和框架,限制这些强大技术的滥用。但规范的形成需要时间,而漏洞的扩散却在加速。

最讽刺的是,正如 iVerify 所指出的:“虽然 iVerify 掌握了一些证据表明该工具是泄露的美国政府框架,但这不应掩盖这样一个事实:这些工具最终会流入市场,并被不法分子肆意利用。”

无论是哪个国家最初开发了这套武器级漏洞框架,今天,它已经落入网络犯罪分子手中,成为了窃取普通人加密货币的工具。

当政府用纳税人的钱打造网络武器,当商业公司为了利润将这些武器贩卖给任何出价者,当内部人员将国家机密卖给外国中间商——最终受害的,永远是最没有能力保护自己的普通用户。

你的 iPhone 里可能没有国家机密,但可能有你辛苦积攒的加密货币、你的银行账户信息、你的私密照片和对话。对于网络犯罪分子来说,这就足够了。

EternalBlue 的历史告诉我们:政府级武器一旦泄露,其危害将持续数年,甚至数十年。 Coruna 的故事才刚刚开始。

本文转载于微信公众号-- 网空闲话 plus

参考资源

1、 https://cloud.google.com/blog/topics/threat-intelligence/coruna-powerful-ios-exploit-kit

2、 https://iverify.io/press-releases/first-known-mass-ios-attack

3、 https://techcrunch.com/2026/03/03/a-suite-of-government-hacking-tools-targeting-iphones-is-now-being-used-by-cybercriminals/

谁说 PHP 只适合写小项目?PHP 都已经进化到了 8.5 了,配合 Hyperf ,比起其他语言,在工程化能力上也是杠杠的。

image.png

警惕毁掉项目的旧习惯

即便在 Hyperf 这种现代框架里,依然能看到这类逻辑混乱的代码:

// 反模式示例:控制器逻辑堆砌
public function store() {
    $params = $this->request->all();
    // 字符串处理逻辑嵌套严重,难以阅读
    $name = str_replace('_', ' ', trim(strtolower($params['name'] ?? ''))); 
    
    $product = new Product();
    $product->name = $name;
    // 业务校验结果被忽略,容易埋下隐患
    $this->validator->verify($product); 
    $product->save();
}

这种写法导致逻辑难以维护且不安全。PHP 8.5 的新特性正是为了解决这些工程痛点而生。

基于 PHP 8.5 特性的重构

不可变 DTO:利用 clone with 保证数据一致

直接修改请求数据会增加系统的不确定性。利用 PHP 8.5 的 clone with 特性,可以轻松实现不可变对象,确保数据传递过程不被篡改。

namespace App\Dto;

readonly class SaveProductDto {
    public function __construct(
        public string $name,
        public int $price,
        public string $status = 'draft'
    ) {}

    // PHP 8.5 克隆增强:单行实现局部属性更新
    public function updateStatus(string $status): self {
        return clone($this, ['status' => $status]);
    }
}

业务流水线:巧用管道操作符 ( |> )

这可是 PHP 8.5 的重要更新。有了它,Service 层的数据处理告别了剥洋葱式的嵌套,转变为自上而下的流水线模式。

namespace App\Service;

class TextProcessor {
    public function format(string $input): string {
        // 逻辑流向清晰,不再需要嵌套函数调用
        return $input
            |> trim(...)
            |> strtolower(...)
            |> (fn($s) => str_replace(['_', '/'], '-', $s))
            |> array_first(...); // 配合 PHP 8.5 原生数组函数
    }
}

安全屏障:强制处理 #[NoDiscard]

在涉及资金或权限的业务中,校验结果必须被处理。PHP 8.5 的 #[NoDiscard] 属性,就可以从语法层面防止开发者疏忽。

namespace App\Service;

class AuditService {
    #[NoDiscard("校验结果必须被处理,禁止直接忽略返回值")]
    public function check(int $uid): bool {
        return $uid > 0;
    }
}

// 在业务层逻辑中:
// 如果直接调用 $this->auditService->check($id),PHP 8.5 会触发警告
if ($this->auditService->check($uid) === false) {
    throw new AuditException("审核未通过");
}

现代工具箱:原生 URI 与数组函数

不再需要编写复杂的正则表达式或调用过时的函数。

use Uri\Rfc3986\Uri;

public function notify() {
    // 使用 PHP 8.5 原生 URI 解析
    $uri = new Uri($this->request->getUri());
    $path = $uri->getPath(); 

    // 使用 array_last 替代繁琐的数组操作
    $lastPart = array_last(explode('/', $path));
}

薄控制器:职责清晰的胶水层

重构后的控制器不再负责业务细节,只负责流程调度。

class ProductController extends AbstractController {
    #[Inject]
    protected ProductService $service;

    public function create(): ResponseInterface {
        // 数据清洗、转换 DTO、调用服务,流程一目了然
        $dto = ProductDto::fromRequest($this->request->all());
        $data = $this->service->execute($dto);

        return $this->response->json(['status' => 'ok', 'data' => $data]);
    }
}

错误溯源与系统严谨性

所有的重构逻辑都需要稳定的环境支持。

用 ServBay 就能够一键部署完整的 PHP 环境,并且多个 PHP 版本同时运行。这让开发者可以在不干扰现有项目的前提下,快速上线最新的环境来实践这些现代化的架构思维。

image.png

不再需要把时间浪费在繁琐的环境配置上,工作效率就是皖南坐飞机,芜湖起飞。

架构决定上限

低效的环境只会拖后腿,可不关语言的事。语言只是工具,如何使用工具决定了项目的上限。不要再让PHP背锅了。

全文链接:https://tecdat.cn/?p=45100
原文出处:拓端数据部落公众号
 

封面

关于分析师

在此对Mou Ni对本文所作的贡献表示诚挚感谢,他完成了数据科学专业的硕士学位,专注深度学习与生成式人工智能领域。擅长Python、LangChain、FastAPI、大语言模型应用开发。他曾在多个数据科学项目中担任核心开发角色,专注于将前沿AI技术转化为实际应用,在构建RAG系统、模型微调与部署方面积累了丰富经验。

引言

在企业数字化转型的浪潮中,我们常遇到这样一个痛点:海量的业务文档、研究报告、技术手册堆积如山,当需要从中寻找某个特定答案时,员工往往要花费数小时甚至数天进行翻阅。这不仅是效率的浪费,更是知识资产沉睡的体现。

本文内容改编自过往客户咨询项目的技术沉淀并且已通过实际业务校验,该项目完整代码已分享至交流社群。阅读原文进群获取更多最新AI见解和行业洞察,可与900+行业人士交流成长;还提供人工答疑,拆解核心原理、代码逻辑与业务适配思路,帮大家既懂 怎么做,也懂 为什么这么做;遇代码运行问题,更能享24小时调试支持。

本文将引导您一步步构建一个基于FastAPI的RAG( 检索增强生成 **)系统。我们会先梳理RAG的核心概念与FastAPI的优势,随后深入代码实现,打造一个能够接收PDF或TXT文档、对其内容进行索引、并回答用户问题的API服务。最后,我们还会探讨HTTP状态码的工程意义,并展望系统的优化方向。

理解REST API

REST API 是一种接口,用于在客户端和服务器之间建立通信。REST API 是 Representational State Transfer API 的缩写。客户端可以向特定的 API 端点发送 HTTP 请求,服务器负责处理这些请求。存在不少HTTP方法。其中几项我们会用FastAPI在项目中实现。

HTTP 方法:
 

检索增强生成与FastAPI:为何是黄金组合?

在我们动手之前,先来理解两个核心概念:RAG和FastAPI,并探讨为什么它们是天作之合。

什么是RAG?

RAG,即检索增强生成,是一种让 大语言模型 **能够利用外部知识库的技术。它就像一个开卷考试的学生:面对问题(查询),他首先快速翻阅参考资料(检索相关文档片段),然后结合资料和自己的理解,组织出一个精准的回答(生成)。

RAG的核心由两部分构成:

  • 检索器:负责根据用户问题,从文档库中快速找到最相关的信息片段。
  • 生成器:大语言模型,将检索到的信息片段作为上下文,结合问题生成最终答案。

这种架构有效解决了大语言模型知识截止、幻觉等问题,是连接通用大模型与私有数据的最佳桥梁。

– 为本项目创建一个虚拟环境(以隔离项目的依赖关系)。

为什么选择FastAPI?

FastAPI是一个现代、高性能的Python Web框架,专为构建API而生。它在本次项目中的优势显而易见:

  • 自动生成交互式文档:只需编写代码,FastAPI就能自动生成Swagger UI,我们可以在浏览器中直接测试API,无需额外开发前端。
  • 基于Python类型提示:利用Pydantic模型,它能自动进行请求体验证和序列化,减少大量模板代码。
  • 异步支持:天然支持异步请求处理,非常适合I/O密集型任务,如文件读取和网络调用。
  • 高性能:得益于Starlette和Pydantic,其性能可与Node.js、Go相媲美。

结合RAG与FastAPI,我们可以快速将一个智能文档 问答 **系统封装成易于集成的API服务。

项目实战:打造文档智能问答API

接下来,我们进入核心环节——代码实现。我们的目标是创建两个API端点:

  • /ingest:接收用户上传的PDF或TXT文档,将其分块、向量化并存入FAISS索引。
  • /query:接收用户问题,检索相关文档块,并调用大语言模型生成答案。

环境准备与依赖安装

首先,确保您已完成以下准备工作:

  1. 获取OpenAI API密钥,并在项目根目录创建.env文件,添加:

    OPENAI_API_KEY=您的密钥
  2. 创建并激活Python虚拟环境,安装依赖库。requirements.txt内容如下(版本号已做调整,确保兼容性):
fastapi
uvicorn[standard]
python-multipart
langchain
langchain-community
langchain-openai
faiss-cpu
openai
pypdf
python-dotenv

使用命令 pip install -r requirements.txt 一键安装。

核心模块:rag_pipeline.py

这个脚本封装了RAG的所有核心逻辑,包括文档加载、文本分块、向量存储、检索与生成。我们将代码模块化,便于维护和调用。

# 全局向量存储对象,用于跨请求共享
vector_store: FAISS | None = None
embeddings = OpenAIEmbeddings(model=EMBEDDING_MODEL_NAME)
def _load_vector_store() -> FAISS | None:
    """从本地磁盘加载已存在的FAISS索引。"""
    global vector_store
    if vector_store is None and os.path.exists(VECTOR_STORE_PATH):
        vector_store = FAISS.load_local(
            VECTOR_STORE_PATH,
            embeddings,
            allow_dangerous_deserialization=True
        )
    return vector_store
def process_document(file_path: str, display_filename: str = "") -> int:
    """
    处理上传的文档:加载、分块、向量化并存入FAISS。
    返回被索引的文本块数量。
    """
    global vector_store
    # 1. 根据文件扩展名选择加载器
    if file_path.endswith(".pdf"):
        loader = PyPDFLoader(file_path)
    else:
        loader = TextLoader(file_path)
    documents = loader.load()
    # 为所有文档块添加来源文件名
    source_name = display_filename or os.path.basename(file_path)
    for doc in documents:
        doc.metadata["source"] = source_name
    # 2. 文本分块
    splitter = RecursiveCharacterTextSplitter(
        chunk_size=CHUNK_SIZE,
        chunk_overlap=CHUNK_OVERLAP,
        separators=["\n\n", "\n", ".", " ", ""]
    )
    chunks = splitter.split_documents(documents)
# 代码中省略了部分错误处理和细节优化,完整代码请进群获取。
......

API服务:main.py

现在,我们使用FastAPI将上述功能暴露为RESTful API。这里定义了请求/响应模型和三个端点。

import os
import tempfile
from fastapi import FastAPI, UploadFile, File, HTTPException
from pydantic import BaseModel
from rag_pipeline import process_document, query_rag
app = FastAPI(
    title="文档智能问答API",
    description="上传文档并进行检索增强生成式问答",
    version="1.0.0"
)
# 允许的文件类型
ALLOWED_FILE_TYPES = {
    "application/pdf": ".pdf",
    "text/plain": ".txt",
}
class QueryRequest(BaseModel):
    question: str
    top_k: int = 4
class QueryResponse(BaseModel):
    answer: str
    sources: list[str]
@app.get("/health", tags=["系统状态"])
async def health_check():
    """健康检查端点,用于确认服务是否运行。"""
    return {"status": "running"}
@app.post("/ingest", tags=["文档处理"])
async def ingest_document(file: UploadFile = File(...)):
    """
    上传文档(.txt 或 .pdf),系统将自动进行分块、向量化并存储。
    """
    if file.content_type not in ALLOWED_FILE_TYPES:
# 代码中省略了更复杂的验证逻辑和自定义异常处理,完整代码请进群获取。
......

启动服务只需在终端执行:

uvicorn main:app --reload

访问 http://127.0.0.1:8000/docs,您将看到自动生成的Swagger UI界面,所有API都可以在这里进行测试。

    • *

相关文章

DeepSeek、LangGraph和Python融合LSTM、RF、XGBoost、LR多模型预测NFLX股票涨跌|附完整代码数据

原文链接:https://tecdat.cn/?p=44060

    • *

测试与验证

文档上传与索引(/ingest)

在Swagger UI中点击/ingest端点,尝试上传一个PDF文件(例如我们为您准备的一篇关于机器学习应用的文章)。

点击“Execute”后,如果成功,您将看到如下响应,表明文档已被成功分块并索引。

此时,项目目录下会生成faiss_index文件夹,里面保存了向量索引文件,即使服务重启,数据也不会丢失。

智能问答(/query)

接下来,测试/query端点。输入一个问题,例如“机器学习有哪些应用?”,并设置top_k=4

点击Execute后,系统会返回答案以及答案所依据的文档来源。

您可以看到,答案准确地基于上传文档的内容生成,并且指明了来源,增强了可信度。

深入理解HTTP状态码:API的通用语言

在开发API时,合理使用HTTP状态码至关重要,它们用简洁的代码向客户端传达了请求的处理结果。我们的系统也遵循了这一规范。

  • 2xx 成功:如200 OK,表示请求成功。我们的/health/ingest/query在正常处理时都会返回200。
  • 4xx 客户端错误:表示问题出在客户端发送的请求上。例如:

    • 400 Bad Request:当上传了不支持的文件类型,或问题为空时,我们的API会返回此状态码。
    • 422 Unprocessable Entity:当请求体不符合Pydantic模型定义时,FastAPI会自动返回此状态码。
  • 5xx 服务器错误:表示服务器端在处理请求时发生意外。例如,若FAISS或OpenAI调用失败,我们的API会捕获异常并返回500 Internal Server Error

正确使用状态码,能让API更加健壮和易用。

总结与展望

通过本文,我们成功地构建并部署了一个基于FastAPI的RAG系统。该系统能够:

  1. 接收并索引PDF或TXT文档。
  2. 根据用户提问,从文档中检索相关信息。
  3. 利用大语言模型生成精准的答案。

这个项目不仅展示了RAG技术的落地过程,也体现了FastAPI在构建AI服务时的高效与便捷。您可以将此系统应用于企业知识库问答、智能客服、研究报告分析等场景。

展望未来,我们可以从以下几个方面进行优化:

  • 检索策略优化:除了简单的相似度搜索,可以尝试MMR(最大边际相关性)检索,平衡结果的相关性与多样性。
  • 分块策略优化:根据文档类型和语言,调整分块大小和重叠部分,或采用语义分块。
  • 多路召回:结合关键字检索(如BM25)与向量检索,提高召回率。
  • 前端界面:为API开发一个简单的聊天界面,提升用户体验。

我们鼓励您动手实践,并期待您在交流社群中分享您的改进与应用!

封面

今日速览

  1. Krisp Accent Conversion:实时消除口音障碍,让全球沟通更顺畅。
  2. Qwen3.5 Small:本地多模态模型,智能更强,计算更省。
  3. Deep Personality:科学评估个性,一小时读懂自己和伴侣。
  4. getviktor.com:AI 同事主动执行任务,告别繁琐手动操作。
  5. SuperMoney:AI 理财助手帮你省钱,优化债务轻松规划。
  6. Springfield Oracle:辛普森预言数据库,验证真假预测。
  7. Lavalier AI:面试智能提速招聘,自信决策快人一步。
  8. Mailercloud Email API Platform:每秒千封邮件,送达率超 99%。
  9. Skyvern MCP & Skills:让 AI 代理自动化网站,解放你的创造力。
  10. Secret Sauce 3D:AI 工具套件,加速 3D 艺术家工作流。

1. Krisp Accent Conversion

这款神器能帮你瞬间理解带口音的英语,它实时将口音转换为中性美式英语,让全球团队沟通不再卡壳。

  • 完全在设备本地运行,零延迟处理
  • 支持 Zoom、Teams 和 Meet 等主流平台
  • 无需说话者改变方式,听众端直接优化
  • 专为跨国协作设计,减少重复提问

热度:🔺349

Krisp Accent Conversion
访问官网 Product Hunt 详情


2. Qwen3.5 Small

Qwen 新推出的小型模型系列,原生多模态,智能升级却更省资源,适合边缘设备跑起来。

  • 包括 0.8B、2B、4B 和 9B 多种尺寸
  • 架构改进,强化学习增强
  • 0.8B 和 2B 模型轻快,适合边缘部署
  • 4B 模型作为轻量级代理基础,9B 逼近大模型性能

热度:🔺333

Qwen3.5 Small
访问官网 Product Hunt 详情


3. Deep Personality

比十次心理咨询更高效,这款工具用科学评估帮你深度剖析个性,改善人际关系。

  • 提供 28 项基于研究的评估,覆盖个性、依恋风格等
  • 过程不超过一小时,快速生成 AI 分析报告
  • 揭示行为模式、盲点和优势
  • 支持对比功能,深入分析伴侣、朋友或同事关系

热度:🔺314

Deep Personality
访问官网 Product Hunt 详情


4. getviktor.com

这不是普通聊天机器人,而是你的 AI 同事,它驻留 Slack,主动搞定任务,让团队效率飙升。

  • 连接 3000 多个工具,自主行动
  • 观察团队工作方式,提前发现问题
  • 建议自动化方案,管理活动、构建应用、生成报告
  • 持续运行数周不丢上下文,深度学习公司运作

热度:🔺286

getviktor.com
访问官网 Product Hunt 详情


5. SuperMoney

AI 个人财务应用,不止记账,更能主动帮你省钱减压,规划财务未来。

  • 追踪开支,提供个性化省钱建议
  • 优化债务结构,寻找更好选择
  • 保持财务计划清晰,指导下一步行动
  • 智能助手全天候服务,缓解金钱焦虑

热度:🔺221

SuperMoney
访问官网 Product Hunt 详情


6. Springfield Oracle

辛普森一家的预言满天飞,这个数据库帮你验证真假,终结 AI 假视频的混乱。

  • 记录每一个预测,提供剧集引用和真实事件出处
  • 进行诚实的事实核查,评分真实性
  • 区分真实预测和虚假生成内容
  • 为流行文化爱好者打造可靠参考源

热度:🔺173

Springfield Oracle
访问官网 Product Hunt 详情


7. Lavalier AI

面试智能工具,帮你提升招聘标准,决策时间减半,快速锁定合适人才。

  • 轻松定义招聘职位,生成技能评估问题
  • 基于统一标准比较候选人
  • 缩短招聘流程,提升决策自信
  • 注册即送 500 积分,免费招聘多个职位

热度:🔺168

Lavalier AI
访问官网 Product Hunt 详情


8. Mailercloud Email API Platform

开发者福音,这款邮件 API 每秒发送超千封,送达率 99%+,确保重要信息不丢失。

  • 支持事务性和营销邮件高速发送
  • 专为 SaaS、金融科技和成长企业设计
  • 提供实时跟踪、Webhook 支持和域名认证
  • 收件箱监控功能保障邮件准确送达

热度:🔺160

Mailercloud Email API Platform
访问官网 Product Hunt 详情


9. Skyvern MCP & Skills

让 Claude 等 AI 代理自动化网站操作,学习、注册、维护全包,释放你的精力。

  • MCP 平台支持代理在新网站注册自动化流程
  • 子代理学习网站,自主创建和维护自动化
  • 适用于 Claude Code 和 OpenClaw 等工具
  • 提高效率,让代理专注核心任务

热度:🔺139

Skyvern MCP & Skills
访问官网 Product Hunt 详情


10. Secret Sauce 3D

3D 艺术家的 AI 工具箱,从模型生成到纹理处理,每一步都输出可编辑文件。

  • 生成高多边形起始模型,分割优化几何结构
  • 创建 UV 贴图,建立纹理基础
  • 输出可编辑格式,无缝对接现有工作流
  • 加速创作过程,减少重复劳动

热度:🔺135

Secret Sauce 3D
访问官网 Product Hunt 详情

现在开发中遇到跨工程或者跨端开发的问题,一个需求涉及到多个服务,或者涉及多端。
但是 AI 编码是在单个服务内,这种编码大家是怎么解决的

原文链接:https://tecdat.cn/?p=45099
原文出处:拓端抖音号@拓端tecdat
 

封面

引言

“我一个人,一台手机,一个账号,一个月赚了60万。” 这不是神话,而是2026年正在发生的现实。当AI让编程门槛归零,当算法把流量精准推给每一个有想法的普通人,传统的雇佣关系正在被一种全新的工作主体撕裂——超级个体,或者更正式地说,一人公司(One-Person Company, OPC)。他们用AI替代了团队,用个人品牌替代了公司背书,用订阅制替代了项目制,在内容、工具、服务、文创等赛道里跑出了千万级估值。

但硬币的另一面是:工具选型错误导致开发周期翻倍,个人品牌定位模糊让粉丝流失,平台政策变动一夜归零。如何从“野生”状态进化成真正的“超级个体”?本报告洞察基于北京大学《2026年Agentic Coding:从Vibe Coding到超级个体的进化之路》、清华大学《2026一人公司(OPC)发展研究报告》等核心报告,结合9张核心数据图表,为你拆解超级个体的技术底座、能力模型、变现路径与生态红利。

文末附6份AI与个体经济行业研究报告、数据和更多AI教程,本文完整报告图表和数据已分享在交流群,阅读原文查看、进群咨询,定制数据、报告和800+行业人士共同交流和成长。

第一章 超级个体:从概念到现实

1.1 定义:一个人就是一家公司

“一个人完成完整的商业闭环,且利用新媒体渠道构建个人品牌,实现规模化。”这是混沌学园《超级个体计划》给出的定义。它不再是自由职业者,而是一个具备完整商业人格的微型企业。清华大学报告更进一步指出:在AI赋能下,一人公司甚至可以建立估值超60亿元的独角兽企业。


图表5:超级个体构成要素解析(刻度线图)
完成商业闭环、利用新媒体、实现规模化、基础设施决心——这四项要素缺一不可。其中“基础设施”被简化到极致:一台手机、一个账号、一份决心。数据EXCEL及图表PDF模板已分享到会员群。

1.2 市场基础:平台与认知的双重觉醒

美国已有35%的劳动力是自由职业者,而国内,AIGC赋能提及率高达90%,个人品牌护城河认同度同样达到90%。这些数据来自混沌学园和画小二的报告。


图表4:超级个体崛起的市场基础与认知数据(雷达图)
美国自由职业者占比35%,“一个人等于一个团队”认同度90%,AIGC赋能提及率90%,个人品牌护城河认同度90%。数据EXCEL及图表PDF模板已分享到会员群。

1.3 驱动力:AI填平技能洼地

清华大学报告提出“能力液态化”概念:AI让获取技能的边际成本趋近于零。开发者不再需要手写每一行代码,而是通过“氛围编程”(Vibe Coding)用自然语言驱动AI生成代码。北京大学报告指出,2025年11月Claude Opus 4.6和GPT-5.2的发布,让Agentic Coding成为现实——AI能自主完成复杂重构任务,将开发者从代码编写者变为指挥官。

第二章 技术底座:AI编程工具与平台生态

2.1 工具进化:从Copilot到Agent

2026年,AI编程工具已分化为五大阵营:IDE派(Cursor、Antigravity)、全能派(OpenAI Codex)、终端派(Claude Code)、开源派(OpenCode)和中国力量(Trae、Qoder、CodeBuddy)。它们最核心的差异在于上下文窗口——决定了AI能同时理解多少代码。


图表1:主要AI编程工具上下文窗口对比(横向比例条形图)
Antigravity以100万Tokens领先,Claude Code、Cursor均为20万,OpenCode 25.6万,Trae 12.8万。百万级窗口让AI能洞察整个代码库依赖,支撑长程任务自主闭环。数据EXCEL及图表PDF模板已分享到会员群。

    • *

相关文章

专题:2025年游戏科技的AI革新研究报告:全球市场趋势研究报告|附130+份报告PDF、数据仪表盘汇总下载

原文链接:https://tecdat.cn/?p=44082

    • *

北京大学报告强调:上下文窗口的大小决定了AI处理复杂项目的能力。Antigravity甚至能直接加载整个Monorepo,无需RAG。

2.2 流量沃土:亿级平台矩阵

超级个体的商业变现离不开流量平台。清华大学报告统计了中国主流内容与电商平台的用户规模:


图表2:中国主流内容与电商平台用户规模(刻度线图)
抖音日活6亿,小红书月活3亿,闲鱼月活2亿。这些平台构成了“氛围经济”与“敏捷服务”的落地主场。数据EXCEL及图表PDF模板已分享到会员群。

2.3 政策红利:平台争相赋能

各大平台为争夺优质创作者,纷纷推出扶持计划:


图表9:各大内容平台对超级个体的扶持政策(刻度线图)
快手1V1运营,微博站外激励,B站十万粉冲刺,小红书官方推荐。平台通过流量、资金和专属服务降低启动门槛。数据EXCEL及图表PDF模板已分享到会员群。

第三章 能力模型:定位、产品与变现

3.1 个人品牌定位:内外六大元素

“定位是起点。”混沌学园《个人品牌》报告提出,打造超级个体需平衡内部(热爱、信任理由、差异化优势)与外部(受众、需求、竞品)六大元素。


图表6:个人品牌定位六大核心元素分析(刻度线图)
以“Kris在路上”为例:央财博士、减肥经历构建信任,服务25-45岁城市女性,差异化在于真诚利他的社群陪伴。数据EXCEL及图表PDF模板已分享到会员群。

3.2 产品化:把经验变产品

混沌学园《超级个体计划》指出:作品是认知体系,产品是长期积累的精炼化输出。从定位到产品,需要经历“作品产品化”的过程。例如,画小二将AIGC技能转化为付费课程、训练营,实现可持续收入。

3.3 变现图谱:从C端到B端

超级个体的变现模式已非常多元。清华大学报告归纳了五大类别:AI工具类、AI内容类、AI服务类、AI文创类、AI优化交易类。我们选取典型赛道估算月收入中值:


图表3:AI赋能下OPC典型赛道月收入中值(灰底比例条形图)
AI内容类约5万/月,AI服务类15万/月,AI工具类30万/月(换算为人民币)。数据EXCEL及图表PDF模板已分享到会员群。

画小二提供的具体案例更震撼:


图表8:基于AIGC能力的超级个体变现案例金额(气泡图)
一组PFP头像卖了3.8万元,AIGC漫画7000元,AI微短剧/宣传片预算达100万元,训练营单价5000元。数据EXCEL及图表PDF模板已分享到会员群。


图表7:代表性超级个体关键商业数据(半圆图)
全网粉丝矩阵规模100万,单项目最高对接预算100万,AIGC数字头像销售单价3.8万,AIGC漫画销售单价7000元,单平台年变现规模千万级别。数据EXCEL及图表PDF模板已分享到会员群。

3.4 3秒解读与行动建议

  • 3秒解读:AI让个人生产能力指数级放大,从“卖时间”转向“卖资产”。
  • 行动建议:内容创业者可先试水AI头像/漫画,验证审美;技术创业者可开发轻量级AI工具模板,走订阅制;专业服务者可将知识封装为AI咨询Agent,实现1对N服务。

第四章 风险与挑战:别踩这些坑

4.1 AI废料与维护成本

北京大学报告警示:AI生成的代码虽快,但质量一致性差,代码变更率高达41%(人类15%),重复率12.3%,导致维护成本飙升4倍。企业发现,修复AI生成的坏代码比从头写更耗时。

应对方案:建立严格的代码审查机制,使用Claude Code的“检查点系统”实现原子化回滚,或在团队中推行OpenCode的“本地模型”确保数据主权。

社群支持:加入我们的技术交流群,获取《AI代码质量审查清单》和开源工具包。

4.2 隐性知识鸿沟

顶尖AI代理在公开库测试成功率超70%,但在私有企业代码库中仅23%——因为缺乏对“隐性知识”(未成文的架构约定、历史补丁逻辑)的理解。

应对方案:使用Qoder的RepoWiki自动生成知识图谱,或通过Skills系统将团队最佳实践固化。

4.3 个人品牌疲劳期

混沌学园指出:“用户对一个人的兴趣大概是3个月。”内容创作者必须不断迭代,避免被遗忘。

应对方案:采用“一鱼多吃”策略,将同一内容转化为图文、短视频、直播、课程等多种形式,同时保持“5:3:2”内容比例(读者相关:个人故事:产品)。

4.4 封号风险(以Claude Code为例)

北京大学报告特别提到Claude Code的封号诱因:使用数据中心IP、第三方封装工具、多设备登录等。避坑指南:使用固定原生住宅IP,禁用WebRTC,每账号独立浏览器环境。

第五章 行动清单:下周可做的三件事

  1. 测试你的AI工具组合

    • 如果你是技术型,尝试用Cursor+Claude Code搭建一个简单的SaaS模板,记录从需求到部署的全流程耗时。
    • 如果你是创意型,用Midjourney+剪映生成10个不同风格的短视频背景,上传到小红书测试流量反应。
  2. 定位你的个人品牌

    • 花2小时填写混沌学园提供的“个人品牌定位书”,明确你的内心热爱、信任理由、差异化优势以及目标受众。
    • 用“3个问题”问自己:你离开房间后别人如何评价你?看到你别人脑海里的第一标签是什么?你卖什么产品用户更愿意下单?
  3. 调研平台扶持政策

    • 登录快手、微博、B站、小红书的创作者平台,查找当前的激励计划(如B站的“十万粉冲刺计划”),选择1-2个最匹配的平台重点运营。

第六章 核心报告对比与数据表格

6.1 五份报告核心结论对比

报告名称核心结论数据差异原因分析
北京大学《2026年Agentic Coding》AI编程工具进入Agentic时代,上下文窗口决定能力工具窗口从12.8万到100万Tokens技术路线不同:Antigravity采用原生长文本,OpenCode用自动压缩
清华大学《2026一人公司(OPC)发展研究报告》OPC是AI时代主流创业结构,五大赛道收入可观平台用户规模:抖音6亿DAU,小红书3亿MAU统计口径:日活vs月活
混沌学园《个人品牌·超级个体时代》个人品牌定位需平衡内外六大元素“Kris在路上”粉丝100万+,年变现千万案例特殊性,不代表整体
混沌学园《超级个体计划》超级个体是职场第三选择,能力模型=独特知识×小众深需美国自由职业者占比35%来源:美国劳工统计局
画小二《AIGC时代超级个体》AIGC变现案例:头像3.8万,漫画7000元价格差异因项目复杂度个案数据,不可直接复制

6.2 关键数据表格(图表方案原始数据)

图表1数据:AI编程工具上下文窗口

工具Tokens
Antigravity1,000,000
Claude Code200,000
Cursor200,000
OpenCode256,000
Trae128,000

图表2数据:平台用户规模

平台用户规模(百万)
小红书300 (MAU)
抖音600 (DAU)
闲鱼200 (MAU)

图表3数据:OPC赛道月收入中值

赛道月收入中值(人民币)实际范围
AI内容类50,000数千至数十万
AI服务类150,000数万至数十万
AI工具类300,000数万美元/月

图表4数据:超级个体认知指标

指标占比
美国自由职业者占比35%
一个人等于一个团队认同度90%
AIGC赋能提及率90%
个人品牌护城河认同度90%

图表5数据:超级个体构成要素

要素存在
完成商业闭环1
利用新媒体1
实现规模化1
基础设施决心1

图表6数据:个人品牌定位六大元素

元素类型存在
内心热爱内部1
信任理由内部1
差异化优势内部1
市场受众外部1
客户需求外部1
对标竞品外部1

图表7数据:超级个体关键商业数据

指标数值
全网粉丝矩阵规模1,000,000 人
单项目最高对接预算1,000,000 元
AIGC数字头像销售单价38,000 元
AIGC漫画销售单价7,000 元
单平台年变现规模级别10,000,000 元

图表8数据:AIGC变现案例金额

案例金额(元)
PFP头像38,000
AIGC漫画7,000
AI微短剧/宣传片1,000,000
AI训练营单价5,000
其他案例100,000

图表9数据:平台扶持政策

平台有扶持政策
快手1
微博1
B站1
小红书1

封面

本专题内的参考报告(PDF)目录

  • 北京大学:2026年Agentic Coding:从Vibe Coding到超级个体的进化之路.pdf
  • 画小二:AIGC时代超级个体.pdf
  • 混沌学园-个人品牌·超级个体时代,如何利用个人品牌?.pdf
  • 混沌学园PPT-超级个体计划:把经验变产品,把专业变事业.pdf
  • 清华大学:2026一人公司(OPC)发展研究报告.pdf
  • 。。。。。。

近日,一个名为“OpenClaw Exposure Watchboard”的公开监控页面引发行业关注。

 

网页上,列出了超 22 万个暴露在公网的 OpenClaw 实例,覆盖美国、新加坡、中国大陆等多个地区。作者明确提示:如果这是你的部署,应立即启用身份验证、移除公网暴露并打补丁。

页面显示,每条记录包含公网 IP 与端口(多数为 18789 端口)、是否启用认证(Auth Required)、是否在线(Is Active)、是否存在凭证泄露(Has Leaked Creds)、以及所属运营商 ASN 信息等字段。

 

值得注意的是,大量实例的“Auth Required”字段为空,意味着未启用访问认证。同时,“Has Leaked Creds”一栏中有不少被标记为“Leaked”(红色),表明可能检测到明文凭证或 API Key 暴露风险。这意味着,部分运行中的 AI Agent 服务不仅对外开放,而且可能存在敏感信息泄露隐患。

 

从 ASN 信息来看,这些实例托管在包括腾讯、甲骨文、百度、阿里、华为

Hostinger、BedHosting 等云基础设施或数据中心网络中,显示出部署主体可能并非个人开发者设备,更多或涉及企业或生产环境。

 

OpenClaw 作为一类可执行“自主智能体”的运行环境,与传统 Web 服务存在本质差异。智能体通常具备调用外部工具、访问数据库、执行代码或与第三方 API 交互的能力。一旦未经鉴权暴露在公网,其潜在风险远高于普通网站端口开放,可能导致数据泄露、权限滥用甚至业务系统被远程操控。

 

通过该网站可以看出,一方面,Agent 正在快速进入真实生产环境,并且部署量已经爆炸;另一方面,Agent 在被大量“裸奔部署”,很多开发者本地测试成功后直接上云,开公网端口、没加鉴权等,配套安全治理能力尚未完全成熟。

Warper是一个由 Rust 和 WebAssembly 驱动的开源 React 虚拟化库,近日发布了 7.x 版本,带来性能优化、改进的打包工具兼容性以及更完善的开发者工具支持。

 

Warper 7.2 引入了多项改进,包括在性能关键路径中使用 TypedArrays 实现零分配、用于帧时间统计的 O(1) 环形缓冲区操作、对主流打包工具的全面支持,以及适配不同设备视口的响应式示例。

 

该库在虚拟化实现上采取了与众不同的方式:将滚动计算卸载到由 Rust 编译而成的 WebAssembly 模块中。包括二分查找、范围计算和偏移量查找等性能关键操作,都在编译后的 WASM 中运行,而非 JavaScript。库内部维护了一棵 Fenwick 树(又称二叉索引树)来记录元素高度,从而支持 O(log n) 的前缀和查询,以及针对固定高度元素的 O(1) 查找。

 

v7 的一个关键变化是在性能关键路径中用 TypedArrays(如 Int32Array、Float64Array)替代普通数组,从而在滚动过程中消除垃圾回收压力。本次发布还将用于帧时间统计的 push()/shift() 操作替换为常数时间复杂度的环形缓冲区操作,解决了早期版本中因频繁分配带来的性能问题。

 

开始使用 Warper 只需安装一个包:

npm install @itsmeadarsh/warper
复制代码

 

基础用法通过 useVirtualizer hook 实现,该 hook 会返回用于渲染的可视范围和偏移量:

import { useVirtualizer } from "@itsmeadarsh/warper";
复制代码

 

Warper 声称相比现有方案具有显著的性能优势。根据开发者在 Reddit 上分享的基准测试数据,在 100,000 个项目的测试中,react-window 的帧率约为 40 FPS,而 Warper 达到 120 FPS。当项目数量增加到 1,000,000 时,差距进一步扩大:react-window 降至约 12 FPS,而 Warper 仍维持在 118 FPS。

 

React 虚拟化领域已有多个成熟库。react-window 近期发布了2.0 版本,支持自动尺寸计算和原生 TypeScript,压缩后体积约 6KB,是当前最轻量的选项。TanStack Virtual 提供无头(headless)、与框架无关的方案,体积约 12KB。react-virtualized 功能丰富,但压缩后约 25KB,通常被视为较重的选择。Warper 压缩后约 8.7KB,是这一组中唯一使用 WebAssembly 引擎的库。

 

社区反馈褒贬不一。在Reddit上,有用户对这一技术路线表示赞赏,但质疑实际需求:

宣传的数据确实很惊人。但说实话,谁真的需要渲染 1000 万条数据?

 

另一位用户回应:

1000 万条只是压力测试,用来展示在极端大规模场景下的表现。但在金融行业等领域,确实存在需要处理 1000+ 行表格的场景。

 

还有一些用户报告了在 Firefox 中的兼容性问题,其中一位指出:

给出的示例在 Chrome 中滚动到 588,673 行就无法继续了,所以“支持 100 万+ 行”的说法,在我测试的浏览器中并未得到验证。

 

对此,作者回应:

我猜这是 Chrome 默认的最大滚动限制。

 

在包体积方面,该项目也有明显改进。早期开发版本体积超过 50KB,而开发者已将其优化至压缩后约 5.9KB,并表示性能没有损失。目前已默认支持 Vite、Webpack、Rollup、esbuild、Parcel 以及 Next.js 等主流打包工具。

 

相关文档可在项目的GitHub 代码库中查看。Warper 以 MIT 许可证开源发布。

我是和我老婆一起在西澳大学读计算机的研究生,为什么要去澳洲读研,原因很多

  • 出国留学算是一个梦想
  • 计算机研究生学历对我有用,我本科读的不是计算机相关的
  • 之前去新西兰玩过,遇到一个华人老奶奶,聊过她早年的留学经历,算是有影响
  • 稍微有点厌倦了当前的生活和工作
  • 老婆支持我的想法,而且我们行动一致
  • 美国太贵,加拿大太冷,英国一年制太短了,新西兰经济不行
  • 以后孩子的教育问题,现在孩子学习压力真的很大,有些家长卷孩子到读国际学校,那还不如父母直接来英语国家

再说下目前发现的澳洲优缺点

优点

  • 气候好,Perth 这个城市因为是地中海气候,冬暖夏凉
  • 自然环境没得说,可以说基本没有丑的地方吧,空气质量更不用说了,过来鼻炎都轻了很多
  • 抽烟的很少,因为我本人很讨厌烟味
  • 澳元购买力强,拿宜家举例,一样的东西就比国内贵 20%左右,要知道澳洲最低工资是每小时大概 120 人民币

缺点

  • Perth 不算大城市,娱乐活动较少
  • 紫外线强,容易被晒黑
  • 消费高,最基本吃一餐,70 人民币左右
  • 到处都是蚂蚁
  • 周末很多店都关门了,除了市中心,基本没有便利店,生活便利性上差了点

当然最大的问题,还是整个生活方式的转变,以及未来的不确定性。至于要不要留在澳洲,我们也并没有很明确的打算,走一步看一步。

QQ 音乐 SVIP8 用户,实在是用不下去了。

开屏广告可以用小火箭屏蔽,就不说了。APP 内见缝插针的广告位,各种强行打断用户操作的弹窗。那个金币系统,每天都要被恶心一次。明明是自己的运营 KPI ,非要包装成福利强塞给付费用户。都开 SVIP 了,差你那几分吗?

尝试各种方式跟官方反馈过了,没有任何改善,到期后肯定不会再续费了。

背景

在SpreadJS实际开发中,行监听事件是实现表格交互逻辑的核心能力之一,但RowChanged、RowHeightChanged、RowOperation、TableRowsChanged、TopRowChanged这5类行监听事件,因功能相近、命名关联度高,极易被开发者混淆。不少开发者因误用事件,不仅增加了调试成本,还可能引发功能异常(如监听表格组件行变化却误用集算表专属的RowChanged)。基于此,本文先明确各事件核心差异结论,再逐一拆解细节,帮助开发者快速厘清、精准选型。

核心结论

SpreadJS中RowChanged、RowHeightChanged、RowOperation、TableRowsChanged、TopRowChanged 5大行监听事件,核心差异在于「监听对象、适用范围、触发时机」:普通工作表行整体变化用RowChanged;行高专属变化用RowHeightChanged;集算表(TableSheet)的用户主动操作监听用RowOperation,表格(Table)的结构变化结果监听用TableRowsChanged;滚动时可视顶部行变化用TopRowChanged。开发者可根据“适用范围+变化类型”快速选型,下文展开具体细节。

核心前提

行监听事件核心是捕捉表格行的各类变化并触发自定义操作,核心区分维度:
① 适用范围(普通工作表sheet/表格组件TableSheet/table/所有工作表);
② 变化类型(行整体状态/行高/用户操作行为/行结构/滚动顶部行)。

5大行监听事件详解(精简版)

1. RowChanged

核心定位:普通工作表(sheet)行整体状态变化监听,覆盖最广。

触发时机:sheet中行增删、行属性(可见性、锁定)修改、行样式同步。

适用场景:sheet行操作日志、行样式/公式同步、关键行保护、行属性联动提示。

关键提醒:不监听单元格数据修改(用ValueChanged),不适用表格组件。

2. RowHeightChanged

核心定位:所有工作表行高变化的单一维度精准监听。

触发时机:手动/代码(setRowHeight())调整行高、动态尺寸联动导致行高变化。

适用场景:行高联动调整(图表/图片)、行高限制、多sheet行高同步、行高操作日志。

关键提醒:仅关注行高,与行增删、数据、样式无关。

3. RowOperation

核心定位:集算表(TableSheet)行的用户主动操作监听。

触发时机:用户对表格行执行固定/取消固定、保存/重置、删除/新增(组件按钮触发)、脏状态变化等主动操作。

适用场景:表格行操作权限控制、操作日志、数据提交联动、固定行跨视图高亮。

关键提醒:不适用sheet,不监听代码触发的行变化,只捕捉用户主动操作。

4. TableRowsChanged

核心定位:表格(Table)行结构变化结果监听。

触发时机:表格行增删、位置调整、批量增删。

适用场景:合计行联动计算、行索引同步、批量操作提示、筛选排序规则同步。

关键提醒:与RowChanged区分——适用表格而非sheet。

5. TopRowChanged

核心定位:所有工作表滚动时,可视区域顶部行变化监听(滚动联动专用)。

触发时机:垂直滚动表格,导致可视区域顶部行切换(如多sheet联动滚动)。

适用场景:多sheet联动滚动、滚动定位提示、大数据量按需加载。

关键提醒:与行增删、行高、数据无关,仅监听滚动导致的顶部行变化。

5大事件对比表

事件名称核心监听对象适用范围核心触发场景
RowChangedsheet行整体状态变化普通工作表(sheet)行增删、行属性修改
RowHeightChanged行高变化所有工作表手动调整行高
RowOperation集算表用户主动操作集算表行固定、保存、删除
TableRowsChanged表格结构变化结果表格行增删、位置调整
TopRowChanged滚动时顶部行变化所有工作表垂直滚动切换顶部行

开发者快速选型技巧

  1. 先定适用范围:sheet用RowChanged;表格组件用RowOperation/TableRowsChanged;全场景行高/滚动用对应专属事件。
  2. 再定变化类型:Sheet行整体变化→RowChanged;行高→RowHeightChanged;用户集算表操作→RowOperation;表格结构变化→TableRowsChanged;滚动顶部行→TopRowChanged。

    总结

5大事件均围绕行变化设计,核心是“精准匹配场景”:开发者无需记忆所有细节,只需通过“适用范围+变化类型”两大维度,即可快速选型,减少试错成本,提升开发效率。

扩展链接

可嵌入您系统的在线Excel

最近看大秦帝国第一部,各大诸侯还没称王时,都被称为公,比如秦孝公,更准确来说是公爵;
研究发现封建时代的爵位分别是公侯伯子男;
突然发现这个跟欧洲的爵位是一一对应的,比如基督山伯爵,纳什男爵啊;
为什么这么巧合,问了几次 AI ,回答不是很满意;
后来突然想明白,不是东方和西方在创建爵位时巧合,而是翻译的时候去对应的

尊敬的客户:您好!北京时间 2026 年 03 月 04 日 14:36 ,阿里云收到客户反馈从中国大陆访问香港 OSS 出现异常,工程师正在紧急处理中,初步判断为运营商网络问题,已向运营商紧急报障处理。若有任何问题,请随时联系我们。

云端部署 OpenClaw:打造 24 小时“数字生命”助手

谁还在被AI“画大饼”?写邮件要自己点发送,列待办要自己去执行,看似智能实则只是 “嘴炮工具”,根本落不了地。但 2026 年初这款现象级 AI 产品的出现,彻底改变了这一现状 —— 它就是被网友亲切称为「那只龙虾」🦞的 OpenClaw,一款真正能 “动手办事” 的开源 AI 智能体框架。

从Clawdbot到Moltbot,再到如今的OpenClaw,这款开源AI智能体框架在短短一个月内,GitHub星标狂揽17万+,朋友圈、开发者社区全是它的身影,TechCrunch、Forbes等外媒争相报道,成为2026年初最现象级的AI产品。有人说它是长了手的Claude,有人直言“用它之后,再也不需要任何独立App了”,但狂欢之下,大部分人都卡在了第一步——本地部署,本地部署需设备全天开机、内网穿透复杂且本地算力不足,门槛过高。
今天就给大家解锁OpenClaw的“唯一正确打开方式”:依托Lab4AI大模型实验室云端环境快速部署,打造一个24小时永不离线、算力拉满、公网可访问的“数字生命”助手,彻底终结本地部署的所有烦恼!

先搞懂:OpenClaw凭什么爆火?

不同于只会“聊天支招”的普通AI,OpenClaw是一个真正能“动手办事”的智能体框架——它就像你的专属数字员工,能听懂自然语言指令,自动完成一系列复杂操作,覆盖工作生活的方方面面:

  • 办公减负:自动回复繁琐邮件、整理收件箱,甚至帮你对接客户、生成工作报表;
  • 技术赋能:全自动写代码、修Bug、执行Shell命令,哪怕是复杂的多模态任务(识别截图、处理百页PDF)也能轻松搞定;
  • 日程管家:精准管理日程、设置定时提醒,凌晨监控论文更新、清晨准时叫你起床都不在话下;
  • 全能拓展:支持对接Telegram、飞书、Discord等多平台,还能通过技能插件扩展能力,甚至自己“造工具”完成个性化需求。

更关键的是,它开源免费,数据存储在自己的环境中,隐私安全有保障。

云端部署OpenClaw3大优势

相比门槛重重的本地部署,依托Lab4AI大模型实验室进行云端部署,无需折腾硬件、不用配置内网穿透、算力无限续航,几分钟就能拥有一个 24 小时 “在线呼吸” 的数字助理,优势一目了然:

  • 7×24h 永在线:云端服务器永不关机。它能在凌晨 3 点为你监控最新的 ArXiv 论文更新,或在早晨 8 点准时通过飞书叫醒你。
  • 独占公网环境:无需折腾复杂的内网穿透(DDNS/FRP)。直接稳定对接 Telegram/Discord 或飞书机器人,告别断连焦虑。
  • 算力冗余加速:当 OpenClaw 执行重度多模态任务(如识别复杂的论文屏幕截图、处理数百页 PDF)时,云端算力对 Qwen3-VL 的支撑速度,是普通轻薄本无法比拟的。

手把手带你完成云端部署

Lab4AI大模型实验室项目浮现点击对应项目名称链接,找到页面中的「立即体验」按钮,单击该按钮。

👉项目地址:https://www.lab4ai.cn/project/detail?utm_source=sf_openclaw&i...

第一步:Node.js 环境安装步骤

OpenClaw 需要 Node.js ≥ 22.12.0。请先检查系统是否已安装:

如果版本低于 22.12.0 或未安装,请按照以下命令顺序安装 nvm 并配置 Node.js 22 环境:

# 安装 nvm (Node Version Manager)
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.1/install.sh | bash

# 使配置立即生效
source ~/.bashrc

# 安装并使用 Node 22
nvm install 22
nvm use 22

# 检查版本
node -v # 确保显示 v22.x.x

下图为安装成功界面:

第二步:安装 OpenClaw

请根据您的需要选择合适的安装方式:

方法 1:安装脚本(推荐)

这是最快捷的安装方式,会自动处理环境依赖和基础配置。

curl -fsSL https://openclaw.bot/install.sh | bash
方法 2:全局 npm 安装

适用于已经配置好 Node.js 22+ 环境的用户,也是 Pod 容器内最常用的方式。

npm install -g openclaw@latest
方法 3:从源码安装

如果您需要进行二次开发或自定义插件,请使用此方式。

git clone https://github.com/openclaw/openclaw.git  
cd openclaw  
pnpm install  
pnpm build  
openclaw onboard --install-daemon

第三步:初始化配置

安装完成后,运行初始化向导:

openclaw onboard --install-daemon

向导会引导你完成以下步骤:

  1. 选择配置文件位置(默认 ~/.openclaw/)
  2. 设置 Gateway 端口(默认 18789)
  3. 生成认证 Token
  4. 安装系统服务(launchd/systemd)
  5. 配置聊天平台(WhatsApp/Telegram/Discord 等)

Onboard 向导详细步骤

运行 openclaw onboard --install-daemon 后,你会看到类似以下的交互式配置过程:

步骤1:欢迎界面

首先是欢迎界面和安全警告,我们选择 Yes 回车。

步骤 2:模式选择

选择 QuickStart 回车。

步骤 3:模型选择

建议先选择已有 API Key 的供应商,如果没有你需要的模型供应商,选择 Skip for now 回车跳过,稍后配置。

步骤 4:配置消息渠道

同样,可以选择 Skip for now 跳过,稍后配置。

步骤 5:配置 Skills

先任意选择一个,后面我们可以根据自己的需求进行安装。

步骤 6:配置各种 Key

提示进行配置各种各样的服务Key,全选 No 回车跳过即可。

步骤 7:安装服务

接下来会自动安装服务,安装完成就会给出安装完成的 Gateway 服务信息,包括 Web UI 地址、Gateway WS 地址等。

第四步:启动openclaw

步骤1:修改配置文件

将port 18789 更改为 6666;bind loopback 更改为 lan;

添加云端域名"allowedOrigins": ["https://cst-jcenrf7z.llamafactory.com.cn"] 云端域名见提取对外服务网址。

⚠️重要提示

您在参照本文档进行复现时,需要将“https://cst-jcenrf7z.llamafactory.com.cn”替换为您的实际网关地址。

步骤2:启动gateway

步骤3:web打开

提取token参数:

1、新建一个终端
2、执行
export PATH="/workspace/.nvm/versions/node/v22.22.0/bin:$PATH"3、提取token参数
cat ~/.openclaw/openclaw.json | grep '"token":'

将获取的token参数进行拼,并web打开链接,链接结构示例:

https://cst-jcENRf7Z.llamafactory.com.cn?token=89ac5bceb3a8bf...

至此,OpenClaw云端部署已全部完成。

依托Lab4AI大模型实验室的云端环境,我们彻底摆脱了本地部署的诸多困扰,无需纠结硬件配置、不用折腾内网穿透,轻松拥有了7×24小时永在线、算力充沛、公网可访问的专属数字助理。

无论是日常办公的繁琐事务,还是复杂的多模态任务都能高效落地,真正实现“随口吩咐,全程代办”,让这款被网友喜爱的“龙虾”工具,成为我们工作生活中的得力帮手!

论文生漫画创作挑战火热进行中!

Lab4AI大模型实验室现推出“论文头号玩家”AI生漫画创作挑战,鼓励大家将晦涩难懂的学术论文转化为通俗易懂、生动有趣的漫画形式。参与即有机会赢取以下奖品:

活动链接:https://mp.weixin.qq.com/s/QAI2fMX0GJaTdNTWZmLmGw

Tiktok(海外版抖音)详细大家已经不陌生了,现在不管是个人还是企业都想加入其中,特别是外贸企业都想注册个TikTok进行推广,但是在中国大陆地区受到网络限制,无法直接访问。所以本篇内容为大家介绍抖音海外版tiktok国内怎么用,下面一起来看看吧。

一、解决网络问题

在国内想使用Tiktok那么必要使用网络加速工具,比如OSDWAN跨境网络专线,即开即用,不管是电脑/苹果/安卓都可以使用。

二、下载Tiktok

(一)苹果手机下载Tiktok以及设置

中国大陆区不能下载TikTok,所以需要切换美区苹果ID,没有的话可以找我们买一个。

1.注册并切换到美国区苹果账号后, 进入 App Store, 就能搜索到 TikTok 了
下载成功后,我们直接点击打开是不能正常使用的,刷不出视频来,我们还需要后面设置方法。

2.取出手机里面的电话卡,让手机显示 “无 SIM” 状态,不取卡时无法正常使用的,但凡 TikTok 识别到中国信号就会判断你为中国人,就无法使用

3.点击手机设置 —— 点击通用,找到语言与地区 —— 把地区改为美国。

4.关闭定位服务,让 TikTok 不知道我们在大陆地区。

关闭步骤:设置——隐私——定位服务,找到过后,关闭即可。

5.当你把上面的步骤都做好过后(一个都不能漏掉),打开OSDWAN连接上,再打开TikTok,就可以正常刷视频了。

(二)安卓手机下载Tiktok

如果有苹果手机,建议大家都是用苹果版,因为安卓版的使用比较麻烦,如果你有备用苹果机或者本身就是用的苹果手机,建议还是用苹果版。如果一定要使用安卓手机,请继续往下看:

  • 设备要求:建议安卓系统 7.0 及以上,内存 3GB+(配置越高运行越流畅)
  • 网络配置:需通过合法合规的科学上网工具,搭建海外网络环境(建议使用OSDWAN)
  • Google商店:可以进去Google商店,搜索TikTok下载。

注意:国内大部分品牌的手机没有谷歌框架,所以安卓用户需要装谷歌三件套(Google Play 服务 / 商店 / 框架)。

Tiktok(海外版抖音)详细大家已经不陌生了,现在不管是个人还是企业都想加入其中,特别是外贸企业都想注册个TikTok进行推广,但是在中国大陆地区受到网络限制,无法直接访问。所以本篇内容为大家介绍抖音海外版tiktok国内怎么用,下面一起来看看吧。

一、解决网络问题

在国内想使用Tiktok那么必要使用网络加速工具,比如OSDWAN跨境网络专线,即开即用,不管是电脑/苹果/安卓都可以使用。

二、下载Tiktok

(一)苹果手机下载Tiktok以及设置

中国大陆区不能下载TikTok,所以需要切换美区苹果ID,没有的话可以找我们买一个。

1.注册并切换到美国区苹果账号后, 进入 App Store, 就能搜索到 TikTok 了

下载成功后,我们直接点击打开是不能正常使用的,刷不出视频来,我们还需要后面设置方法。

2.取出手机里面的电话卡,让手机显示 “无 SIM” 状态,不取卡时无法正常使用的,但凡 TikTok 识别到中国信号就会判断你为中国人,就无法使用

3.点击手机设置 —— 点击通用,找到语言与地区 —— 把地区改为美国。

4.关闭定位服务,让 TikTok 不知道我们在大陆地区。

关闭步骤:设置——隐私——定位服务,找到过后,关闭即可。

5.当你把上面的步骤都做好过后(一个都不能漏掉),打开OSDWAN连接上,再打开TikTok,就可以正常刷视频了。

(二)安卓手机下载Tiktok

如果有苹果手机,建议大家都是用苹果版,因为安卓版的使用比较麻烦,如果你有备用苹果机或者本身就是用的苹果手机,建议还是用苹果版。如果一定要使用安卓手机,请继续往下看:

设备要求:建议安卓系统 7.0 及以上,内存 3GB+(配置越高运行越流畅)

网络配置:需通过合法合规的科学上网工具,搭建海外网络环境(建议使用OSDWAN)

Google商店:可以进去Google商店,搜索TikTok下载。

注意:国内大部分品牌的手机没有谷歌框架,所以安卓用户需要装谷歌三件套(Google Play 服务 / 商店 / 框架)。

image.png

三、注册TikTok

TikTok账号分为个人、专业、企业、企业蓝v、广告账户,大家可根据自己的需求去选择合适的账号类型,这里就不一一说明,直接看注册步骤吧。

TikTok对于网络环境的要求也非常严格,建议大家保证一机一IP一账号,防止封号或者限流。账号注册期间推荐使用OSDWAN访问全球互联网,IP稳定结合超大带宽,让注册流程更加省心。(建议使用我们的OSDWAN直播专线)

  1. 选择注册方式
  • 邮箱注册(推荐):使用Gmail、Outlook等海外邮箱(避免QQ、163等国内邮箱),输入邮箱地址后接收验证码。
  • 第三方账号:通过Google、Facebook或Twitter账号授权登录(需提前注册并绑定邮箱)。
  • 手机号注册:需海外手机号(如Google Voice虚拟号),输入号码后接收短信验证码。
  1. 填写基本信息

出生日期:必须选择18岁以上日期,否则账号功能受限(如无法评论或私信)。

密码设置:需8-20位,包含大小写字母、数字及特殊符号。

用户名:全网唯一且符合目标市场文化,同样需要全英文的,建议和公司企业名称或者产品名称一致。

如果需要注册TikTok Shop等商业账号,还需要额外补充一些材料。

比如企业资质:营业执照、法人身份证(需翻译公证)。店铺验证:上传第三方电商平台(比如亚马逊)店铺截图,完成真人视频认证。

  1. 验证与激活

完成邮箱/手机验证码输入,部分情况下需通过图片验证(如勾选交通灯、山丘等)。

若提示“Too many attempts”,需等待24小时或通过“忘记密码”重置。

4.完善个人资料

上传高清头像(建议与内容领域相关,如美妆账号使用妆容特写),填写简洁的英文简介。

绑定Instagram、Youtube等社交账号,提升可信度。

image.png

(以上是我们OSDWAN的Tik Tok账号截图)

以上就是关于在国内怎么使用TikTok的相关内容了,大家想要入局TikTok一定要选择合适的网络服务商,OSDWAN作为专业的跨境网络服务商,提供TikTok养号套餐、TikTok运营套餐和TikTok直播套餐,为大家提供TikTok跨境出海一站式网络解决方案。

过去几年间,以大型语言模型(LLM)和生成式 AI 为代表的新浪潮席卷全球,对算力基础设施提出了前所未有的严苛挑战。从 GPT-4 到 Llama 3.1,参数量级的飞跃不仅意味着计算复杂度的几何级数增长,更直接推动了对高性能 GPU 的需求井喷。然而,对于大多数创新型企业而言,自建集群面临的高昂成本与运维压力,使得像 DigitalOcean 这类按需付费、灵活扩展的 GPU 云服务成为了解决算力瓶颈的关键。

目前,DigitalOcean 提供了覆盖 NVIDIA 与 AMD 阵营的顶级 AI 训练与推理 GPU。本文将聚焦于目前 NVIDIA 与 AMD 的五款旗舰级“性能怪兽”——NVIDIA H100H200 以及 AMD MI300X、MI325X、MI350X,深入对比它们的硬件规格、真实单价与适用场景。

注: 文章数据参考 2026 年初 DigitalOcean 官网及合作伙伴信息。最终价格与优惠请咨询 DigitalOcean 中国区独家战略合作伙伴卓普云 aidroplet.com

旗舰 GPU 核心架构与优势概览

1. NVIDIA H100 / H200:不可撼动的生态霸主

H100 (Hopper):作为 AI 时代的标杆,其核心优势在于 Transformer Engine。利用 FP8 精度,它能极大提升大模型训练速度,且拥有全球最成熟的 CUDA 生态支持。

H200 (Hopper Upgrade):H100 的显存强化版。搭载 141GB HBM3e,带宽提升至 4.8 TB/s。它解决了 H100 在处理超长文本(Context Window)时的显存瓶颈,是追求极致推理吞吐量的首选。

2. AMD Instinct MI300X / MI325X:性价比与显存的颠覆者

MI300X (CDNA 3):凭借 192GB 庞大显存,MI300X 实现了单卡运行更大参数模型的能力。在推理成本上,它对 NVIDIA 形成了强力冲击。

MI325X (CDNA 3 Refresh):将显存推升至 256GB HBM3e,带宽高达 6.0 TB/s。它旨在打破显存上限,让超大规模模型的单机推理和微调变得更加轻松。

3. AMD Instinct MI350X:下一代性能天花板

MI350X (CDNA 4):这是 AMD 的最新王牌。其 288GB HBM3e 显存和高达 8.0 TB/s 的带宽,配合 FP4/FP6 精度支持,使其在 AI 算力指标上实现了对当前 Hopper 架构的全面超越。

在2025年6月12日于圣何塞举行的"AMD Advancing AI 2025"大会上,苏姿丰也曾表示,MI350X系列是他们交付的Instinct产品历史上最大的一次代际性能飞跃。

核心参数横向对比表

为了直观展示性能差异,我们汇总了 DigitalOcean 平台 GPU Droplet 云服务器的配置数据:

GPU 型号架构显存容量显存带宽FP8 算力 (稀疏)内存vCPU
AMD MI350XCDNA 4288 GB8.0 TB/s9.2 PFLOPS256 GiB24
AMD MI325XCDNA 3256 GB6.0 TB/s5.2 PFLOPS164 GiB20
AMD MI300XCDNA 3192 GB5.3 TB/s5.2 PFLOPS240 GiB20
NVIDIA H200Hopper141 GB4.8 TB/s3.96 PFLOPS240 GiB24
NVIDIA H100Hopper80 GB3.35 TB/s3.96 PFLOPS240 GiB20

价格与性价比分析

根据 DigitalOcean 云平台的最新报价(部分为 12 个月合约价),我们可以清晰地看到不同型号的成本梯度:

1. NVIDIA 阵营

  • H100 (8x 集群):合约价约 $2.50/GPU/hour。虽然价格较高,但 CUDA 生态的零门槛迁移成本使其在生产环境中极具吸引力。
  • H200 (单卡):按需价格约为 $3.44/hour。作为目前 NVIDIA 最强的现货推理卡,其溢价主要源于极高的显存带宽收益。

2. AMD 阵营

  • MI300X (8x 集群):合约价低至 $1.49/GPU/hour。其显存单价(每 GB 成本)仅为 H100 的 1/4 左右,是长周期推理任务的性价比之王。
  • MI325X (8x 集群):合约价为 $1.69/GPU/hour。相比 MI300X 略有提升,但显存容量增加了 33%,非常适合显存密集型科研任务。
  • MI350X (8x 集群):合约价为 $3.18/GPU/hour。虽然单价接近 H200,但考虑到其算力几乎是后者的两倍,对于高性能预训练任务而言,其“算力单价”反而更具优势。

如何精准选型?

在 DigitalOcean 平台上,选择 GPU 并非“越贵越好”,而应基于模型特性:

  • 场景一:极致算力优先(Pre-training)

推荐:MI350X (8x) 或 H200 (8x)

如果您正在进行 175B 以上参数模型的预训练,MI350X 的高吞吐量将大幅缩减训练周期。若追求极致的软件兼容性或已有CUDA代码库,H200更适合;若愿意使用ROCm 6.4+,MI350X提供更高性价比

  • 场景二:超大显存需求(Large Context Inference)

推荐:MI325X 或 MI350X

处理百万级 Token 的长文本推理时,256GB/288GB 的显存能容纳更大的 KV Cache,避免频繁的任务切分。不过MI350X的计算性能更强,如果有需求可首选MI350X;如果预算有限,可以选择MI325X。

  • 场景三:预算敏感型微调(Cost-effective Fine-tuning)

推荐:MI300X (8x)

以不到 $1.5/小时的单价获得 192GB 显存,适合中小企业进行 Llama 3 等开源模型的全量参数微调。

  • 场景四:成熟生态与快速部署(Production Ready)

推荐:H100

如果您希望代码“开箱即用”,无需在 ROCm 环境下进行算子调优,H100 仍然是风险最低的选择。

您的 AI 算力伙伴

无论您是追求 NVIDIA 成熟的生态体系,还是青睐 AMD 极致的显存性价比,DigitalOcean 都能为您提供最匹配的 GPU 资源。

现在就开启您的 AI 之旅: 如果您在 GPU 选型或资源锁定上遇到难题,欢迎联系 DigitalOcean 中国区战略合作伙伴——卓普云(aidroplet.com)。我们的专家团队将为您提供针对性的技术架构建议与最优的商务方案。

DigitalOcean Gradient™ AI 平台现已原生集成 LlamaIndex——这是构建 RAG(检索增强生成)应用最流行的框架之一。

这意味着你现在可以直接将 Gradient AI 平台的知识库和 LLM(大语言模型)连接到 LlamaIndex 工作流中,使用你已经熟悉的抽象接口。无需额外的基础设施,无需复杂的设置。只需安装两个包,即可开始构建。

为什么这很重要

如果你之前构建过 RAG 应用,你一定熟悉这样的流程:配置向量数据库、设置嵌入管道、跨服务管理凭证,然后将所有东西拼接在一起。在你编写一行应用程序逻辑代码之前,就已经有大量的前期工作了。

借助DigitalOcean新集成的LlamaIndex,我们已经为你完成了这些繁重的工作。你的知识库负责处理文档的导入、分块和嵌入生成。LlamaIndex 检索器直接连接到它。再加上我们平台上集成的 LLM (Gemini、Claude、OpenAI),你就拥有了一个在托管的 DigitalOcean 基础设施上运行的完整 RAG 管道。

新增功能

现在 PyPI 上提供了两个包:

这两个包都能与 LlamaIndex 的查询引擎、聊天引擎、回调函数以及更广泛的生态系统协同工作。

几分钟内即可使用

安装这些包:

pip install llama-index-retrievers-digitalocean-gradientai llama-index-llms-digitalocean-gradientai

然后,配置你的 Gradient AI 平台凭证,并将检索器和 LLM 集成到你现有的 LlamaIndex 代码中。查看我们的文档以获取完整的操作指南和代码示例。

你可以构建什么

这些集成为你开启了一系列可能性:

  • 基于你的产品文档构建的技术支持助手
  • 用于查询公司维基和操作手册的内部工具
  • 能理解私有代码库上下文的代码助手
  • 用于基于文档的问答的研究工具

如果你已经在使用 LlamaIndex,你现在可以将 Gradient AI 平台集成到你现有的应用程序中。如果你是从零开始,你现在拥有了一条从知识库到生产级 RAG 应用的完全托管路径。

接下来

这仅仅是个开始。我们将继续扩展 Gradient AI 平台与主流 AI 框架的集成,我们很期待听到你正在构建的应用。

立即开始使用 LlamaIndex——或咨询DigitalOcean中国区战略合作伙伴卓普云AI Droplet,或者探索 Gradient AI 平台文档,以了解有关GPU服务器、知识库和托管 LLM 的更多信息。

祝你编程愉快!