2026年2月

在大模型与开发者工具深度融合的今天,AI 编程助手正成为提升开发效率的关键力量。然而,面对复杂、专业性强的地图 API,通用大模型往往难以精准理解上下文,导致生成代码不规范、功能缺失甚至存在安全隐患。为解决这一痛点,高德开放平台正式推出 高德地图 JSAPI Skills ,一套专为 AI IDE 打造的地图开发技能包,有效提升了开发效率、代码质量与使用安全性体验。

4大核心优势,打造AI友好的地图开发体验

我们基于高德地图 JavaScript API v2.0,将官方文档、最佳实践和代码模板,深度整合为 AI 友好的结构化技能包。现在,Cursor、Claude、Cline 等 AI 编码助手能:

精准理解高德地图 API 的使用方法;
自动生成符合官方规范的地图代码;
主动避免常见的开发陷阱和安全问题;
提供经过验证的完整代码示例。

精选场景案例,AI助手秒级响应地图开发请求

场景1:不懂地图和出行技术,也能做出智能旅游攻略助手

用户需求:我想做一个小工具——只要输入目的地城市和旅行天数,就能自动生成每天的行程路线,包含景点、美食推荐和路线规划。

过去怎么做?研究地图 API,调用 POI 搜索,实现路径规划,写前端界面……光看文档就要好几天,还不一定能跑通。

现在用 JS Skill 怎么做?只需告诉 AI:“我想做个旅游规划助手。”

AI 会自动理解你的意图,读取已有的 JS Skill(如地图绘制、POI 搜索、路线规划等原子能力),智能组合、生成并运行完整代码。无需写一行代码、无需查阅 API 文档,直接获得一个可交互、可分享的旅游工具。

⭐️ 无需懂技术细节,你的想法,秒变可用产品。

操作视频

场景2:只懂一点技术,也能做出复杂的“多人聚点”智能助手

用户需求:我想做一个小工具——输入几个朋友的位置和各自的出行方式(步行、开车、地铁等),它能自动:推荐大家都能方便到达的餐厅;为每个人规划最优路线;预测各自到达时间,确保“差不多同时到”。听起来是不是有点复杂?确实,这背后涉及地图、路径规划、时间估算、多端协同……好几个技术模块。

过去怎么做?哪怕会写代码,也得翻遍文档:怎么调用地图 API?如何计算 ETA?怎么合并多个用户的路径?光是打通这些链路,就得折腾好几周。

现在用 JS Skill 怎么做?只需一句话告诉 AI:“我想做个多人聚餐选址+路线规划的小工具。”

AI 会自动识别所需能力(比如 LBS 搜索、多路径规划、时间预测等),组合已有的 JS Skill,自动生成完整可运行的代码,无需手动拼接模块、无需理解底层算法,直接交付一个能用、能分享的智能工具!

⭐️ 复杂逻辑不用拆解,想法一说,产品就来。

操作视频

让专业能力“即插即用”,开启智能地图开发新范式

高德地图 JSAPI Skills 不仅是一套技术工具,更是高德开放平台面向 AI 时代的重要基础设施。它将地图领域的专业知识封装为 AI 可理解、可调用的“技能原子”,通过“渐进式披露”实现意图驱动的智能编程,真正做到了 “你描述需求,我生成专业代码”。

无论您是初次接触地图开发,还是希望在复杂项目中提升迭代速度,JSAPI Skills 都将成为您的得力助手。即日起,接入 JSAPI Skills,让 AI 成为您的地图开发助手!

👇欢迎各位开发者体验

高德开放平台JS skill下载地址
https://github.com/AMap-Web/amap-skills

高德开放平台skill使用教程
https://lbs.amap.com/api/javascript-api-v2/skill

VMware vSphere 8.0 Update 3i 下载 - 企业级工作负载平台

vSphere 8.0U3 | ESXi 8.0U3 & vCenter Server 8.0U3

请访问原文链接:https://sysin.org/blog/vmware-vsphere-8-u3/ 查看最新版。原创作品,转载请保留出处。

作者主页:sysin.org


2026-02-24,vSphere 8.0U3i 发布,例行更新。

企业工作负载引擎

vSphere

获得企业工作负载引擎的强大功能。提高工作负载性能、提高安全性并加快业务创新。

说明 ESXi 主机、vCenter Server、虚拟机和 vSphere Client 之间关系的 VMware vSphere 概览图。

适用于传统和下一代应用程序的企业工作负载引擎

sysin

  • 提高运营效率

    提高 IT 生产力并降低运营费用。

    sysin

  • 提高工作负载性能

    为更大的 AI 工作负载提供支持并优化 GPU 资源的性能。

    sysin

  • 加速 DevOps 创新

    通过 DevOps 服务实现虚拟机和容器的自助配置。

vSphere 新功能

sysin

  • 生命周期管理

    使用 vSphere 配置文件轻松管理集群级别的主机配置。轻松检测并解决 vCenter 实例的配置偏差。

    sysin

  • Tanzu Kubernetes Grid 集成

    直接在 vSphere 上运行 Tanzu Kubernetes Grid 服务,以简化 Kubernetes 的本地操作。

    sysin

  • 减少升级的计划停机时间

    以最小的中断升级 vCenter 实例。

    sysin

  • 提高大型 AI/ML 工作负载性能

    通过支持每个虚拟机最多 16 个 vGPU、每个虚拟机 32 个直通设备以及 NVLink 和 NVSwitch 技术的部署,增强大型 AI/ML 工作负载的性能。

    sysin

  • 最大化 GPU 资源的投资回报率

    通过 GPU 感知的工作负载放置和负载平衡 (sysin),在不同工作负载之间更有效地共享 GPU 资源。

    sysin

  • vSphere 绿色指标

    跟踪主机和虚拟机级别的功耗。发现优化消费的机会并为组织的可持续发展目标做出贡献。

    sysin

  • 改善基础设施健康状况

    最大限度地提高可见性,以保持工作负载的最佳性能。

    sysin

  • DevOps 自助服务

    为 DevOps 和开发团队提供对基础设施资源的自助访问 (sysin),以加快上市速度。

    sysin

  • 运行现代应用程序

    在统一平台上使用容器和虚拟机构建和运行现代应用程序以简化管理。

解决传统和下一代应用挑战

  • 人工智能和机器学习

    获取高级 AI/ML 服务和工作负载所需的企业级数据中心、云和边缘基础设施。

  • 大数据和现代数据应用

    通过经济高效的统一故障转移保护 (sysin),简化大数据基础设施管理并最大限度地减少停机时间。轻松确定优先级并共享数据中心资源以进行智能决策。

  • 高性能计算 (HPC)

    通过按需基础设施、集中管理和数据治理(包括敏感数据的控制)更快地获得洞察。vSphere HPC 选项是定制的,可根据 HPC 工作负载进行扩展。

比较 vSphere 版本

Subscription

VMware vSphere Product Line Comparison

  • vSphere Standard

    Basic server virtualization for development and testing environments.

    用于开发和测试环境的基础服务器虚拟化。

    • ESX Standard
    • vCenter Standard
  • vSphere Enterprise Plus

    Industry leading enterprise workload engine to power on-premises environments running on virtual machines.

    业界领先的企业工作负载引擎,专为运行在虚拟机上的本地环境提供强大支持。

    • ESX Enterprise Plus
    • vCenter Standard
  • vSphere Foundation

    Fully-featured

    Enterprise workload engine to optimize IT infrastructure, run both virtual machines and Kubernetes clusters, and deploy HCI.

    专为优化 IT 基础设施而设计的企业级工作负载引擎,能够同时运行虚拟机和 Kubernetes 集群,并可用于部署超融合基础架构(HCI)。

    • ESX Enterprise Plus
    • vCenter Standard
    • vSphere Kubernetes Service (formerly Tanzu Kubernetes Grid service)
    • VMware Cloud Foundation Operations, which includes

      • VCF Operations for Logs
      • VCF Operations Diagnostics (formerly Skyline)
    • vSAN (250 GiB per core)
    • Plus available add-ons

新增功能

请参看:VMware vSphere 8 Update 3 新增功能

下载地址

The VMware vSphere architecture consists of the following components:

  • A base hypervisor, vSphere ESXi Installable, that is installed on every physical server planned for hosting virtual machines
  • One instance of a management server called VMware vCenter Server that enables centralized management of multiple vSphere hosts.

VMware vSphere Hypervisor (ESXi) 8.0U3i

下载地址:https://sysin.org/blog/vmware-vsphere-8-u3/

  • 发布日期:2026-02-24
  • 若干已知问题修复,详见官方文档或原文链接。
  • VMware vSphere Hypervisor (ESXi ISO) image
    File Name: VMware-VMvisor-Installer-8.0U3i-25205845.x86_64.iso
  • VMware vSphere Hypervisor (ESXi) Offline Bundle
    File Name: VMware-ESXi-8.0U3i-25205845-depot.zip

OEM Custom Image:

  • Dell Custom Image for ESXi 8.0U3i Install CD
  • HPE ProLiant Custom Image for ESXi 8.0U3i Install CD
  • HPE Synergy Custom Image for ESXi 8.0U3i Install CD
  • HPE Superdome Flex and Compute Scale-up family of servers Custom Image for ESXi 8.0U3i Install CD
  • IEIT SYSTEMS Custom Image for ESXi 8.0U3i Install CD
  • Lenovo Custom Image for ESXi 8.0U3i Install CD
  • H3C Custom Image for ESXi 8.0U3i Install CD
  • Cisco Custom Image for ESXi 8.0U3i Install CD
  • Fujitsu Custom Image for ESXi 8.0U3i Install CD
  • Hitachi Custom Image for 8.0U3i Install CD
  • NEC Custom Image for VMware ESXi 8.0U3i Install CD
  • Huawei Custom Image for VMware ESXi 8.0U3i Install CD
  • xFusion Custom Image for VMware ESXi 8.0U3i Install CD
  • 请访问:VMware ESXi 8.0U3i macOS Unlocker & OEM BIOS 2.7 标准版和厂商定制版

VMware vCenter Server 8.0U3i

下载地址:https://sysin.org/blog/vmware-vsphere-8-u3/

  • 发布日期:2026-02-24
  • 新增功能:26 多项已知问题修复,详见官方文档或原文链接。
  • VMware vCenter Server Appliance
    File Name: VMware-VCSA-all-8.0.3-25197330.iso
    File Size: 11.67 GB
  • VMware vCenter Server Appliance Patch
    File Name: VMware-vCenter-Server-Appliance-8.0.3.00800-25197330-patch-FP.iso
    File Size: 7.76 GB
  • VMware vCenter Server Appliance Update Bundle
    File Name: VMware-vCenter-Server-Appliance-8.0.3.00800-25197330-updaterepo.zip
    File Size: 8.03 GB

本站定制映像

相关产品:

更多:VMware 产品下载汇总

最近刷到一些求职的直播间,可能系统也判断出我想找工作,我目前是做 java 开发的,有一小段 c++和 c#的工作经历,今年公司的项目可能是要做安卓项目,我个人是想离职了,实话实说,我个人对于自己的职业规划真的很不满意,主要走错的一步在于,我 21 年从南京来到浙江的一个 2 线城市嘉兴,然后在浙江期间认识了一个对象,我为了他就留在嘉兴 5 年左右吧,最近因为一些理念的原因想离开嘉兴,感情应该也会结束,我感觉我浪费了我的高速上升期,24 年本来有机会去杭州的,也是因为他没去。

所以过年我在想我的规划,还是不想放弃去大城市的念想,最近在着手先投递苏州的开发岗,顺带上海也投一下吧,嘉兴工作 5 年薪资都没变动税前 1W ,存不下钱,个人觉得互联网在嘉兴挺难的,天花板也不高,想去其他城市闯荡,高中财经类同学建议我去苏州寻求发展,各位有什么建议吗?

顺便还有个问题,最近刷到的直播间很频繁的求职岗位是 agent 开发,最近结合一个人说的 3 天学会 agent 所有技术,我想问这个岗位真实接触的有吗?薪资福利好像很不错,如果有机会也可以考虑转这个

各位 v2er ,请问如下所示的坐席上,A / B / C / D 哪个是主位啊?
图片

我们公司今年打算给开发人员订阅 claude code max ,之所以不直接买 tokens 是怕把账户干爆了。
但是因为 anthropic 的限制,无法直接订阅,因此想找国内的中间商来订阅,有风险吗?大家有推荐的供应商没?
我搜到了一个: https://claudemax.com/pricing/

今日速览

  1. Siteline:帮你摸清 AI 代理如何“逛”你的网站。
  2. Wispr Flow for Android:把随口说的话变成干净利落的文字。
  3. Shepherd:自动追踪你的专注时间,还能养只小羊。
  4. TypeBoost:在 macOS 上随处调用你的私人 AI 写作助手。
  5. Grok 4.2:四个 AI 代理内部辩论,只为给你靠谱答案。
  6. Replit Animated Videos:用几句话就能生成专业动画视频。
  7. OpenHunt:AI 原生发现平台,让好产品不再被算法埋没。
  8. YAP:专注口语练习,AI 实时纠正你的发音。
  9. Seagull:实时翻译电脑上任何音频,跨平台通用。
  10. InboxAgents:智能统一收件箱,告别 LinkedIn 杂音。

1. Siteline

想知道那些 AI 代理和机器人到底在你的网站上搞什么名堂?这款神器能帮你追踪它们的互动轨迹,分析流量趋势,看看这些“非人类”访问如何转化为真实用户。

  • 实时监控 AI 代理和机器人的网站行为
  • 分析不同平台、页面和主题的流量数据
  • 追踪流量转化,洞察对产品增长的影响
  • 快速获取初步见解,支持深度挖掘

Siteline
热度:🔺477
访问官网 Product Hunt 详情

2. Wispr Flow for Android

还在为语音转文字后的杂乱文本头疼?这款安卓应用能把你随意的讲话瞬间整理成清晰、可直接发送的文字,而且完全免费。

  • 智能语音转文本,自动清理填充词和修正错误
  • 在任何应用中流畅使用,切换时保持连续性
  • 自动添加标点和格式化,提升文本可读性
  • 目前免费且无限制使用

Wispr Flow for Android
热度:🔺411
访问官网 Product Hunt 详情

3. Shepherd

这款免费的 Chrome 扩展能自动追踪你的专注时间,把网站标记为高效或低效,顺便“养”一只反映你浏览习惯的小羊。

  • 自动跟踪专注度,无需手动操作
  • 将网站分类为高效或低效,帮助管理时间
  • 以趣味方式(养羊)可视化你的浏览习惯
  • 保护隐私,使用简单直接

Shepherd
热度:🔺341
访问官网 Product Hunt 详情

4. TypeBoost

想在 macOS 上随时随地调用 AI 写作能力?这款工具把你的提示变成私人写作包,直接对选中文本操作,无需复制粘贴。

  • 在 macOS 任何应用中直接应用自定义 AI 操作
  • 支持语音输入和模型选择,灵活适配需求
  • 实时查看和控制修改,保持你的写作风格
  • 完全可定制提示,并能随时间学习优化

TypeBoost
热度:🔺340
访问官网 Product Hunt 详情

5. Grok 4.2

四个 AI 代理在内部讨论和辩论,只为给你一个经过事实核对的答案。这款多智能体系统每周都在快速学习进化。

  • 四个专业智能体并行推理,共享同一上下文
  • 内部辩论机制,确保答案的准确性和可靠性
  • 具备快速学习循环,每周持续改进性能
  • 原生多智能体设计,提升回答质量

Grok 4.2
热度:🔺262
访问官网 Product Hunt 详情

6. Replit Animated Videos

用日常语言提示就能生成专业动画视频,无需剪辑技能或昂贵外包。基于 React 构建,导出分享一气呵成。

  • 从语言提示生成流畅动画视频,降低制作门槛
  • 内置平滑切换效果、文字叠加和 AI 生成图像
  • 支持 MP4 导出,方便立即分享或后续使用
  • 无需代理或编辑技能,快速上手

Replit Animated Videos
热度:🔺192
访问官网 Product Hunt 详情

7. OpenHunt

厌倦了算法操控的发现平台?这款 AI 原生工具让智能体分析产品,人类验证价值,打造一个无门槛、内容驱动的发现生态。

  • AI 原生发现平台,自主智能体多角度分析产品
  • 人类验证机制,确保推荐产品的真实价值
  • 无算法操控和门槛,基于优质内容可编程发现
  • 适应后算法时代,聚焦创作者需求

OpenHunt
热度:🔺144
访问官网 Product Hunt 详情

8. YAP

大多数语言应用教的是点击,而 YAP 从第一天起就专注口语练习。AI 实时反馈发音,每节课还能在区块链上存证。

  • 专注口语训练,AI 实时监听并反馈发音
  • 从第一课开始强化对话能力,提升实际应用
  • 每完成一课在区块链验证,作为学习证明
  • 持续改进产品,注重用户体验

YAP
热度:🔺137
访问官网 Product Hunt 详情

9. Seagull

在电脑上听外语内容不再头疼。这款工具实时翻译任何音频,覆盖 Mac、Windows 和 Linux,让你即时看懂听懂。

  • 实时翻译电脑上任何应用程序的音频
  • 支持 Mac、Windows 和 Linux 多平台
  • 即时显示翻译结果,提升跨语言沟通效率
  • 简单易用,快速集成到工作流中

Seagull
热度:🔺127
访问官网 Product Hunt 详情

10. InboxAgents

把 LinkedIn、电子邮件和社交媒体收件箱统一起来,让智能助手帮你筛选重要信息,告别信息过载的烦恼。

  • 统一 LinkedIn、邮件和社交媒体收件箱
  • 智能筛选重要信息,减少杂音干扰
  • 替代传统收件箱,提升信息管理效率
  • 简化工作流程,专注关键沟通

InboxAgents
热度:🔺109
访问官网 Product Hunt 详情

随着互联网应用的日益普及,IP地址已成为网络安全、数据分析、精准广告等领域的核心数据源之一。IP离线库作为一种高效的IP数据存储方式,能够提供快速、准确的IP地址查询服务。无论是在用户行为分析、市场推广、网络安全防护,还是在反欺诈领域,IP离线库的作用都显得尤为重要。然而,面对市场上众多的IP离线库品牌,企业如何选择最适合自身需求的服务成为了一个关键问题。

本文将详细介绍当前市场上排名前十的IP离线库品牌,并分析它们的优势和适用场景,帮助企业做出更为明智的选择。

一、IP地址查询的背景与重要性

IP地址不仅是每个在线设备与互联网连接的唯一标识,它还能揭示设备的地理位置、ISP(互联网服务提供商)、用户行为等信息。通过精准的IP查询,企业能够提高广告投放的精准度、提升网络安全防护能力、优化数据分析和决策过程。

IP离线库作为一项高效的技术工具,其作用体现在以下几个方面:

  1. 精准定位:通过离线数据库提供的IP数据,企业能够准确获取IP地址的地理位置,帮助进行区域性营销和市场分析。
  2. 风险评估:IP离线库能够帮助识别潜在的风险IP,如代理IP、VPN地址等,进而提升网络安全防护能力。
  3. 数据分析:通过大规模IP数据的存储与查询,企业可以进行用户行为分析、广告投放优化等多种数据分析工作。

二、IP离线库品牌排名分析

以下是当前市场上排名前十的IP离线库品牌,涵盖了各自的技术特点、优势和适用场景。

1. IP数据云(IPDatacloud)

特点:提供全球IP地理位置查询、风险评估、IP类型分析等服务,支持精准的API查询和离线数据库服务。

优势:IP数据云具有高准确度和强大的数据覆盖能力,街道级精度可每日更新,支持企业根据IP地址进行高效的数据查询与分析。

适用场景:网络安全、精准广告、数据分析等。

IP数据云

2. IPnews

特点:IPnews是一款全球IP地址查询和分析工具,提供包括IP归属地定位、风险评估、代理识别等在内的多维度IP数据服务。支持全球范围内的精准定位和风险分析。

优势:IPnews拥有强大的全球IP数据覆盖,数据更新频繁,精准度高,且支持详细的IP风险评分。API接口功能强大,适合企业进行大规模的IP数据查询和风险评估。

适用场景:网络安全、金融风控、精准广告投放等。

image.png

3. MaxMind

特点:MaxMind提供GeoIP系列产品,包括IP地理定位、代理识别、欺诈防护等。

优势:MaxMind的数据覆盖广泛,特别是在金融服务领域有着深厚的积累,适用于高精度定位和防欺诈场景。

适用场景:金融反欺诈、电商防骗等。

image.png

4. ipstack

特点:提供高精度的IP地理位置查询服务,支持全球多地区数据。

优势:ipstack的API性能优越,适用于开发者在应用程序中快速集成IP查询服务。

适用场景:开发者、网站和应用服务商等。

image.png

5. IP-API

特点:提供全球范围的IP归属地查询,支持多种数据格式输出。

优势:IP-API的API简单易用,免费套餐适合中小型企业进行基础使用。

适用场景:中小型企业、开发者等。

image.png

6. DB-IP

特点:提供全球范围的IP地址地理定位、IP风险评估等服务,支持批量查询。

优势:DB-IP的数据更新频繁,提供多种数据输出格式,灵活适应各种需求。

适用场景:广告投放、风险防控、网站分析等。

image.png

7. ipwhois

特点:提供IP地理位置查询、网络安全数据分析等服务,支持API接口和离线数据库。

优势:ipwhois的数据库涵盖全球范围,支持IP地址的深度分析。

适用场景:网络安全、金融行业等。

image.png

8. ipgeolocation

特点:提供基于IP的地理定位、代理识别、IP信誉评估等功能。

优势:ipgeolocation的数据准确度高,特别适合大规模的IP数据分析和安全防护。

适用场景:大数据分析、金融风控、互联网安全等。

image.png

9. IPinfo

特点:提供全球IP地址的地理位置、ASN信息、风险检测等服务。

优势:IPinfo的数据来源丰富,支持自定义定制数据。

适用场景:电商平台、广告投放、网站流量分析等。

image.png

10. iplocate

特点:提供基于IP的地理位置查询、流量分析等功能,支持API与离线查询。

优势:iplocate的接口简洁易用,适合开发者和中小企业使用。

适用场景:开发者、广告投放、市场分析等。

image.png

三、应用场景推荐与品牌选择

根据不同的应用场景,选择最合适的IP离线库品牌可以大大提高数据查询效率与准确性。以下是根据具体使用场景推荐的品牌:

1. 网络安全与欺诈防护

⭐推荐品牌:IPnews、MaxMind、IPinfo

理由:这些品牌在IP风险识别、代理检测、IP信誉评估等方面表现优异,能够提供精确的安全防护数据,特别适用于金融风控、反欺诈等高安全需求的场景。

2. 精准广告投放与市场分析

推荐品牌:IP数据云、ipstack、DB-IP

理由:这些品牌提供精准的地理位置数据和细粒度的IP分析功能,非常适合用于广告投放的区域性定向和市场分析。

3. 开发者与网站运营

⭐推荐品牌:ipstack、IP-API、ipgeolocation

理由:这些品牌提供的API接口简单易用,支持快速集成,适合开发者和中小型网站运营商使用,能够快速实现IP数据查询功能。

4. 大数据分析与数据挖掘

⭐推荐品牌:MaxMind、IPnews、IPinfo

理由:这些品牌在处理大规模IP数据查询时表现稳定,支持批量查询,适合需要进行大数据分析和挖掘的企业。

四、总结与推荐

不同的IP离线库品牌在数据覆盖、查询精度、服务价格等方面存在差异,因此在选择时需要根据企业的具体需求进行权衡。对于大企业而言,推荐选择数据覆盖广泛、准确度高的服务商,如IP数据云、MaxMind等。而对于中小型企业或开发者,ipstack、IP-API等低成本、易集成的品牌则更加合适。

很多开发者还在用十年前的习惯写现在的 Spring Boot 应用。这种技术代差不仅让代码显得臃肿,更是在浪费服务器的真金白银。本文整理了一些进阶技巧,帮助优化 Spring Boot 应用的运行效率与代码质量。

image.png

准备工作:快速搭建 Java 环境

编写代码前需要安装 JDK。但对新手来说,手动配置环境变量和切换版本其实挺浪费时间的。

而 ServBay 提供了集成化的解决方案,支持一键部署 Java 环境,这样开发者可以快速切换不同的 JDK 版本,无需手动调整系统配置,让开发环境的搭建变得高效且规范。

image.png

精细化配置 JVM 内存降低云端成本

很多 Spring Boot 应用在云服务器上裸奔。默认的 JVM 配置往往会申请过多的内存,导致账单金额飙升。

如果我们运行的是微服务,其实根本不需要动辄 4GB 的堆空间。我通常会把初始内存和最大内存压到一个合理的范围。

# 限制内存并指定垃圾回收线程数
export JAVA_OPTS="-Xms512m -Xmx1024m -XX:+UseContainerSupport -XX:ParallelGCThreads=2 -XX:MaxMetaspaceSize=256m"
java $JAVA_OPTS -jar app-service.jar

加上 -XX:+UseContainerSupport 后,JVM 能准确识别容器的边界。同时,我会手动限制 Tomcat 的线程池大小,因为默认的 200 个线程对大多数中小型业务来说完全是浪费。

# application.yaml 里的精简配置
server:
  tomcat:
    threads:
      max: 60

通过这些设置,单个容器的内存占用通常能降低 20% 以上,从而减少云服务器的节点数量。

采用现代 Java 语法精简业务逻辑

如果代码库里到处是冗长的 Getter 和 Setter,或者还在用复杂的 if-else 处理枚举,那就赶紧升级新版 Java。

使用 Record 定义数据模型

Record 适合用于 DTO 或 API 返回对象。我现在的 API 数据传输对象全部改用 Record。

// 这一行代码就搞定了构造、Getter 和 toString
public record UserResponse(Long id, String nickname, String email) {}

文本块与 Switch 表达式

文本块解决了多行字符串拼接时的转义符困扰,而 Switch 表达式则提供了更安全的返回值方式。

// 使用文本块编写 SQL
String sql = """
    SELECT * FROM product_info 
    WHERE category = 'ELECTRONICS' 
    AND stock > 0
    """;

// Switch 表达式直接返回结果
String categoryName = switch (typeCode) {
    case 1 -> "电子产品";
    case 2 -> "家居生活";
    default -> "其他类型";
};

Switch 的模式匹配

Java 17 引入的模式匹配让类型判断更加直观,减少了显式的强制类型转换。所以,处理复杂的业务分支时,我会用增强型的 Switch 配合模式匹配。

// 处理不同类型的事件消息
static String handleEvent(Object event) {
    return switch (event) {
        case OrderEvent o -> "订单编号:" + o.id();
        case UserEvent u -> "用户名称:" + u.name();
        case null -> "空消息";
        default -> "未知事件";
    };
}

善用 Stream API 的增强功能

Stream API 在数据处理方面持续进化。新版增加了更丰富的收集器与过滤逻辑,使得内存中的数据聚合与转换更加高效。合理使用并行流处理大规模数据集,可以充分利用多核 CPU 的性能,缩短复杂逻辑的执行时间。

启用现代垃圾回收器减少停顿

在高并发场景下,我更倾向于使用 ZGC 这种低延迟垃圾回收器。它能把停顿时间压减到 1 毫秒以内,用户几乎感知不到卡顿。

如果对启动速度有极端要求,比如在函数计算场景下,我会利用 GraalVM 将 Spring Boot 编译为原生镜像(Native Image)。

# 构建原生执行文件
./mvnw native:compile -Pnative

这样编译出来的程序启动时间从几秒缩短到几十毫秒,内存占用甚至能砍掉 80%。虽然编译过程变久了,但运行时换来的性能增益它值得。

耗时任务必须异步化

在 Controller 里同步生成 PDF 或者发送复杂的邮件的都叉出去,这会直接堵死 Web 线程。

现在的做法是把这些重活直接扔进消息队列,让主流程瞬间返回。

// 投递到 RabbitMQ 或 Kafka@PostMapping("/submit-report")
public ResponseEntity<String> handleReport(@RequestBody ReportConfig config) {
    taskQueue.send("report_gen_topic", config);
    return ResponseEntity.accepted().body("报告生成任务已启动,请稍后查看");
}

把计算压力转移到后端的 Worker 节点上,这样主 API 就能保持极高的响应速度,即便在高并发流量下也不会崩溃。

总结

优化 Spring Boot 应用是一个系统性的工程。如果你还在忍受冗长的编译等待、高昂的云端开支和莫名其妙的停顿,现在就应该改变做法了。快来试试这些技巧吧。

在上一篇文章中,我们通过误差率实测得出结论:免费IP库不适合作为广告投放核心数据源。
那么问题来了——

商业IP地址库,真的能带来可量化的roi提升吗?

本文基于真实投放模拟环境,通过ab测试对比,量化分析商业IP库对广告系统的实际收益影响。

一、实验背景

测试环境为模拟程序化广告投放系统,核心变量控制如下(因为是自己测评,预算有限,部分维度无法确认准确,只能做到大概):

  • 日均曝光量:300,000
  • 投放区域:部分城市、美国、东南亚
  • 投放类型:城市级定向广告(本地商户和金融服务类)

    二、ab测试设计

A组

  • 使用免费IP库
  • 城市级定向

B组

  • 使用商业IP库(IP数据云、DB-IP商业版、IPnews商业版)
  • 城市级定向

除IP数据源外,其他变量保持一致:

  • 出价策略
  • 创意素材
  • 预算分配
  • 投放时间窗口

测试周期:两周
AB测试.jpg

三、核心评估指标

指标含义
CTR点击率
CVR转化率
CPA单次转化成本
ROI投入产出比
地域误投率实际展示与目标城市不匹配比例

四、测试结果对比

1️ 点击率(CTR)

数据源CTR
免费ip库1.92%
商业ip库2.21%

提升幅度: +15.1%,原因分析:城市匹配度更高、本地相关性增强、用户响应概率上升

3️ 转化率(CVR)

数据源CVR
免费IP库3.4%
商业IP库4.1%

提升幅度: +20.5%,城市级精准匹配对本地服务类广告尤为明显。

4️ CPA(单转化成本)

数据源CPA
免费IP库$26.8
商业IP库$21.9

成本下降约 18.3%

5️ roi提升幅度

综合计算:

数据源ROI
免费IP库1.38
商业IP库1.67

整体roi升约 21%,在预算相同的情况下,相当于,每周多产生约+1.5倍的可归因的收益。

五、不同商业IP库表现差异

在商业版本内部对比(部分脱敏数据):

产品城市准确率平均误差距离更新频率
IP数据云较高较低高频
DB-IP商业版中等周更新
IPnews商业版较低高频

整体来看:

  • IP数据云、IPnews在亚洲市场表现更优
  • DB-IP、IPnews在欧美区域覆盖优势更大
  • 高频更新对于移动网络场景影响显著

六、工程视角总结

可以得出一个明确结论:在城市级广告投放场景下,商业IP地址库带来的roi提升是可量化且显著的。

当投放规模达到一定体量时:免费ip节省的成本+ 远低于误投带来的浪费

从系统设计角度:ip数据不属于“成本中心”而是影响收益的“变量”。

七、我的实践建议

对于广告系统,建议采用以下策略:

  1. 核心投放链路使用商业IP库(如IP数据云、DB-IP 商业版、IPnews)
  2. 结合用户行为数据做二次校验
  3. 对高预算城市做精细化定位优化
  4. 定期进行AB数据复盘

当广告预算足够时,还是选择商业IP库吧。roi增长.jpg

很多人刚开始使用代理IP时都会有一个疑问:明明换了IP,为什么还是被网站识别出来?

有些账号刚注册就被风控,有些操作还没开始就弹验证码,甚至直接封号。这背后其实不是“运气不好”,而是网站的匿名度检测机制在起作用。

今天这篇文章,我们就从底层逻辑讲清楚:为什么很多代理IP会被识别?网站到底在检测什么?又该如何做好在线IP检测和IP信息质量查询?

一、网站到底是怎么识别代理IP的?

很多人以为网站只看IP地址,其实远不止这么简单。现在主流平台的风控系统通常会从以下几个维度进行判断:

  1. IP类型检测(数据中心 vs 住宅IP)

这是最基础的一层判断。

数据中心IP(机房IP)通常批量生成,IP段集中,非常容易被标记。很多网站会建立黑名单库,一旦某个IP段频繁异常,就会被整体拉黑。

而住宅IP因为来自真实家庭网络,分布更分散,相对更“干净”。这也是为什么很多做跨境、营销或数据采集的人更偏向选择高质量住宅代理IP。

如果你做过在线IP检测,就会发现很多检测网站可以直接显示:

IP归属地

ISP运营商

是否为数据中心IP

是否被标记为代理

这就是第一层筛选。

  1. IP历史行为记录(IP信誉评分)

很多人忽略了一点:IP也是有“历史档案”的。

比如:

是否曾被用于爬虫

是否涉及垃圾注册

是否有异常流量

是否出现在黑名单数据库

通过IP信息质量查询工具,你可以看到IP的风险评分、滥用记录甚至是否被Spam数据库收录。

如果一个代理IP本身就“前科累累”,那你无论怎么用,都很难避免被识别。

  1. 浏览器指纹检测(真正的核心)

很多人只关注IP,却忽略了浏览器指纹检测。

即使你换了代理IP,但如果:

浏览器版本固定

分辨率不变

字体列表一致

WebGL参数相同

Canvas指纹一致

网站依然可以判断“这是同一台设备”。

简单说一句大实话:
IP只是门牌号,浏览器指纹才是你的身份证。

这也是为什么现在越来越多平台采用“IP + 指纹 + 行为轨迹”的综合检测方式。

如果你只更换代理IP,却没有配合浏览器环境隔离,那么被识别几乎是迟早的事。

二、为什么很多代理IP匿名度低?

  1. 透明代理或高匿名度不足

代理IP分为:

透明代理

普通匿名代理

高匿代理

透明代理会暴露真实IP,普通匿名会显示“正在使用代理”,只有高匿代理才不会暴露代理痕迹。

很多便宜代理IP其实并非真正高匿。

  1. IP池质量差

低价代理IP通常存在以下问题:

IP重复率高

使用人数多

已被大量网站标记

更新频率慢

你在使用前没有做在线IP检测,也没有做IP信息质量查询,自然踩雷概率很高。

  1. 指纹和IP不匹配

举个很常见的例子:

你使用美国住宅代理IP

浏览器语言却是中文

时区是东八区

系统字体是国内常见字体

这种“环境不一致”在风控系统里非常显眼。

三、如何判断一个代理IP是否安全?

实操层面,可以按以下流程来:

第一步:做在线IP检测

检查:

IP类型(住宅/数据中心)

是否被标记为代理

ASN信息

是否暴露真实IP

这一关不过,基本不用往下看。

第二步:做IP信息质量查询

重点看:

黑名单记录

滥用报告

Spam评分

近期风险行为

如果评分过高,建议直接更换。

第三步:检测浏览器指纹一致性

ToDetect指纹查询检测:

Canvas指纹

WebGL信息

AudioContext指纹

UserAgent

时区与语言匹配度

很多人以为自己环境隔离做得很好,实际上在指纹查询工具里一看,漏洞一堆。

四、网站风控的真实逻辑

现在主流平台的风控通常遵循一个公式:

风险评分 = IP信誉 + 指纹唯一性 + 行为异常度 + 账号历史

只要其中某一项明显异常,就会触发验证甚至封禁。

这也是为什么很多人明明用了高价代理IP,却还是被识别——问题可能不在IP,而在浏览器指纹检测。

五、提高匿名度的几个实用建议

最后给几点实操建议,尽量少踩坑:

优先选择高质量住宅代理IP

每次使用前做在线IP检测

通过IP信息质量查询确认风险记录

搭配指纹隔离浏览器使用

使用ToDetect定期检测环境

保证IP地区、时区、语言、系统信息匹配

控制操作频率,模拟真实用户行为

记住一句话:单靠代理IP解决不了所有问题。

结语

代理IP被识别,其实不是“技术不行”,而是对匿名度机制理解不够深入。现在的网站风控早已不是单点检测,而是多维度交叉验证。

如果你想真正提升成功率,就必须把在线IP检测、IP信息质量查询、浏览器指纹检测结合起来系统化操作。

当你理解了网站的检测逻辑,很多问题自然就迎刃而解。希望这篇文章能帮你少走弯路。

在当代制造业的浪潮中,汽车零部件行业正经历着一场前所未有的智能化变革。这不仅仅是技术的演进,更是企业生存模式的重构。随着电动化、智能化和网联化的趋势日益明显,传统汽车零部件企业面临着效率瓶颈、市场压力和供应链挑战。试想一下,过去那种依赖人工和固定生产线的模式,已经难以应对多变的客户需求和激烈的全球竞争。因此,探索如何实现汽车零部件的智能制造,成为了一个关键议题。智能制造不仅仅是自动化工具的简单应用,它涉及从设计到生产的全链条优化,通过关键技术的融合,推动企业向更高水平发展。本文将从行业背景、技术解析和实际案例三个方面,深入探讨这一主题。
首先,我们需要理解汽车零部件智能制造的背景和驱动力。汽车行业正快速向电动化和智能化方向转型,这要求零部件企业具备更高的灵活性和创新能力。例如,新能源汽车的兴起,带来了电池管理系统、电机控制器等新型零部件的需求,这些产品往往需要定制化生产,而非传统的批量制造。与此同时,全球供应链的不稳定性,如疫情或芯片短缺事件,进一步凸显了智能化升级的必要性。中国如Geega工业互联网平台,已经在这一领域取得了显著进展,通过AI视觉检测技术,实现了生产过程的实时优化。但从整体来看,智能制造的核心目标是提升效率、降低成本并改善质量。这不仅仅是口号,而是通过数据驱动和系统集成,逐步实现的转型。
那么,如何实现汽车零部件的智能制造呢?关键技术的突破是关键所在。其中,自动化生产线是基础,它通过机器人技术(如焊接机器人或装配机器人)替代人工操作,提高生产的一致性和速度。但光有自动化还不够,企业必须整合信息化系统,如ERP和MES,以实现数据的实时采集和共享。想象一下,如果生产数据不能无缝连接,整个智能制造就失去了灵魂。大数据分析则扮演了“大脑”的角色,它帮助企业从海量数据中提取有价值的洞察,优化工艺流程。例如,通过分析能耗数据,企业可以识别浪费点,从而减少单位产品的能源消耗。此外,工业互联网平台的建设,让设备互联互通成为可能,而人工智能的应用,则进一步提升了决策的智能化水平。这些技术的融合并非易事,往往需要企业进行战略规划和投资,但它们共同构成了智能制造的支撑体系。总体而言,实现智能制造的关键在于构建一个以数据为核心的生态系统,而不是孤立地追求某一项技术。
在关键技术的发展路径上,企业需要从短期自动化改造到长期智能化布局逐步推进。这不仅仅是技术更新,还涉及到组织和文化的变革。例如,培养既懂制造又懂数据的复合型人才,成为许多企业面临的挑战。然而,路径清晰:先从设备智能化入手,再扩展到数据集成和AI应用。中国政策如《汽车行业数字化转型实施方案》,就为这一进程提供了有力的引导和资金支持,帮助企业降低转型门槛。展望未来,智能制造的趋势是向更柔性、更绿色的方向发展,技术如数字孪生和边缘计算将进一步深化应用。
现在,让我们通过一些实践案例来验证这些理论。国内企业广域铭岛的转型之路就是一个生动的例子。他们在AI视觉检测方面投入了大量资源,利用深度学习算法对零部件进行高精度质量控制,准确率达到99.8%以上。这不仅减少了人为错误,还提高了整体生产效率。

近日,汽车制造商沃尔沃发布通稿表示,公司的业务流程外包商Conduent遭到网络黑客攻击,大量个人隐私信息被窃取。根据事后官方统计显示,沃尔沃北美分公司约1.7万名员工的个人信息因此次攻击事件遭泄露。Conduent在2025年1月13日就发现部分网络环境出现了安全事件,经过排查与取证,确认早在2024年10月21日起,就已经有未经系统授权的个人或程序非法访问了其网络系统,导致大量客户以及员工的相关信息遭到泄露。根据公开资料显示,Conduent为北美众多大型企业提供后台支持,包含安全支付、文件处理和打印邮寄等,值得注意的是,该公司在去年10月也曾出现过一起数据泄露事件。

可见,在万物互联、深度协同的网络科技时代,保障数据流动安全,才是重中之重。JoySSL市场分析专家指出,沃尔沃数据泄露事件绝非孤例,而是数字化时代企业面临的系统安全困境的缩影。随着科技手段的进步,黑客攻击的范围已延伸至合作网络,边界防御被攻破。通过SSL/TLS安全证书建立通用规则,通过强制加密与身份验证,保障数据能够安全跨界流动,成为构建可信数字生态的信任凭证。

沃尔沃供应链攻击传递信任危机

此次沃尔沃供应链攻击事件,表明如今的网络攻击模式不以防御森严的核心系统为目标,而是借助合作网络作为跳板。一旦外包系统被攻陷,黑客便可顺利侵入系统,同样可获取敏感资料。即使沃尔沃自身的系统防御固若金汤,也难以确保与外包商之间的数据流动通道的安全性,这无疑会导致信任危机的出现。若不能实现强制性加密与身份验证的普及应用,供应链反而会成为阿克琉斯之踵,被网络黑客重点关照。

SSL证书为数据流动提供净化认证

数字证书的核心作用,就是确保数据流动的安全与可信,通过强制加密全链路,为数据跨界流动构建安全隧道,即使被黑客截获数据也无法破译,从根源上提升数据被利用的难度。同时,利用身份验证机制确定对象身份的合法性,识别非法伪装,强制要求客户端出示可信CA签发的证书进行身份验证,杜绝仿冒,净化网络环境,战略价值更高。

SSL证书可通过内部溯源,形成完整有效的部署记录,提供何时、何人、何种连接等审计数据,为审计提供可信认证,为信任修复提供技术支撑,确保数据流动的安全合法性。

数字证书:从技术工具到可信生态

沃尔沃外包商数据泄露事件表明,在网络科技时代,任何企业都无法独立生存于生态系统之外,保障数据安全的手段也需不断延伸。JoySSL技术专家指出,SSL证书通过基础加密功能,定义安全门槛;利用身份验证机制,传递安全信号,维系信任基础;以标准化形式延伸安全要求,实现安全生态辐射,扩展安全策略。数字证书从单一的技术工具演变为通用角色,构建安全可信的生态。

定义网络安全边界 加固生态连接安全

智能科技时代,网络安全的边界已从传统的防火墙,延伸到企业的合作链路。在此背景下,SSL证书不再只是保护网站安全的密码锁,而是构建安全高效可扩展的数字供应链网络的技术基石。利用管理策略发挥数字证书价值,加固企业与整个数字生态的安全连接。

高晓松说了什么

2025-09-05 晚上,「海浪电影周」举办「海浪对话」,在河北秦皇岛市阿那亚蜂巢剧场,高晓松与苏童、毕赣,以「灵光初现:AI 是否能与文字共舞?」为主题,对谈 AI 时代的创作。

视频版本:

  • BV1J6a8zJEgh 。字幕错别字比较多。
  • 微信视频号「明睿智囊」 2026-02-17 发了一段 7 分钟的剪辑《“每个人的心里都有个洞”高晓松在海浪对话中三聊 AI 》。好像是全网播放量最高的。这个镜头与音质好像是官方源。
  • 微信视频号「通讯没有社」 2025-09-07 发的,跟 B 站那个是同一版本,字幕都一样。

BV1J6a8zJEgh-01:17:21 ,高晓松说了这些话:

每一次科技大潮来的时候,都会分成基本上这两种:(就是已经高高在上的人——就不要用这个词)被迫离生活远了的人,就特别想要那个真实的生活、体温,等等。
大家知道电来的时候,最反对用电的是白金汉宫
因为它有蜡烛。它有的是蜡烛,白金汉宫点几千支蜡烛。就反对,因为不好看。那电灯当时出来的时候,它惨白的光,而且惨白光一照,发现白金汉宫那房顶是黑的,因为被蜡烛熏的。
但是那些蜡烛,你想 100 支蜡烛做那种大的旋转那种东西,在宫廷里跳舞,那多好啊。说我们不要用电,因为我们想要这种温暖的光。这种鲸鱼脑子里的挖出来那个蜡,点出来的那个(光)是最美好。
但是其实大多数人民,是希望离这个世界远一点的。那我们那些被迫离得远的说,我想骑车,大多数人民想开车不是想骑车。因为公爵肯定喜欢骑马,因为他那马多好啊。
每次科技来的时候,其实它的普惠价值是超过了它对一部分人的价值。

高晓松讲故事的技巧很强,现场效果很好,我也被他逗笑了。然而,当我想详细了解一下,使用中文、英文搜索后,发现这段历史好像是高晓松原创的。
哦,好像也不一定是他原创的,向 Gemini 提问「历史上,白金汉宫是否更偏好用蜡烛,而不是用电灯」,就能得到类似的故事。

我不关注高晓松,我会看到这段视频,是因为 2026-02-21 「维舟」在《 AI 有什么用?用起来才知道 》,以此为论据,论证:

高晓松曾在一场对谈中谈到一个有趣的现象:每次科技大潮来临的时候,往往倒是一些生活优渥的精英阶层更加抵触。

白金汉宫与电灯泡

7 memorable moments in the history of Buckingham Palace

In 1883 electricity was installed in the ballroom, the largest room in the palace. Over the following four years electricity was installed throughout the palace, which now uses more than 40,000 lightbulbs.

1883 年,宫殿里最大的房间——宴会厅——安装了电力。在接下来的四年里,电力逐渐普及到整个宫殿,如今宫殿里使用了超过 4 万个灯泡。

Joseph Swan 发明的灯泡于 1880 年在英国取得专利,1881 年开始商业生产。他发明的灯泡用的是「碳(化)丝」。( 维基百科 、《 坦率地算了一下,爱迪生是第 23 个发明电灯的人 》)

维多利亚女王在位时间是 1837-1901 年。( 维基百科

2023 年有一部纪录片《 Buckingham Palace with Alexander Armstrong 》,在 S1E4 13:10 (需要英国 IP 才能看)提到了白金汉宫使用电灯的历史:

Although the Palace could be home to some rather backwards thinking, its facilities were very much facing the future. Modern lavatories and some gas
lighting had already been installed, but that was just the beginning.
In the 1880s, guests to the Palace were treated to a brand-new dazzling invention. There was just one problem, one that would give some of them
a real headache. JJ is shedding some light on the situation.
Today, Buckingham Palace is lit up with an estimated 40,000 light bulbs. So, what was it like when the Palace was first illuminated by electric lights? Dr. Matthew Green is going to enlighten me.

尽管白金汉宫的一些思想可能略显落后,但其设施却非常面向未来。现代化的厕所和一些煤气灯已经安装完毕,而这仅仅是个开始。
19 世纪 80 年代,白金汉宫的住客们体验了一项全新、耀眼的发明。这项发明也带来了一个会让部分住客头疼的问题。JJ 将为我们揭开这个谜团。
如今,白金汉宫大约使用了 4 万个灯泡。那么,白金汉宫最初使用电灯照明时是怎样一番景象呢?马修·格林博士将为我们解答。

Right through the 19th century, most of the time, it was lit by these rather meagre oil lamps, by gas lights and a whole armada of candles. It would take up to 30 people just to light them all for a single banquet or a ball.
But all this changed in 1883, when new-fangled electric light bulbs were introduced to the palace. It being Buckingham Palace, it felt fitting that they would use the recently invented light bulb of Joseph Swan rather than
the American Thomas Edison. So it was a display of British entrepreneurial prowess which felt fitting.

整个 19 世纪的大部分时间,白金汉宫都依靠简陋的油灯、煤气灯和大量的蜡烛照明。仅仅为了举办一场宴会或舞会,就需要多达 30 个人来点亮所有照明工具。
但这一切在 1883 年发生了改变,新式电灯泡被引入宫殿。因为是白金汉宫,采用 Joseph Swan 新近发明的灯泡,而非美国人托马斯·爱迪生的发明,是非常合适的。这彰显了英国企业家的卓越成就,堪称恰如其分的选择。

白金汉宫-白炽灯.png
(上图来自纪录片)
这个色温叫惨白吗?

And this was the kind of light bulb they would have had back in 1883. Look at that. I mean, it's very in right now. It is, it looks quite boutique-y, just like it could come from an artisan coffee shop. 700 of Swan's very latest light bulbs were installed in the state rooms of Buckingham Palace. So now guests at the royal ball were under the spotlight like never before.

这就是 1883 年人们会用的那种灯泡。看那造型,在今天看来反而极具时尚感,带着一种精品设计的韵味,就像是从一家手磨咖啡馆里拿出来的那样。700 个 Joseph Swan 的最新款灯泡被安装在了白金汉宫的国事厅里。自此,皇室舞会上的宾客们便置身于前所未有的亮光之下。

The brightness is one thing, but it's the consistency of light that you don't have with the flickering of everything before it.That's right. And it's an unforgiving light. It's a light that people came to resent in some ways, because it exposed all their flaws. A newspaper report from the time described the effect of the new bulbs as "less than flattering, especially on people's complexions".

亮度是一方面,但更重要的是光线的一致性——那些闪烁的旧光源可做不到。而且这是种毫不留情的光。由于它暴露了皮肤的瑕疵,人们有点讨厌这种光。当时的报纸将电灯泡的效果描述为「不太讨喜,尤其对人的肤色而言」。

But guests at the Palace weren't only scared of looking ugly under the harsh electric light, they were worried that the new bulbs were damaging their health. People were fearful of it, as people are of new technologies as well, because many people reported waking up the next day with an absolutely splitting, brain-crushing headache, which was inevitably attributed to this rather alien device. But these complaints were largely ignored. The authorities said it's here to stay, and if anything, we're going to extend it.

但宫殿里的客人们不仅害怕在刺眼的电灯下显得丑陋,更担心电灯泡损害健康。人们对此心怀恐惧,正如对待所有新技术那样。因为许多人反映次日醒来时头痛欲裂,这种痛苦被归咎于这个陌生的装置。但这些抱怨大多被忽视。当局宣称将继续使用电灯,甚至计划进一步推广。

So, this is a success? It's a huge success, almost against the odds. And they decide they want to, why not light the rest of the Palace like this? And that sets the tone for other mansions, and eventually, more modest households all over the country will be illumed by this incredible bulb.

这算是成功了?是的,而且是出人意料的巨大成功。于是他们决定:干脆把宫殿剩下的地方全照这么装。这为其他豪宅树立了榜样,最后,全英国千家万户的普通住宅,都被这种不可思议的灯泡点亮了。

爱德华七世国王与汽车

还是纪录片的这一集,在 41:40:

An early champion of the motor car, he owned more than ten of them, and used the Palace stables to house this new kind of horsepower.

作为汽车的早期拥趸,他(爱德华七世国王)拥有十余辆汽车,并把这种新型的马力存放在宫廷马厩里

爱德华七世国王和他的汽车.png
如图,是爱德华七世国王和他的 1902 年款 24 马力戴姆勒汽车。

1902 年,爱德华七世国王又买了一辆戴姆勒汽车后,授予戴姆勒汽车「皇家汽车供应商」许可。( 维基百科
第一辆量产型 T 型车是 1908 年制造完成的。( 维基百科


我不是历史专业的,高晓松也不是。他讲这段历史,来源是什么?是他的原创研究吗?
我不敢说白金汉宫(的管理者)从来没有反对电灯,但以上这些资料显然不支持高晓松讲的故事。

这类「只有中国人才知道的小故事」,不管是什么立场,我真是受够了!

2 月 24 日消息,据 TC 报道,Anthropic 指控三家中国人工智能公司利用其 Claude 人工智能模型创建了超过 24,000 个虚假账户,以改进他们自己的模型。据称,DeepSeek 、Moonshot AI 和 MiniMax 这三个实验室利用一种名为蒸馏的技术,通过这些账户与 Claude 进行了超过 1600 万次交互。

Anthropic 追踪到 DeepSeek 超过 15 万次的交易,这些交易似乎旨在改进基础逻辑和对齐方式,特别是围绕着针对策略敏感查询的、不受审查限制的替代方案。

Moonshot AI 的交易量超过 340 万次,涵盖智能体推理和工具使用、编码和数据分析、计算机智能体开发以及计算机视觉等领域。上个月,该公司发布了新的开源模型 Kimi K2.5 和一个编码智能体。

MiniMax 的 1300 万次交易旨在实现代理编码、工具使用和编排。Anthropic 表示,他们能够观察到 MiniMax 的实际运作情况:在最新款 Claude 模型发布时,MiniMax 将近一半的流量重定向到该模型,以利用其功能。 

我就说之前都没有听说过 MiniMax 这家公司,感觉还挺好用的,月初买了他们的 coding plan ,没想到居然是直接调用 Claude 的最新款模型

目前正在用 surge 做透明网关,macmini 同时接入了有线网和无线网,大多数时间是有线网作为首选网络接口,但是有时会突然跳到无线网作为首选网络接口,然后立马又切回有线网,这个可能是因为有线网波动?不指导能否设置网络接口只使用有线网。
PS:无线网还不能关掉,因为要用到 air drop 功能等

很多团队做 Agent 都会经历同一个阶段:Demo 很快,落地很慢。新需求一来,就要重写 Prompt、重配工具、重测流程;场景一变,之前的能力几乎无法直接复用。看起来 Agent 已经能对话、能执行,但距离稳定交付,还缺一套可沉淀、可复用、可协作的能力组织方式。

这正是 Skills 的价值:用自然语言描述任务能力,并结合可复用的文档与脚本,把能力封装成模块——像插件一样安装、复用、迭代

在 LazyLLM 最新版本(v0.7.5)中,你可以通过 LazyLLM 让自己的 Agent 快速接入 Skills 体系,走向可扩展、可复用、可持续演进的 Agent 开发之旅。本文将用三步实操,带你完成从零到一的接入过程,并用实际任务验证它能带来的提升。


一、什么是Skills

Skills 是一种任务级能力封装机制:用结构化形式描述“一个 Agent 应该怎么完成某类任务”。一个 Skill 通常包含:

  • 操作指令(Instructions):告诉 Agent 如何完成任务(步骤、约束、注意事项)。
  • 可选执行逻辑(Scripts):例如 Python 脚本、工具调用、自动化流程等。
  • 任务上下文约束(References):输入输出格式、依赖资源、边界条件、示例等。

在实际使用中,Skills 体现为一个可按需加载、标准化、可复用的能力包(Capability Package)。相比把流程“藏”在 Prompt 拼接与临时代码里的方式,Skills 的优势在于:

  • 流程清晰、边界明确:执行逻辑模块化,维护与排障更直接。
  • 复用性强:一个定义好的Skill,可在多个 Agent 、多个平台(如 Cursor、Claude Code、Codex 等)复用。
  • 天然支持扩展:通过注册/发现机制动态加载,避免常驻上下文污染。

简而言之,Skills 不是让模型“更聪明”,而是让 Agent 的执行更稳定,让能力更容易复用。

如下表所示,Skills 把“个人经验”变成“团队资产”,把“一次性开发”变成“可复用工程”。

哪些场景最适合先上 Skills?

  • 工具调用:将带固定参数结构、权限约束或稳定输出格式的数据库查询/API请求/检索操作封装为 Skill ,避免每次重复构造调用逻辑。
  • 流程编排:将“解析输入→工具调用→结果校验→格式化输出”等串行任务固化成稳定流程,减少临时 Prompt 拼接。
  • 领域知识封装:把专业术语、边界规则、标准示例集中管理,让 Agent 在垂直任务中更稳、更一致。
  • 跨Agent复用:同一Skill可在多个 Agent、多个平台中调用,实现“一次开发,多处使用”,提升整体交付效率。

二、只需三步,为 LazyLLM Agent 接入Skills

在 LazyLLM v0.7.5 中,把 Skills 接入现有 Agent 不需要重构工程。你只需要三步:

升级版本 → 导入 Skills → Agent 挂载并验证效果

三步完成后,你的 Agent 将具备“按需组合 Skills ”的能力。下面按实操顺序带你跑一遍。

(一)安装最新版LazyLLM

先把 LazyLLM 升级到包含 Skills 能力的版本,在环境中运行命令:

pip install -U lazyllm

然后确认版本是否生效:

python -c "import lazyllm; print(lazyllm.__version__)"

看到输出版本号≥0.7.5,即为更新完成。

(二)导入想要使用的Skills

你可以先从公开仓库挑选可复用的 Skills ,例如:

把目标 Skills 下载并整理到本地目录后,即可通过 LazyLLM CLI 导入到工作空间。新版本已内置 lazyllm skills 命令组,常用命令如下:

推荐上手流程(以 Anthropic Skills 仓库为例):如果你希望导入本地目录中的全部 Skills,只需要三条命令:

lazyllm skills init
lazyllm skills import ./your-skills-path --overwrite
lazyllm skills list

执行后,终端会列出当前工作空间已安装的 Skills 及其描述信息。看到这些结果,就说明 LazyLLM 已经成功识别并加载了这些能力包。

(下载到本地的Anthropic官方Skills目录)

(运行命令输出详情)

完成导入后,下一步就是把这些 Skills 真正“挂”到 Agent 上,让它们在任务执行中生效。

(三)在 Agent 中挂载 Skills 并启用

在本次更新中,我们尽可能减少了开发者需要改动的代码量。和传入工具集(tools)类似:只需在创建 Agent 时新增 skills 字段,并传入期望可用的 Skills 列表,即可让 Agent 使用传入的技能包。

最小改动示例:把 Skill 名字放进 skills 参数即可;如果希望 Agent 能识别并使用当前工作空间中的 全部Skills,将 skills=True 。

from lazyllm import OnlineModule, ReactAgent, WebModule
llm = OnlineModule(source='glm', model='glm-4.7', api_key='your-glm-api-key')
agent = ReactAgent(
    llm=llm,
    skills=['mcp-builder', 'frontend-design', 'canvas-design'],  # 设置 skills=True 启用所有Skills
    max_retries=20,
    stream=True,
)
w = WebModule(agent, stream=True)
w.start().wait()

我们可以看到:

  • 相比以往需要手动研发/注册工具,使用 Skills 无需创建或注册任何工具,也无需额外对接 MCP
  • Skills 支持人为指定;此处我们选择了与 MCP / 页面设计相关的 Skills 作为演示

三、效果验证:两个任务跑通闭环

运行程序后,我们用两个任务来验证 Skills 是否真正“可用、可复用、可迭代”。

任务一:让 Agent 设计一个 LazyLLM 的官网界面,并给他提供了一个风格示例(Llamaindex官网)。可以看到,Agent 能够自行选择合适的 Skills(例如前端设计相关 Skill),并通过 Skill 学习、网页抓取与 HTML 编写,完成 LazyLLM 初版网页设计并保存至本地工作空间。

(Agent 能够自行选择合适的 Skills(前端设计 Skill ))

(Agent 通过 Skill 学习、网页抓取、html 网页编写,

完成了 LazyLLM 初版网页设计,保存至本地工作空间)

任务二:在已有页面基础上修改风格(更改主题颜色,增加橘色元素)。

(修改主题颜色后的页面)

从这两个任务可以看到,Skills 带来的关键变化不是“回答更长”,而是“执行更稳、更可控”:

  • 能自动选择合适 Skills(减少人工“选工具/写流程”成本)
  • 能基于已有产物做定向改造(具备可迭代性,而不是一次性生成)
  • 不需要从零重建流程(从“临时拼接”升级为“能力组装”)

四、常见坑与避坑清单

为了让大家更无痛地使用 LazyLLM + Skills ,我们整理了一份“官方踩坑清单”:

🗝️建议每次导入后固定执行 lazyllm skills list 做验收,把“路径一致性”作为第一排查项。


五、从“会聊”到“会干活”

到这里,我们已经把 Skills 在 LazyLLM Agent 中的接入闭环完整跑通了:升级版本、导入能力、挂载验证,三步就能把“临时可用”变成“稳定可复用”。

你可以看到,Skills 的价值在于能力工程化,而 LazyLLM 的价值在于把这种能力工程化变成一件低成本、可快速落地的事情。它不是在给 Agent 增加“新魔法”,而是在帮我们把零散的 Prompt、脚本和经验,升级为可组合、可复用、可协作的能力模块。这意味着:

  • 新场景不再从零开始,而是优先复用已有能力
  • 复杂流程不再隐藏在 Prompt 细节里,而是显式可维护
  • Agent 不再是一次性交付,而是可以持续演进的系统

如果你正在做 RAG、Agent、工具调用或流程编排相关工作,强烈建议从一个小场景开始,直接用 LazyLLM 把能力接入 Skills 跑一遍。当你真正跑通一次之后,会很直观地感受到:Agent 的开发方式,已经从“临时拼装”升级成了“能力组装”。

如果你对 LazyLLM + Skills 感兴趣,欢迎关注公众号、Star 项目或加入交流群一起交流。


官方教程🔗:

欢迎升级体验 LazyLLM 最新版本,请大家去github上点一个免费的star,支持一下~

LazyLLM项目仓库链接🔗:


更多技术内容,欢迎移步gzh "LazyLLM" 讨论!

近日,龙蜥社区第七届理事大会在杭州郭庄成功举行。本次会议有龙蜥社区理事及代表、高级顾问/特约顾问、特邀嘉宾等共计 35 位成员出席。本次会议由龙蜥社区运营委员会主席陈绪主持,会上正式成立龙蜥社区第二届顾问团,并全票通过了关于修订龙蜥社区宣言的决议,同时向大家汇报了 2025 龙蜥社区年度运作报告和下一步技术规划。

图片
(图/现场理事合照)

在西湖活水环抱的郭庄相聚,浙江省及杭州市相关领导与理事长马涛共同做了开场致辞。作为江南园林营造技艺的典范,郭庄以"咫尺山林"的造景智慧,将西湖烟雨凝练为天人合一的东方哲学,恰似开源生态兼容并蓄、生生不息的发展之道。

会上,相关领导特别指出,龙蜥社区已成长为数字基建领域的中坚力量,据《国产服务器操作系统发展报告(2025)》显示,龙蜥操作系统以超 50% 的市场首选率领跑行业,累计装机量突破 1000 万台。值得关注的是,杭州本土科技力量深度参与生态共建,已在金融、智慧政务、交通等关键领域形成标杆应用。面向未来,杭州将持续牵手企业,加强人才培养、技术协作与产品推广,携手打造更加繁荣的开源生态。

龙蜥社区理事长马涛回顾了社区五年来的发展,并提到龙蜥社区已连续两年入选国家信息化发展报告。同时指出以大模型为代表的 AI 技术(如 ChatGPT、通义千问等)已深刻影响日常生活与产业生态。他强调,AI 与操作系统(OS)的深度融合将成为社区未来五年的关键方向,面对 AI 带来的新场景与新挑战,希望各方能在 2026 年这一承前启后之年凝聚共识,共同规划下一个五年发展。期待与各界同仁共同绘制开源生态新图景,让技术创新如西湖活水般滋养千行百业,让社区发展似江南园林般绽放时代新韵。

image.png
(图/龙蜥社区理事长马涛)

龙蜥社区技术委员会主席杨勇代表社区技术委员会与运营委员会作整体工作汇报,系统梳理了过去一年在技术、生态与运营方面的核心成果,并前瞻性地描绘了社区未来五年的发展蓝图。他提到,龙蜥已从单一项目成长为支撑全行业的平台型生态底座,国内操作系统开源社区主导的操作系统选型规范(6.6 内核),不仅仅被 Anolis OS 及其衍生版正式支持,也被国内一些互联网大厂采纳为选型基准。面向未来五年,社区将聚焦“AI for System”与“System for AI”双向融合,推动工具链统一、兼容标准共建,以数据驱动选型,着力破解长期困扰行业的生态碎片化难题。

image.png
(图/龙蜥社区技术委员会主席杨勇)

伴随社区影响力的持续提升,更多企业选择深度投入,融入龙蜥生态治理体系。在第三届龙蜥大会上,海光信息晋升为副理事长单位、AMD 正式成为理事单位,这不仅代表社区对两家企业长期以来扎实贡献的认可,也体现了他们对龙蜥开源生态的坚定投入。会上,海光信息生态发展部总工程师杨继国和 AMD 中国区数据中心市场及业务发展总监曲大健作为两家代表,向大家介绍了企业未来的投入规划。他们表示将持续加大在 CPU/GPU 支持、安全容器、编译器优化及新架构适配等方面的投入,深化与龙蜥在智算 OS 与超级节点等前沿领域的合作,并积极参与各项社区活动。

image.png
(图/由左至右:海光信息杨继国、AMD曲大健)

为进一步凝聚共识、强化治理,本次会上也发起了对《龙蜥社区宣言》修订的提议。宣言内容新增“知识产权与合规共建”条款,并强化对公开 CPU/GPU 架构的支持,进一步夯实社区的开放、可信与可持续发展基础。该宣言修订版获在场理事和理事代表全票通过,标志着龙蜥社区在迈向成熟开源共同体的道路上又迈出坚实一步。

image.png
(图/《龙蜥社区宣言》修订版表决现场)

顾问团是龙蜥社区的关键智囊团,为龙蜥社区的发展提供前瞻性指导,对龙蜥社区的长久发展提出实质性改进和提升意见,是龙蜥社区重要的组织。会上,中国工程院院士、浙江大学信息学部主任、龙蜥社区第一届高级顾问陈纯回顾了自己作为龙蜥社区高级顾问的过往经历,同时表达了对社区过去五年发展的高度认可并对下一步社区顾问工作做了指导。他强调,未来五年特别是在“云+AI”融合趋势下,龙蜥社区还需持续夯实技术底座、推动生态协同。

image.png
(图/龙蜥社区首届高级顾问、中国工程院院士、浙江大学信息学部主任陈纯)

在陈纯院士等专家的指导下,龙蜥社区持续繁荣发展,同时,他也把期待交给了下一届顾问团。其中,第二届高级顾问团汇聚了多位成果卓著的专家学者,他们分别是:清华大学教授、青海大学校长史元春,西交利物浦大学数学物理学院院长、西交利物浦大学后量子迁移交叉实验室(PQC-X)主任、NIST PQC 标准核心设计者丁津泰,中国科学院计算技术研究所研究员、副所长包云岗,LVS开源项目创始人、CCF开源发展技术委员会副主任章文嵩博士。

image.png

第二届特约顾问团也同样云集了多位行业领军人物,分别由中国开源软件推进联盟副主席兼秘书长、中国科学院软件所研究员刘澎,杭州指令集智能科技有限公司首席专家潘爱民,达闼机器人创始人黄晓庆,清华大学计算机科学与技术系副教授、KVCache.AI 团队负责人章明星四位专家担任。

image.png

image.png
(图/顾问团聘任仪式)

第二届顾问团的成立,承载了龙蜥社区各家单位和行业的期待。接下来,他们将定期参与理事会重要决议,出席龙蜥重大活动,为龙蜥的发展提供战略指导。各位顾问专家通过现场发言和线上发言的方式表达了对龙蜥的高度肯定和支持,也围绕龙蜥操作系统在 AI 时代的创新方向、RISC-V 与龙蜥深度协同、可信供应链认证体系等提出多条助力社区更快更好发展的核心建议,为社区高质量发展注入前瞻性思路与实践路径。在会议现场,龙蜥社区理事长马涛和副理事长张东为现场顾问颁发聘书,第二届龙蜥社区顾问团正式成立(官网组织架构已更新)。

在此关键节点,龙蜥社区特别向首届顾问团专家——中国工程院院士、浙江大学信息学部主任陈纯,中国工程院院士、浪潮集团首席科学家王恩东,凝思软件董事长、中国 Linux 先行者宫敏,北航网安学院院长、教授刘建伟等专家致以诚挚谢意。

龙蜥社区第七届理事大会圆满落幕。会后,全体参会嘉宾共赴杭州北高峰开展户外技术交流,促进新年度协作共识。龙蜥社区为登顶嘉宾获颁专属纪念奖牌,并于“天下第一财神庙”前合影留念,共祈生态繁荣发展。

image.png

站在五周年的新起点,龙蜥社区将以更开放的姿态、更扎实的技术、更紧密的协作,携手生态伙伴共建 AI 时代坚实、高效、可信的开源操作系统底座,为中国基础软件自主创新注入持续动能。最后,龙蜥社区理事会全体成员提前祝大家马年吉祥,新春快乐!

本次理事大会感谢杭州市相关单位和全体理事的支持。同时对参与本次活动组织和筹备的金美琴、贺迪、蔡佳丽、倪俊雄等委员和工作人员表示感谢。

1 月 23 日,龙蜥社区安全联盟(OASA)(以下简称“联盟”)年度工作会议在北京召开,联盟秘书处成员、浪潮信息产品安全技术专家 Cruise Qi 主持、37 位联盟代表出席参会。本次会议围绕 AI 与安全融合、PQC 密码等技术方向展开探讨,全票通过苏州朗空后量子科技有限公司(以下简称朗空量子)、西交利物浦大学后量子迁移交叉实验室(PQC-X)的加入申请。会议还就联盟 2026 年发展规划达成共识,明确以“标准规范为引领、技术产品为核心、生态运营为纽带”推进下一步工作。

image.png(图/龙蜥社区安全联盟年度工作会议合照)

会议伊始,龙蜥社区安全联盟秘书处成员、浪潮信息产品安全技术专家 Cruise Qi 对会议和与会嘉宾做了介绍和欢迎,希望此次线下会议能加深各厂商之间的交流和合作。

浪潮信息产品安全总监 Wei He、龙蜥社区安全联盟主席龙勤 做开场致辞。

浪潮信息 Wei He 先生表示,龙蜥社区安全联盟成立两年多来,在各成员单位的协同努力下,围绕操作系统安全能力建设取得了显著进展。作为联盟重要成员,浪潮信息将持续加大在安全联盟的投入力度,积极参与联盟各项共建工作,与社区伙伴携手推进容器操作系统安全能力的持续演进,助力打造更加安全、可信的操作系统底座。

龙蜥社区安全联盟主席龙勤在致辞中指出,在云计算与人工智能快速发展的背景下,开源操作系统迎来了重要发展机遇,同时也面临着前所未有的安全挑战。无论是 AI 驱动的新型攻击形态、软件供应链安全风险,还是大模型应用与 Quantum 计算带来的潜在威胁,都对操作系统安全提出了更高要求。安全已不再是可选项,而是构建操作系统“可信基座”的必选能力。他强调,正是在这一背景下,龙蜥社区安全联盟的价值愈发凸显。过去一年,联盟围绕面向 AI 时代的安全探索、全链路软件供应链治理以及 PQC 密码等前沿方向,持续推进标准共建、技术共享与生态共治,逐步汇聚起跨企业、跨领域的协同合力,为社区和成员单位在不确定环境中提供了更强的信心与支撑。他表示,本次年度会议不仅是对 2025 年工作的系统总结,更是面向 2026 年的一次前瞻性共识凝聚,希望与会成员充分交流、深入探讨未来共建方向,持续推动龙蜥社区安全能力与生态影响力的提升。

龙蜥社区运营委员会副主席、安全联盟秘书处负责人金美琴做对 2025 年联盟工作做了回顾和总结。她表示,过去一年,联盟在产品适配、联合方案共建、生态活动组织等方面取得扎实进展。安全厂商与龙蜥操作系统及其下游商业发行版的兼容适配稳步推进;7 家联盟成员共同打造 3 个高质量联合解决方案;全年成功举办年度工作会议、龙蜥大会“AI 与系统安全”分论坛等多个安全专场活动;Anolis OS 8 与 Anolis OS 23 的漏洞修复机制不断完善,系统安全水位稳步提升,这些成果为安全生态奠定了坚实基础。金美琴强调,联盟的运作始终务实,尤其是在开源社区的运作中,坚持用目标牵引、机制保障、成果验证来推动协作。这些数据不是结论,而是客观呈现;过程推进中的难点和厂商参与动力不足的地方,都值得我们共同复盘与改进。

会上,朗空量子董事长、西交利物浦大学后量子迁移交叉实验室(PQC-X) 副主任刘锐代表两家单位申请加入联盟。他表示,朗空量子与 PQC-X 实验室长期专注于 PQC 安全技术研发与产业落地。在龙蜥社区第七届理事大会上,西交利物浦大学数学物理学院院长、西交利物浦大学后量子迁移交叉实验室(PQC-X)主任、NIST PQC 标准核心设计者丁津泰教授受邀加入龙蜥社区第二届高级顾问团,希望依托龙蜥安全联盟,携手生态伙伴,共同推动操作系统在 PQC 时代的安全演进,为社区及成员单位提供面向未来的密码安全能力支撑。

经联盟委员现场举手表决,两家单位全票通过,符合联盟章程要求,朗空量子、西交利物浦大学后量子迁移交叉实验室(PQC-X)正式加入。

image.png
(图/现场表决)

阿里云技术专家周彭晨介绍 AI 与安全融合实践,他提到龙蜥已基于 AI 平台开展 CVE 漏洞的智能化治理,自动化率达到 97%,采纳率达到 96.4%,显著提升了漏洞治理效率。当前 AI 治理主要覆盖 CVE 全生命周期的部分环节,如修复、补丁回归测试等尚未完全覆盖。未来,联盟将推动 AI 能力与操作系统深度结合,构建 Agent 安全运行时,建立 Agent 对操作系统的实时基准度量,并将成熟的 AI 治理能力在联盟内开放共享,持续提升安全治理智能化水平。

龙蜥社区商密软件栈负责人、阿里云系统安全高级专家张天佳做《运行时策略即代码:用Lua 重塑 Linux 内核访问控制》的技术分享,他介绍到:针对现有 SELinux、eBPF 等框架在灵活性、开发门槛和动态性上的局限,龙蜥社区提出在 Linux LSM 框架基础上集成 Lua 脚本引擎,允许通过编写 Lua 脚本实现灵活、动态的访问控制策略。该方案具备良好的可编程性、容错性和易用性,能快速实现复杂的动态安全策略。该框架预计在 3 月正式在龙蜥开源。

龙蜥社区安全联盟主席龙勤分享了 2026 年联盟年度规划,现场与会人员共同讨论,确定了 2026 年总体工作方向。安全联盟将以“标准规范为引领,以技术产品为核心,以生态运营为纽带”,构建开放协同、可信赖的安全生态。在 AI 与安全方面,将深化 AI 与安全的融合,重点推进 AI for Sec(AI 驱动安全)和 Sec for AI(安全赋能 AI),如 AI 驱动的 CVE 全生命周期治理、可验证安全逻辑的构建等。在供应链安全方面,将深化 SBOM 体系,拓展至 AI BOM 和密码 BOM,提升供应链透明度和可验证性。在 PQC 密码方面,将持续布局,结合硬件厂商和应用厂商,沉淀最佳实践和迁移方案。

本次年度工作会议的召开,为龙蜥社区安全联盟 2026 年工作指明了方向,凝聚了共识。未来,联盟将持续汇聚产业力量,共同推动安全技术创新和生态繁荣,为数字基础设施安全可信发展提供坚实支撑。

最后,感谢 Cruise Qi、Lindsay Gao、Niki Pan、Fannie Zhang、Xiao Xu 等人对本次会议的组织和支持。

—— 完 ——

在日常办公和电子文档处理中,PDF和OFD是两种最常见的电子文档格式。PDF作为国际通用格式广为人知,而OFD作为国家标准版式文档格式,在国内电子公文、电子发票等领域应用日益广泛。本文将分享如何使用C#和Spire.PDF组件轻松实现这两种格式的相互转换。

Spire.PDF 组件简介

Spire.PDF for .NET 是一款专业的 PDF 处理组件,无需安装 Adobe 软件即可在 .NET 应用程序中操作 PDF 文档。它支持 PDF 与 Word、Excel、图片、OFD 等多种格式互转,功能强大且易于使用。

安装方式

通过 NuGet 包管理器安装:

方式一:Visual Studio 搜索安装

在 NuGet 包管理器中搜索“Spire.PDF”并安装

方式二:命令行安装

Install-Package Spire.PDF

PDF转OFD:简单三步搞定

首先,让我们看看如何将PDF文档转换为OFD格式。借助Spire.Pdf库,整个过程只需几行代码:

using Spire.Pdf;

namespace PDFtoOFD
{
    class Program
    {
        static void Main(string[] args)
        {
            // 加载PDF文档
            PdfDocument pdf = new PdfDocument();
            pdf.LoadFromFile("Input.pdf");

            // 保存为OFD格式
            pdf.SaveToFile("ToOFD.ofd", FileFormat.OFD);

            Console.WriteLine("PDF转OFD完成!");
        }
    }
}

OFD转PDF:同样简洁

当需要将OFD文件转换回PDF时,Spire.Pdf.Conversion命名空间下的OfdConverter类提供了对应的转换能力:

using Spire.Pdf.Conversion;

namespace OFDtoPDF
{
    class Program
    {
        static void Main(string[] args)
        {
            // 加载OFD文档
            OfdConverter converter = new OfdConverter("Input.ofd");

            // 转为PDF格式保存
            converter.ToPdf("ToPDF.pdf");

            Console.WriteLine("OFD转PDF完成!");
        }
    }
}

实际应用场景

这种格式转换能力在以下场景中尤为实用:

  1. 电子政务系统集成 :政府部门之间公文流转可能需要OFD格式,但企业内部系统可能更习惯处理PDF
  2. 电子发票处理 :税务系统常用OFD格式发票,财务系统需要将其转换为PDF便于打印和存档
  3. 文档归档系统 :统一的文档格式标准转换,确保长期可读性
  4. 跨平台文档交换 :在不同操作系统和应用之间交换文档时,格式转换往往是必要环节

总结

通过上述两个简短的代码片段,我们实现了PDF和OFD格式的双向转换。这种简洁的实现方式体现了优秀组件库的设计理念——将复杂的技术细节封装在内部,向开发者提供直观的API接口。无论是PDF转OFD还是OFD转PDF,都可以在几分钟内集成到现有系统中,极大提高了开发效率。

随着OFD格式在国内的普及,掌握这两种格式的转换技术,对于开发电子文档处理系统的开发者来说,已经成为一项必备技能。希望本文的示例代码能为你的项目开发提供帮助。

  • 买房
    在长沙买一套婚房,用于年底或者明年居住,预计总价在 180+,OP 现在上海,如果能换到长沙工作的前提下压力还行
  • 结婚
    OP 和女朋友已经在和两边父母商量日子了,预计会在 5 月订婚,6 月结婚
  • 生子
    OP 结完婚就开始备孕
  • 换工作
    在等上海公司 cai 我,然后回长沙找工作

这就是今年的计划!!!