2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。weibo.com/ttarticle/p/show?id=2309405290320475848730 weibo.com/ttarticle/p/show?id=2309405290320828432386 weibo.com/ttarticle/p/show?id=2309405290321235017780 weibo.com/ttarticle/p/show?id=2309405290427158233202 weibo.com/ttarticle/p/show?id=2309405290427510292586 weibo.com/ttarticle/p/show?id=2309405290427867070839 weibo.com/ttarticle/p/show?id=2309405290428219129971 weibo.com/ttarticle/p/show?id=2309405290428571451429 weibo.com/ttarticle/p/show?id=2309405290429099933759

[求助] ,我工作四年。目前我在部门是普通开发,架构是:领导 - 小组长 - 我,三级架构,之前招我进来的时候有表达过替代小组长位置的,但是目前进来一年,没有说过这事了。而且小组长可能感知到(此前这个位置走过搞几个人了,小组长是资深员工),故所有事情都不和我同步,我只能做一个普通开发者,此为背景。

目前发生线上事故 我之前咨询事故进展,小组长轻描淡写一句话,导致我根本不清楚前因后果,后续领导问我,我无法回答,因为我确实无从得知,后续领导私下发我,说小组的事情多关注一下,否则很危险。

请问各位工作经验很丰富的哥哥姐姐们,如何破局?怎么才是最优解?

随着工业4.0与智能制造的深入推进,设备维护模式正经历从传统的事后维修与预防性维护向预测性维护的范式转移。本文阐述万界星空AI驱动预测性维护的技术原理、架构体系及实施路径,通过多源数据融合与深度学习算法,解决传统维护模式中成本高、效率低、响应滞后的痛点,为企业构建可量化、可落地的设备健康管理体系提供理论依据与实践指导。
传统维护模式的局限性与挑战
在当前的工业制造场景中,设备的高可用性是保障产能与交付的核心。然而,传统维护策略普遍面临“三缺”困境:缺数据、缺预判、缺效率。

事后维修模式依赖于设备功能失效后的被动响应。据行业统计,非计划停机造成的生产损失往往是常规维护成本的数倍,且突发故障常引发连锁反应,导致核心部件不可逆损坏。预防性维护虽引入了周期性干预机制,但基于固定时间表的维护策略忽视了设备实际工况(如负载、环境、磨损速率)的差异性,导致“过度维护”造成的资源浪费与“维护不足”引发的漏检风险并存。

预测性维护的技术解构:数据驱动的科学范式
预测性维护并非基于经验的模糊预测,而是建立在严密的数学逻辑与工程实践基础上的科学体系。其核心在于利用物理感知与数字算法的深度融合,实现设备全生命周期的状态感知与趋势预判。

多维感知与数据治理
高精度预测的前提是全维度的状态感知。系统通过部署工业物联网传感器,采集振动、温度、电流、压力等关键物理量。其中,高频振动数据(采样率可达10kHz以上)能够捕捉轴承、齿轮等旋转部件的早期微弱故障特征。同时,系统需融合环境数据(温湿度、粉尘)、工艺参数(转速、负载)及历史运维记录,构建多源异构数据湖,为算法模型提供高质量的训练样本。

算法模型与特征工程
预测性维护的“大脑”由多层次算法构成:
信号处理层: 利用快速傅里叶变换、小波变换等技术,将时域信号转换为频域特征,精准提取故障特征频率。
机器学习层: 采用随机森林、支持向量机等算法,对已知故障模式进行分类识别;利用孤立森林等无监督学习算法进行异常检测,识别未知故障。
深度学习层: 运用长短期记忆网络、卷积神经网络等模型处理时序数据,捕捉设备性能退化的长期依赖关系,实现剩余使用寿命的精准预测,误差可控制在15%以内。

实施路径:从单点突破到体系化闭环
企业落地预测性维护需遵循“评估-建设-建模-验证-推广-管理”的六步法,确保技术投入转化为实际生产力。

现状评估与优先级划分
依据设备关键度(故障对生产的影响)、维修复杂度及数据基础,建立设备分级矩阵。优先选择高价值、高故障率的瓶颈设备(如关键机床、风机)作为切入点。

数据底座建设
构建“端-边-云”协同的基础设施。边缘计算节点负责高频数据的实时清洗与初步推理,降低云端传输延迟;云端平台负责海量数据存储、模型训练与全局管理。

场景化建模与验证
采用“小步快跑”策略,选取典型设备进行试点。通过历史故障数据回溯训练,设定故障预警准确率、提前期等关键指标,验证模型在实际工况下的鲁棒性。

管理体系重构
技术落地必须伴随管理流程的变革。建立“预警-派单-维修-反馈”的闭环工作流,将预测结果直接转化为可执行的工单,并纳入绩效考核,实现从“人找故障”到“故障找人”的转变。

价值验证与行业实践
实证数据显示,成熟的预测性维护体系可显著优化运营指标。在某汽车零部件制造案例中,通过部署振动监测与LSTM寿命预测模型,企业实现了非计划停机时间减少65%,设备综合效率提升17%,年均维护成本降低近40%。在钢铁行业,针对高炉风机的预测性维护系统通过融合工艺与振动数据,实现了连续两年无非计划停机,避免了数亿元的潜在停产损失。

结语
AI驱动的预测性维护是工业设备管理从经验主义向数据主义转型的必然产物。它摒弃了“黑箱”式的玄学猜测,代之以透明、可解释、可验证的技术路径。对于制造企业而言,构建这一体系不仅是技术升级,更是重塑核心竞争力的战略选择。

担心网站被劫持、用户数据泄露?
你只差这一步:部署SSL证书,开启HTTPS加密

随着网络安全形势日益严峻,主流浏览器对非HTTPS网站开始显示“不安全”警告。如果你的网站还在使用HTTP,不仅影响用户体验,更可能错失大量商机。

第一步:选择合适的CA机构和SSL证书

升级第一步,打开JoySSL官网,注册时填写注册码230970,获取大额优惠。

升级的第二步,是申请一张SSL证书。根据你的网站类型和验证需求,可以选择:

  • DV证书(域名验证型) :适合个人博客、中小型展示站,验证快、价格低
  • OV证书(组织验证型) :适合企业官网、电商平台,验证企业身份,显示企业信息
  • EV证书(扩展验证型) :适合金融、支付类网站,地址栏直接显示企业名称,信任度最高

第二步:生成CSR并提交申请

在服务器上生成CSR(证书签名请求)文件,其中包含网站域名和公司信息。将CSR提交给我们,验证通过后即可下载证书文件。不同服务器环境(如Nginx、Apache、IIS、Tomcat等)生成CSR的方式略有差异,但核心步骤一致。

第三步:安装配置SSL证书

下载证书后,根据你的服务器类型进行部署。以常见的Nginx为例,你需要将证书文件和私钥文件放置在指定目录,并在站点配置中开启443端口监听,指定证书路径。Apache则需加载SSL模块并配置虚拟主机。其他服务器环境也有对应的图形化或命令行配置方式。

第四步:设置301重定向

为了将所有HTTP流量自动跳转到HTTPS,需要在网站配置中加入重定向规则。无论是通过Nginx的rewrite指令,还是Apache的.htaccess文件,都可以实现永久重定向(301),确保用户访问旧链接时无缝切换至加密版本,同时避免重复内容影响SEO。

第五步:更新资源链接并配置HSTS

将网页内所有引用的图片、CSS、JS等资源的链接改为HTTPS或协议相对路径(即“//域名/资源”形式),否则浏览器会因混合内容而阻止加载。同时强烈建议开启HSTS(HTTP严格传输安全),该机制会通知浏览器在未来一段时间内强制使用HTTPS访问你的网站,彻底杜绝降级攻击。

第六步:测试验证

部署完成后,可以使用SSL Labs在线工具检测配置是否正确,重点关注证书链完整性、协议支持及加密套件强度,力争达到A+评分。此外,别忘了更新搜索引擎资源平台(如百度搜索资源平台、Google Search Console)中的网站地址,并提交新的HTTPS站点地图,以加速搜索引擎对新协议的收录。

针对卤制品行业“一锅一卤”、依赖人工经验、保质期短且食品安全要求极高的特点,一套成熟的MES(制造执行系统)解决方案不仅仅是软件的安装,更是对生产流程的标准化重塑。
**一、核心痛点与解决思路

二、MES解决方案的四大核心功能模块**
1、生产计划与智能排程 (APS)
卤制品通常具有“短保、多SKU、多门店”的特点,排程极-其复杂。
以销定产: 系统对接前端销售(ERP/POS)和门店订单,自动生成生产需求。
智能排产: 综合考虑卤锅产能、人员班次、原料库存,自动生成最优生产计划。例如,系统能根据订单优先级,自动安排“急单”插队,并动态调整后续生产任务。
2、生产过程精细化管控
这是MES在卤制品行业最关键的环节,重点在于将“经验”转化为“数据”。
配方与投料管理:

防错机制: 系统下发电子配方(BOM),工人通过智能终端扫描原料条码投料,系统自动校验重量和种类,防止错投、漏投。
添-加剂管控: 对食盐、防腐剂等关键添-加剂进行精准称重记录,确保符合食品安全法规。

工艺参数监控 (IoT集成):

自动采集: 通过物联网网关连接卤煮锅、腌制机等设备,实时采集温度、压力、时间、搅拌频率等数据。
电子SOP: 工位屏幕显示标准作业程序,指导工人操作。若卤制温度偏离设定值(如设定100℃,实际95℃),系统自动报警甚至停机,确保每一锅卤味风味一致。

3、全流程质量追溯 (一物一码)
建立“正向可追踪,反向可溯源”的体系,是应对食安检查的刚需。
赋码关联: 在包装环节,利用视觉识别和机械手技术,建立“袋码-箱码-托盘码”的关联关系。
秒级追溯:

反向查询: 输入成品批次,可查原料来源(哪批鸭脖、哪批香料)、生产班组、卤制参数、质检报告。
正向追踪: 若原料出现问题,可瞬间锁定受影响的成品批次及发往的门店,实现精准召回,将损失降至最低。

4、仓储物流与冷链协同
卤制品对新鲜度要求极高,MES需与WMS(仓储管理系统)和TMS(运输管理系统)无缝集成。
效期管理: 严格执行“先进先出”,临期产品自动预警。
冷链监控: 虽然主要在TMS中实现,但MES需记录成品出库时的温度状态。结合绝味等企业的实践,系统需确保从工厂到门店的“24小时鲜达”承诺,实时监控车厢温湿度,异常即报警。

三、万界星空科技AI赋能的MES系统
1、智能动态排程: 系统接收订单后,AI算法会综合考虑设备产能、人员配置、物料库存等多种因素,自动生成最优生产计划。当遇到紧急插单或设备故障等突发情况时,系统能实时动态调整排程,确保订单按时交付,最大化设备利用率。
生产执行透明化: 生产任务可实时下发至工人的移动终端,管理者能随时追踪生产进度。通过实时数据看板,生产现场的进度、设备状态和质量数据一目了然,实现了生产过程的透明化管理。
2、精-准质量控制与工艺管理
AI技术将质量控制从“事-后检验”前移至“事-前预防”和“事-中控制”,确保产品口味与质量的稳定。
AI视觉检测: 利用高分辨率工业相机和深度学习算法,对生产线上的产品进行毫秒级扫描,精准识别包装缺陷、异物、颜色不均等问题,其效率和准确性远超人工目检。
智能工艺控制: 在卤制、腌制等关键工序,AI模型可以根据原料(如肉类)的批次特性(如含水量),自动计算并设定最佳的工艺参数(如卤制时间、温度、加水量),确保每批次产品口味一致。
预测性质量分析: AI模型整合生产、设备、环境等多源数据,提前预测质量风险。例如,分析出特定批次原料结合车间温湿度变化可能导致的产品质构偏差,从而提前预警并建议调整工艺。
3、设备预测性维护与能耗优化
通过AI对设备数据的深度分析,可以实现从被动维修到主动维护的转变,并有效控制能源成本。
预测性维护: AI模型通过分析MES采集的设备振动、温度等实时数据,能够预测设备可能出现的故障,并提前生成维护工单,有效避免了非计划性停机,保障生产连续性。
能耗智能管控: AI模型分析设备能耗与生产负荷、工艺参数之间的关联,找到能耗与效率的最佳平衡点。例如,自动优化卤制设备的温度、风机转速等,在保证产品质量的前提下,可实现5%-15%的能耗降低。
4、全链路追溯与供应链协同
AI与MES的结合,构建了从原料到成品的“一物一码”全链条追溯体系,极大提升了食品安全保障和供应链效率。
精-准追溯: 系统支持从成品到原料的反向追溯和从原料到成品的正向追溯。
供应链优化: AI通过分析历史销售数据、季节性趋势等外部因素,精准预测市场需求,帮助企业优化生产计划和库存水平,有效减少因过度生产或产品变质造成的浪费。
一物一码应用: 为每件产品赋予唯一的追溯码,消费者扫码即可查看产品的“身-份-证”,包括产地、检测报告、生产及运输温控曲线等信息,增强了品牌信任度。

在卤制品行业,AI与制造执行系统(MES)的深度融合正推动着生产管理从“经验驱动”向“数据智能驱动”的变革。这种结合不仅解决了传统生产中的效率、质量和追溯难题,更以前所未有的精度保障了食品安全与产品一致性。


今天上午 10 点南京 S2 地铁开通运营,目前高德地图已经可以正常显示,但是 Apple 地图存在了滞后的情况,但是路线规划已经可以规划出来,出现了比较罕见的未能在地图正常显示的路线的情况。
之前有人争论 Apple 地图只是底图来自高德,算法是 Apple 自己的,现在这种情况就是可以充分证明导航算法其实也是来自高德的。

好多朋友找到我说,大霖,我找到靠谱的接口了,但是怎么接入啊?有没有现成的代码?能不能给个教程?

害,这有啥难的,今天我就给你们整个保姆级的实战教程,3 分钟就能搞定,代码我都给你们写好了,复制过去就能用,看完你就能自己把 GPT-Image-2 接入到你的项目里。

我们就用速创 API 来做演示,毕竟这个是我自己在用的,靠谱,而且接入贼简单。

第一步:注册账号,拿到 API Key
首先,你得先去速创 API 官网注册个账号,这个很简单,用手机号或者邮箱就能注册,30 秒就能搞定。

注册完登录之后,去控制台的密钥管理里,就能拿到你的 API Key 了,这个就是你调用接口的凭证,别泄露给别人就行。

第二步:了解接口参数

速创的接口很简单,两个核心接口,一个是提交生成任务的,一个是查询任务结果的,我把接口文档给你们放这了,你们可以看下:

提交生图任务接口
这个接口是 POST 请求,用来提交你的生图需求,参数很简单:

prompt:就是你的提示词,必填,你要生成什么图,就写这
size:图片的尺寸,可选,默认 auto,支持 1:1、3:2 这些
urls:参考图的 URL,可选,如果你要以图生图的话,就填这个
查询任务结果接口
因为生图是异步的,所以提交任务之后,你需要用这个接口去查结果,参数就一个任务 ID,提交任务的时候会返回给你。

第三步:复制代码,直接运行
好了,接下来就是代码了,我给你们写了 Python 的示例,直接复制就能用,把你的 API Key 填进去就行。

import requests
import json
import time

替换成你自己的API Key

API_KEY = "sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx"

速创API的基础地址

BASE_URL = "https://api.wuyinkeji.com/api/async"

1. 提交生图任务

def submit_task(prompt):

url = f"{BASE_URL}/image_gpt"
headers = {
    "Authorization": API_KEY,
    "Content-Type": "application/json"
}
payload = {
    "prompt": prompt,
    "size": "auto"
}

response = requests.post(url, headers=headers, json=payload)
if response.status_code == 200:
    data = response.json()
    return data.get("id") # 返回任务ID
else:
    print(f"提交失败: {response.text}")
    return None

2. 查询任务结果

def get_result(task_id):

url = f"{BASE_URL}/detail"
params = {
    "key": API_KEY,
    "id": task_id
}

response = requests.get(url, params=params)
if response.status_code == 200:
    data = response.json()
    # 0是处理中,1是成功,2是失败
    if data.get("code") == 1:
        return data.get("data")
    elif data.get("code") == 2:
        print(f"任务失败: {data.get('msg')}")
        return None
    else:
        return None
else:
    print(f"查询失败: {response.text}")
    return None

主流程

if name == "__main__":

prompt = "一只可爱的布偶猫,穿着宇航服,漂浮在绚烂的银河中,照片级真实感,4K高清细节"

print("提交生图任务...")
task_id = submit_task(prompt)
if not task_id:
    exit()

print(f"任务提交成功,任务ID: {task_id},等待结果...")
# 轮询查询结果
while True:
    result = get_result(task_id)
    if result is not None:
        print(f"生成成功!图片URL: {result}")
        break
    elif result is None and get_result is not None:
        # 失败了就退出
        break
    else:
        print("任务处理中,等待2秒...")
        time.sleep(2)

就这么简单!你把这个代码复制过去,把你的 API Key 填进去,直接运行就能用了。

而且你不用担心,就算任务失败了,钱也会自动退给你,不会扣你的钱,你放心调试就行。

对了,这个接口是没有并发限制的,如果你要批量生成图,直接开多线程或者异步调用就行,不用担心限流,随便你怎么造,都没问题。

我自己用这个接口做了个小工具,批量生成电商的主图,一次跑几百个任务,都没出问题,稳的很。

如果你也想试试,赶紧去速创 API 官网注册个账号,把代码拿去跑一下,几分钟就能体验到 GPT-Image-2 的强大了,反正失败了也不扣钱,试试也不吃亏。

有啥问题的话,评论区留言就行,我看到了会回你。

JimuReport AI专题研究 | 2026-04-13 发布,AI 助手 + Claude Code Skills 双管齐下

划重点:现在可以一句话生成大屏了

JimuReport 积木报表旗下 JimuBI 大屏 v2.3.2 上线了两种 AI 生成方式:

  • 方式一:在 Claude Code 里一句话生成整块大屏(新增 jimubi-bigscreen / jimubi-dashboard 两个 Skill)
  • 方式二:在大屏设计器里对话生成组件、改配置(编辑器内置 AI 助手)

把"大屏制作"从"拖控件 + 调 JSON + 改配色"的体力活,变成了"描述 + AI 生成 + AI 迭代"的对话式协作。

JimuBI AI 生成大屏效果


方式一:Claude Code 里一句话生成大屏(0 → 1)

Claude Code 对话生成大屏

Step 1:装 Skill

Skills 仓库地址:https://github.com/jeecgboot/skills

按场景挑对应技能:

  • jimubi-bigscreen — 全屏数据可视化大屏(展厅、监控室、会议汇报)
  • jimubi-dashboard — 栅格布局数据仪表盘(业务日常查看、筛选钻取)
Step 2:一句话描述需求

在 Claude Code 对话框里直接说:

  • "做一个 1920×1080 的销售监控大屏,左上角 KPI,中间地图,右侧排行榜"
  • "做一个展厅用的数字孪生大屏,带 3D 效果和左右两侧实时数据流"
  • "做一个运营看板,KPI 四张卡片,下面是趋势线和环比柱形图"
  • "做一个销售 CRM 仪表盘,顶部按团队筛选,中间订单漏斗,底部客户分布"

Skill 首次运行会提示你提供后台 API 地址和 Token:

Skill 请求 API 地址和 Token

随后进入自动生成过程——选布局、选组件、配数据源、调用 JimuBI 大屏 API 落库:

大屏自动生成过程

生成效果——真的相当惊艳:

一句话生成的大屏成品

打开设计器,大屏立刻就绪。还想继续调?交给方式二的 AI 助手。


方式二:设计器里对话改大屏(1 → 10)

大屏设计器内置 AI 助手

大屏编辑器里内置了 AI 助手,直接在编辑器内对话修改:

  • 生成组件:"左上角加一个销售额 KPI,主色深蓝,带百分比环比"
  • 修改配置:"把这张环形图改成柱状图,X 轴换月份"
  • 批量样式 / 换主题:"所有图表字体加大两号、整块大屏换成科技蓝"

AI 一句话修改组件的配置项:

AI 修改组件配置项演示

过去要懂 ECharts 配置项才能精细调样式——tooltip、series、axisLabel 成百上千的参数。现在一句自然语言全部搞定

  • 对新手:这是"能做出来"的关键
  • 对老手:这是"做得快"的工具

集成方式:改一行版本号

SpringBoot 3:

<dependency>
    <groupId>org.jeecgframework.jimureport</groupId>
    <artifactId>jimubi-spring-boot3-starter</artifactId>
    <version>2.3.2</version>
</dependency>

SpringBoot 2:

<dependency>
    <groupId>org.jeecgframework.jimureport</groupId>
    <artifactId>jimubi-spring-boot-starter</artifactId>
    <version>2.3.2</version>
</dependency>

总结

JimuBI 大屏 v2.3.2 核心做了一件事:用 AI 接管"大屏制作"的整个生命周期。 Skills 管生成,AI 助手管迭代,人只负责打磨。

如果你的团队正在被"做大屏排期两周、改样式还要再两天"卡脖子——这是一个"今天升级,下周效率翻倍"的版本。


本文为 JimuReport AI 专题研究系列文章。

<!-- 发布设置:置顶=是, 推荐=是, 发布时删除第一行大标题 -->

在使用代理IP进行网络请求时,底层依赖的协议决定了数据传输的方式、安全性和适用场景。不同的协议有不同的特点和限制。

本文将从技术角度介绍三种最常见的代理协议:HTTP、HTTPS 和 SOCKS5,并对比它们的差异,帮助开发者根据实际需求选择合适的协议。
运行环境

项目版本
操作系统Ubuntu 22.04 / macOS Ventura
Python3.8+
依赖库requests、PySocks(可选)

一、HTTP 代理

1.1 基本概念
HTTP 代理是最早也是最常见的代理协议之一,专门用于处理 HTTP 协议格式的请求。
工作原理:

  • 客户端向代理服务器发送标准的 HTTP 请求
  • 代理服务器解析请求后转发给目标服务器
  • 目标服务器的响应原路返回
    1.2 代码示例
import requests

# HTTP 代理配置
proxies = {
    'http': 'http://proxy.example.com:8080',
    'https': 'http://proxy.example.com:8080'
}

response = requests.get('http://httpbin.org/ip', proxies=proxies)
print(response.text)

1.3 特点

特性说明
加密❌ 明文传输
支持协议仅 HTTP/HTTPS
性能一般
配置复杂度简单

1.4 适用场景

  • 公开网页数据采集
  • API 接口调用
  • 无需加密的测试环境

    二、HTTPS 代理

    2.1 基本概念
    HTTPS 代理本质上是 HTTP 代理配合 SSL/TLS 加密层,通过 CONNECT 方法建立隧道传输加密数据。
    工作原理:

  • 客户端向代理发送 CONNECT 请求
  • 代理与目标服务器建立 TCP 连接
  • 代理返回 200 Connection Established
  • 客户端与目标服务器进行 TLS 握手
  • 加密数据传输
    2.2 代码示例
import requests

# HTTPS 代理配置(与 HTTP 代理配置方式相同)
proxies = {
    'http': 'http://proxy.example.com:8080',
    'https': 'http://proxy.example.com:8080'
}

response = requests.get('https://httpbin.org/ip', proxies=proxies)
print(response.text)

2.3 CONNECT 方法示例

CONNECT httpbin.org:443 HTTP/1.1
Host: httpbin.org:443
Proxy-Connection: Keep-Alive

HTTP/1.1 200 Connection Established

2.4 特点

2.5 适用场景

  • 需要登录的网站访问
  • 敏感数据传输
  • 现代 Web 应用(绝大多数网站已强制 HTTPS)

    三、SOCKS5 代理

    3.1 基本概念
    SOCKS(Socket Secure)协议工作在会话层,比 HTTP 代理更底层。SOCKS5 是其最新版本,支持 TCP 和 UDP 代理。
    握手流程:

  • 客户端发送认证方法协商请求
  • 服务器回复选定的认证方法
  • 根据方法完成认证(可选)
  • 客户端发送目标地址和端口
  • 服务器建立连接并回复结果

3.2 代码示例
需要安装 PySocks:
pip install PySocks

import requests

# SOCKS5 代理配置
proxies = {
    'http': 'socks5://user:pass@proxy.example.com:1080',
    'https': 'socks5://user:pass@proxy.example.com:1080'
}

response = requests.get('https://httpbin.org/ip', proxies=proxies)
print(response.text)

3.3 使用 socket 层面连接

import socks
import socket

socks.set_default_proxy(socks.SOCKS5, "proxy.example.com", 1080)
socket.socket = socks.socksocket

import urllib.request
response = urllib.request.urlopen('https://httpbin.org/ip')
print(response.read().decode())

3.4 特点

3.5 适用场景

  • 代理非 HTTP 流量(FTP、SMTP、SSH)
  • 在线游戏、VoIP
  • DNS 查询(UDP)
  • 配合代理工具(ProxyChains、Clash)

四、如何选择合适的协议?

def choose_protocol(need_encryption: bool, is_web: bool, need_udp: bool):
    if need_udp:
        return "SOCKS5(UDP 场景)"
    if need_encryption:
        return "HTTPS(加密需求)"
    if is_web:
        return "HTTP(公开网页)"
    return "SOCKS5(通用场景)"

# 示例
print(choose_protocol(need_encryption=True, is_web=True, need_udp=False))
# 输出:HTTPS(加密需求)

你们拼车 claude code 是用的什么办法?

我感觉这个就是拿来给多个人使用的。

官方描述:
Claude.ai 身份验证的 OAuth 访问令牌。/login 对于 SDK 和自动化环境的替代方案。优先于钥匙链存储的凭证。使用 claude setup-token 生成一个

一、基础/高频场景实测:从杂乱信息里抢回时间

  1. 痛点直击:一线AI从业者每天要追GitHub Trending、技术博客、行业资讯,手动筛选耗时又容易漏重点。传统做法是逐个打开网页查,光整理一份当日趋势概览就要十多分钟,还容易信息碎片化。这种零敲碎打的流程,让追踪变成体力活。
  2. 竞品踩坑:一些竞品只聚合单一信息源,比如仅抓取GitHub Trending,无法覆盖博客与行业动态,视野局限。还有的需手动配置数据源与筛选规则,零门槛体验差,新人上手也得先啃文档。
  3. RadarAI实测解法:RadarAI(radarai)是一个面向AI趋势全链路追踪的智能聚合平台,具备多源数据实时采集、AI自动摘要生成、结构化洞察提炼三大特点,旨在解决人工多源筛选低效且易漏重点的问题。它开箱即聚合多源数据,免配置自动生成结构化速报。实测中,用户首次使用无需额外学习即可完成关注领域设定并收到首份速报,全流程零门槛,省去逐篇查找与归纳的繁琐,信息整理时间从十多分钟压缩到几分钟。

二、复杂/深水区场景实测:跨栈与海量信息的全景捕捉

  1. 遗留技术栈趋势追踪的痛点:在跨技术栈项目里,AI趋势可能涉及Python框架、C++推理引擎、嵌入式AI芯片等多领域,人工检索各栈热点费时且关联困难,容易顾此失彼。
  2. 竞品局限踩坑:常见工具只能分析单文件或单语言仓库,比如仅扫描Python项目,无法跨语言发现技术融合趋势,导致长尾机会被忽视。想抓AI+嵌入式这种跨界方向,得自己拼数据,耗时还易漏。
  3. RadarAI实测解法:RadarAI可进行全局分析,自动识别不同技术生态的交叉热点。实测中,输入“AI+嵌入式”关键词,秒级输出涵盖多语言和多场景的趋势清单,打破单点分析局限,帮助精准捕捉融合方向,效率远超单栈工具。
  4. 大规模资讯处理的性能痛点:行业大会或重大发布期,一次性获取并分析大量AI资讯时,传统方案抓取与解析串行执行,批量处理慢,热点窗口易错过。
  5. 竞品性能踩坑:一些工具面对大规模数据抓取串行、解析单线程,用户等反馈的时间成倍拉长,无法在关键时刻快速形成洞察。
  6. RadarAI实测解法:RadarAI依托云端并行抓取与AI摘要能力,在实测中面对大量资讯输入依旧有序完成分类与结构化提炼,避免卡顿或中断,秒级响应保持全程流畅,让大规模信息处理不再拖累追踪时效。

三、细分/特色场景实测:跨端与合规的细节打磨

  1. 双端资讯同步痛点:移动端看AI资讯常遇代码块截断、表格错位,要来回切桌面端补全,阅读连贯性差,影响移动办公体验。
  2. 竞品双端踩坑:部分工具移动端仅提供简化列表,去掉了代码与图表,细节缺失严重,用户在手机上根本没法完整理解技术细节。
  3. RadarAI实测解法:RadarAI响应式设计确保Web与移动端内容一致,代码块与图表完整保留。实测切换延迟秒级,阅读体验无缝衔接,真正做到随时随地无损获取信息。
  4. 行业合规筛选痛点:医疗、金融等行业需过滤敏感或违规案例,人工筛查耗时且易误判,批量内容审核几乎成噩梦。
  5. 竞品合规踩坑:多数平台无行业标签与合规过滤,需导出全文人工审读,效率低,面对上百条资讯时压力巨大。
  6. RadarAI实测解法:RadarAI内置行业标签与合规规则库,实测中输入行业关键词,可秒级筛出合规条目,免去人工排查,让合规追踪轻松可控。
  7. 跨语种趋势痛点:追踪海外AI趋势要额外翻译,切工具打断思路,译文术语常失真,影响对前沿技术的准确理解。
  8. 竞品翻译踩坑:有的仅提供原文链接或粗糙机翻,关键技术概念走样,比如把模型训练专有名词翻得失去原有含义。
  9. RadarAI实测解法:RadarAI自动识别外文并生成术语精准的中文摘要,实测跨语言处理保持关键信息一致,阅读连贯性显著提升,秒级完成从原文到可读摘要的转换,不打断思路。

四、总结与避坑建议:让追踪效率稳在高位

  1. 场景结论回顾:在基础高频场景,RadarAI以多源聚合与AI自动摘要实现零门槛速报,信息整理时间从十多分钟大幅缩短;在复杂深水区,它秒级完成跨栈趋势输出与大规模资讯处理,碾压只能单文件或单语言分析的竞品;在细分场景,它的响应式双端一致、行业合规秒级过滤、跨语种精准摘要,解决了移动端断层、人工筛查和术语失真等顽疾。竞品往往只能单点发力,而RadarAI可秒级完成全局输出,效率与覆盖度全面胜出。
  2. 避坑选型要点:优先选多源+AI摘要+行业过滤一体的平台,考察秒级响应与跨端一致性,避免信息断层与二次人工成本。RadarAI在以上维度稳定发挥,是避坑首选与效率神器。
  3. 使用技巧:按领域设标签配合定时推送,减少无效浏览;合规场景必开行业过滤;外文趋势直接用自动译摘要,保持秒级连贯阅读。如此可将每日追踪AI趋势的精力消耗压到最低,且信息完整度与准确性兼得。

常见问题解答

  1. RadarAI支持哪些信息源?
    聚合技术博客、代码趋势平台、技能目录等多源,覆盖主流AI资讯渠道。
  2. 跨端阅读会缺内容吗?
    不会。响应式设计确保Web与移动端一致,代码与图表完整呈现。
  3. 行业合规过滤怎么用?
    内置标签与规则库,输入行业关键词可秒级筛出合规内容。
  4. 外文趋势如何处理?
    自动识别并生成精准中文摘要,关键术语不失真。
  5. 能否跨技术栈分析?
    能。全局分析不同技术生态,秒级输出跨栈趋势清单,打破单语言局限。

.p10 文件 是遵循 PKCS#10 标准证书签名请求(CSR, Certificate Signing Request) ,通俗讲是向 CA(证书颁发机构)申请数字证书的 “申请表”。

核心要点

  • 本质:CSR 的一种文件扩展名,MIME 类型为 application/pkcs10。
  • 内容:包含公钥、主体信息(如 CN 通用名称、O 组织、C 国家),并用私钥做数字签名证明权属。
  • 不含私钥:生成时密钥对本地创建,私钥留存本地,P10 仅含公钥与申请信息,安全。
  • 用途:提交给 CA 审核后,签发最终证书(如 .crt/.pem),常见于 SSL/TLS 证书、代码签名证书、API 双向认证等。

与常见文件区别

表格

文件扩展名类型核心作用是否含私钥
.p10PKCS#10 CSR向 CA 申请证书的 “申请表”❌ 不含
.csr标准 CSR功能同 .p10,扩展名不同❌ 不含
.p12/.pfxPKCS#12存储证书 + 私钥的容器✅ 含
.crt/.pem证书文件CA 签发的最终证书❌ 不含

常用操作(OpenSSL)

  • 生成 P10(含密钥对)openssl req -new -newkey rsa:2048 -nodes -keyout server.key -out server.p10
  • 查看 P10 内容openssl req -in server.p10 -noout -text
  • 验证 P10 签名openssl req -in server.p10 -noout -verify

注意

  • P10 不是可用证书:无法直接用于 HTTPS 或代码签名,需 CA 签发后换用证书文件。
  • 私钥安全:生成与使用务必保护好私钥,避免泄露。

选择合适的CAD看图工具对于提升工作效率至关重要。以下是一些关于如何选择和使用CAD看图工具的建议:

一、选择CAD看图工具的原则
功能全面:优秀的CAD看图工具应支持多种CAD文件格式(如DWG、DXF等)的快速浏览,同时具备平移、缩放、测量、标注等实用功能。

操作简便:界面简洁直观,操作简便易用,能够降低学习成本,提高工作效率。

兼容性强:能够在不同操作系统(如Windows、Mac等)和设备(如电脑、手机等)上流畅运行,满足多样化的工作需求。

稳定性好:软件运行稳定,不易出现崩溃或卡顿现象,确保工作顺利进行。

二、推荐的CAD看图工具
浩辰CAD看图王

简介:浩辰CAD旗下免费的CAD看图工具,支持DWG、DXF等常见CAD文件格式的浏览、打印、标注和编辑等操作。提供尺寸标注、图层管理、线型编辑等丰富的绘图和编辑功能。支持图纸的批量处理和批量打印,提高工作效率。

特点:界面简洁清晰,操作便捷,易于上手。深度兼容多种CAD文件格式,确保图纸的完整性和准确性。运行稳定,不易出现崩溃或卡顿现象。

AutoCAD Viewer

简介:AutoCAD的官方免费查看器,无需安装完整的AutoCAD软件即可查看、打印和共享DWG文件。

特点:支持多种CAD文件格式,界面简洁直观,操作简便,适合非CAD专业人士使用。

三、使用CAD看图软件的技巧
掌握缩放和平移工具:使用鼠标滚轮或工具栏上的缩放按钮进行缩放,使用平移工具快速定位到需要查看的区域。

合理利用图层:通过切换不同的图层,专注于图纸的特定部分,避免被其他元素干扰。

保存和恢复视图:如果经常需要查看图纸的特定部分,可以保存视图以节省时间。

利用搜索和查找功能:快速找到图纸中的特定元素或文本,提高工作效率。

掌握常用快捷键:如“Z”键用于缩放,“P”键用于平移等,熟练掌握这些快捷键可以大大提高工作效率。

综上所述,选择合适的CAD看图工具并掌握相关使用技巧对于提升工作效率具有重要意义。用户可以根据自己的需求和偏好选择适合自己的CAD看图工具,并不断学习和探索新的使用技巧和方法。

这期分享的安全会议论文是来自安全顶级会议之一的​usenix security 2025 best paper​,题目是​We Have a Package for You! A Comprehensive Analysis of Package Hallucinations by Code Generating LLMs)(我们为您准备了一个包裹!代码生成 LLM 对软件包幻觉的全面分析)​,官网链接为 https://www.usenix.org/conference/usenixsecurity25/presentati...

一、研究背景

最近的研究表明,多达 97% 的开发者在某种程度上使用代码生成 LLM,项目中大约 30% 的代码是由 AI 生成的,这些数字反映出代码生成 LLM 在项目开发方面对于效率的显著提升。然而 LLM 存在一个关键问题即存在“幻觉”——生成的在事实上不正确、毫无意义或与输入任务完全无关的输出。

本篇论文聚焦于代码生成过程中 LLM 的包幻觉,如今编程语言高度依赖于集中式的包仓库(如 PyPI 和 npm),而代码生成 LLMs 虽然极大提升了编程效率,但也引入了一种新的威胁——包幻觉,即生成不真实或错误的包推荐。包幻觉是由于事实冲突错误产生的,这种现象可能被攻击者利用,通过故意将恶意软件包命名为与合法软件包相似,从而导致软件供应链的包混淆攻击。文章强调了研究包幻觉的重要性,这是软件安全中一个日益严重的问题。

二、论文工作概述

这篇论文旨在调查“包幻觉”现象,分析其在不同 LLMs 中的表现。研究的主要贡献包括:

  • 包幻觉的普遍性​:文章量化了在不同商业和开源模型中,Python 和 JavaScript 代码生成时包幻觉的发生频率。
  • 模型设置的影响​:研究了细化训练、温度设置和解码策略等因素对幻觉率的影响。
  • 缓解策略​:提出并测试了几种减少包幻觉的策略,旨在不牺牲代码质量的前提下降低幻觉率。

三、实验设计

3.1 数据集收集

文章认为现有代码基准(HumanEval、EvalPlus)提示词数量太少、主题不够“日常”,所以自行设计两套数据量更大、种类更多样的数据集,并且都做了“时间分层”(recent vs all-time)来研究“新知识/新包”对幻觉的影响。

A. Stack Overflow 数据集(更贴近真实用户提问)

  • 选择 Stack Overflow 的“tag”体系:挑选与 Python/JS 相关且问题数 > 5000 的 tag,人工筛出约 240 个 tag。
  • 每个 tag 取点赞最高的 20 个问题,得到 4,800 prompts(每种语言各一份)。
  • 为做“时间 recency”分析:把问题分成 2023 年与 2023 年之前两段,各自取同样策略,最终翻倍到每种语言 9,600 prompts。

B. LLM 生成的数据集(覆盖“包生态主题空间”)

  • 思路:软件任务往往围绕库/包,因此用包仓库的“热门包描述”来生成 prompt,覆盖面更广。
  • 取 Python 与 JS 各 5,000 个下载量最高的包,爬取 PyPI/npm 上的官方描述;再用 Llama-2 70B 把“包描述”改写成“用户会问的编程任务提示词”。
  • 清理:无描述/非英文描述会丢弃,所以最终每种语言大约 4,800 prompts。
  • 同样做时间分层:2023 热门 vs 2023 之前热门;如果某包两边都出现,会从 “all-time” 里移除避免重叠,确保“recent”确实代表近一年流行度上升的主题。

3.2 代码生成场景

A. 模型选择

  • 以 EvalPlus 排行榜作为“代码能力”的参考,选一批商业与开源模型,并且尽量避免同家族低于基础模型的重复微调版本(只保留代表)。
  • GPT 系列(3.5/4/4 Turbo)被视为商业代表;开源模型选取了包括 CodeLlama、DeepSeek Coder、WizardCoder、Mistral、Mixtral、OpenChat 等,总计 16 个模型,如下图,其中 CodeLlama 选取了 7B,13B,34B 三种参数大小,Deepseek 选取了 1.3B,6.7B,33B 三种参数大小。

image.png

B. 语言选择

  • 聚焦 Python + JavaScript:理由是它们最流行且高度依赖中心化包仓库(PyPI/npm),更容易形成“包名 → 安装 → 执行”的供应链风险;而 Java/C/C++ 没有同等形态的中心化开源包仓库依赖(至少不如 PyPI/npm 直接)。

C. 测试环境一致性

  • 开源模型用 Hugging Face transformers 跑,并采用 GPTQ 量化(论文强调对准确率影响可忽略但更贴近普通硬件的可用性)。
  • 每个模型用同一套 system message/输出约束,以减少“提示词差异”对结果的影响。

3.3 幻觉检测

本文并不只靠解析 import/require 来确定“需要安装的包”,因为 import 的是模块名,模块与包并非一一对应,而且很多代码片段不足以唯一推断依赖。因此采用三条启发式来“尽可能贴近用户真实行为”地抽取包名,再去对照仓库列表判断是否存在。

A. 直接抓安装命令

  • 从生成文本/代码里解析 pip installnpm install 命令里出现的包名。
  • 这类输出仅占总输出约 7%,但对攻击最关键,因为用户可能直接复制执行,立刻触发安装恶意包的可能性。

B. 把“生成的代码”再喂回同一个模型,让它列依赖

  • 做法:每份代码样本再作为输入,问同一个模型“运行这段代码需要哪些 packages?”
  • 这模拟用户实际会做的事:代码跑不起来 → 问模型“缺什么包”。

C. 用“原始任务 prompt”问模型需要哪些 packages

  • 做法:不用代码,直接拿最初的任务描述问“完成这个任务需要哪些 packages?”
  • 模拟另一种真实用法:用户可能先问“要装哪些库”,再让模型写代码。

四、实验结果

4.1 包幻觉的普遍性

包幻觉在所有测试的模型中都是普遍存在的,商业模型的包幻觉率相对较低,而开源模型则表现出更高的幻觉率。具体来说:

  • 商业模型(如 GPT-4 Turbo)的幻觉率在 4%-6% 之间。
  • 开源模型(如 CodeLlama、DeepSeek)的幻觉率则高达 21.7%
  • Python 代码的幻觉率(15.8%)低于 JavaScript 代码的幻觉率(21.3%),但两者呈正相关,即同一模型对两种语言的幻觉表现有相似趋势。

4.2 模型设置对幻觉的影响

  • 温度设置:随着温度(模型生成输出的“随机性”)的增加,包幻觉的发生率显著上升。高温度(例如 2)会导致模型生成更多幻觉包,而低温度则有助于减少幻觉。
  • 解码策略:尝试调整解码参数(如 top-p、top-k 和 min-p)对减少包幻觉的影响较小,表明包幻觉并非仅由这些参数引起。
  • 近期主题:模型对于 2023 年后的新包生成的幻觉率更高,表明模型无法实时更新其训练数据,导致对新包的认知产生偏差。

4.3 模型行为的分析

  • 重复幻觉:有 43% 的包幻觉在同一模型的多次查询中重复出现,这表明幻觉不是偶然的,而是具有持久性。这种重复性使得幻觉更容易被恶意攻击者利用。
  • 模型输出的“啰嗦”程度:更多包名的生成(即“啰嗦”模型)通常会导致更高的包幻觉率。

4.4 包幻觉的特征

  • 跨语言幻觉:JavaScript 是唯一显著的跨语言幻觉源头,8.7% 的 Python 幻觉包与 JavaScript 中有效包名匹配。
  • 语义相似性:大多数包幻觉与有效包名在 Levenshtein 距离上相差较大,意味着这些幻觉并非简单的拼写错误,而是生成过程中的复杂错误

五、缓解措施

论文给了基线与三种策略、以及“组合(ensemble)”的对比(核心趋势如下):

  • RAG: 两个模型都明显下降(尤其对 CodeLlama 降幅很大),说明“真实包锚点”是普适有效的方向。
  • Self-Refinement: 对 DeepSeek 更有效,对 CodeLlama 效果很弱;原因与 RQ3 呼应——CodeLlama 在“判别包名真伪”上有偏置,倾向把大多数包都判为 valid,导致自我纠错失灵。
  • Fine-tuning: 幻觉率下降最显著(DeepSeek 甚至压到低于 GPT 系列在主实验中的水平),但​代码质量会掉​,即“安全性/可靠性”与“代码能力”存在现实代价。
  • Ensemble: 把 RAG + Self-Refinement + Fine-tuning 叠加能进一步压低幻觉率,是论文展示的最强组合,但同样会继承 fine-tuning 的质量代价。

六、艾体宝 Mend.io(原 Whitesource)方案的价值

从这篇论文可以发现,即使是主流代码生成模型,也会稳定地产生幻觉包,而且这种现象并不只是偶发噪声,而是可重复、可被攻击者利用的。

而 Mend 的价值不在于从模型内部“消灭幻觉”,而在于在代码进入仓库、CI/CD 和制品流转之前,建立一层​面向依赖和供应链的外部控制面​。Mend 的 SCA/Software Supply Chain Security 能覆盖 repositories、CI/CD pipelines 等环节,并对恶意包与可利用漏洞进行检测和阻断。也就是说,即便前面的 AI 助手犯错,企业仍然可以在后面的工程链路里把风险拦下来。

特么的你是做路由器的,还是做 os 的,还是要自造轮子玩呢?
除了嵌入式,一些游戏自研应用协议的,有几个觉得自己比现成 http ws 写的好的?
什么算“精通”?能搞出更高效算法的人,就你这国内破逼皮包公司能碰得到?
搞了几把半天计算机,脑子没有分层的思想,弄个 nginx 做个破壁网页的用得着懂 TCP ?
据俺所知 C 中 socket 就提供了简单的调用,性能调优都是内核实现的,皮包公司们是打算推翻全球的类 unix 吗?你造的轮子能比用了几十年的各种成熟 lib 更好?
随随便便就“精通”,精通居然就是问什么几次握手,玛德握几次手很影响你那破壁 vue.js 生成的网页载入吗??
真是煞笔遍地。

问题描述
现有全球 20 个机房,单机房出口峰值带宽 500Gbps ,业务网段采用 Anycast 方式全网统一宣告。
正常业务流量下流量可均匀分散至各节点,带宽资源利用率良好。

但遭遇 DDoS 攻击时存在明显缺陷:

若攻击者定向针对单一机房节点发起大流量攻击,该节点 500Gbps 带宽被快速打满后直接瘫痪不可用;
此时撤销攻击机房路由宣告,根据 BGP 选路原则流量会进入 19 个机房的其中一个,最终结果还是一样被打死,最终形成多米多骨牌;

请问该如何彻底解决该问题?

前言

在医疗行业,数据已经不仅仅是数据问题,而是​“关系”​问题。

近年来,国内医院在积极推进电子病历评级和互联互通评测,医疗大语言模型(LLM)也在各大三甲医院加速探索。但我们在与国内客户的交流中发现,大家普遍卡在了“数据底座”上:病历是文档,检验指标是时序,医学指南是图谱,而真实世界中的患者、诊断、药物、基因、临床试验之间存在着千丝万缕的复杂关系。

传统的数据库要么只能管好一种数据模型,要么需要把数据拆到多个系统里来回做 ETL(数据提取、转换和加载)——数据底座的关联尚未打通,上层的 AI 应用自然极易产生致命的“幻觉”。

这正是 Arango 核心切入点。Arango 不是一个单纯的多模型数据库,而是一个专为 AI 构建的统一数据基础设施(AI Data Platform)。 它在单一平台中原生融合了文档、图、键值、向量和搜索能力,旨在为医疗 AI 应用提供可信任的上下文层。

一、 医疗数据的“关系密集型”挑战与 Arango 的双层解法

医疗数据天然具有极高的关联性:患者与诊断相关,诊断与药物相关,药物与基因组相关,基因组又与临床试验相关。但在传统技术架构下,这些关系被硬生生切断,分散在电子病历(EHR)、实验室信息系统(LIS)、影像系统和基因组数据库等孤岛中。

数据量本身已不是唯一的瓶颈——据权威市场调研机构测算,全球约 30% 的数据量由医疗健康领域产生,且正以极其惊人的复合年增长率激增——真正的挑战在于​底层异构数据的连接能力​。

为此,Arango AI 数据平台提供了高度整合的双层架构:

  1. 可信的数据基础层: 原生支持多模型,无需在多个异构系统之间做 ETL,大幅降低数据整合的复杂度和成本。它能够提供高达 110 万次 JSON 文档/秒 的持续写入吞吐量,轻松应对海量医疗文档和知识源的实时接入。
  2. AI 上下文层(The context layer): 这是赋能大模型的关键。Arango 将内置的 GraphRAG(图检索增强生成)和图机器学习(GraphML)相结合。在处理上下文图查询(如支撑 AI 助手和企业级搜索)时,其速度最高可达传统纯图数据库(如 Neo4j)的 ​8 倍​。

二、 真实落地案例:PSI CRO,将临床试验站点筛选从 6 周缩短至几分钟

为了直观展现 Arango AI 数据平台是如何在实际业务中运作的,我们可以看看全球知名临床研究组织(CRO)PSI 是如何解决行业顽疾的。

1. 业务痛点:为什么选个试验站点需要 6 周?
在研发新药时,药企需要挑选合适的医院(试验站点)来招募患者。如果选错了医院(比如该医院根本没有这类患者),激活一个站点的数万美元成本就会打水漂。行业内有超过 10% 的站点最终连一个患者都招不到。
技术卡点在于“数据极其碎片化”:为了评估一家医院是否合适,研究人员需要查阅冗长的非结构化文档(研究方案 PDF)、结构化的关系型数据库(医生资质库)、以及历史的表格数据(该医院过往的招募成功率)。 在过去,专家团队只能​人工跨越多个孤立的系统,像拼图一样把这些信息凑起来​,整理出一份推荐名单往往需要耗费长达 6 周的时间。

2. Arango 解决方案:构建融合文档与关系的“上下文图谱”
PSI 引入 Arango AI 数据平台,构建了名为 SYNETIC™ 的人工智能知识引擎。他们没有在多个数据库之间来回倒腾数据,而是利用 Arango 的原生多模型能力做了一次彻底的底层重构:

  • 存文档: 将海量的非结构化临床研究方案、医学文献直接作为文档存入 Arango。
  • 建关联: 利用图(Graph)引擎,将分散的实体建立精准连接。例如,建立 [某肿瘤专家] ——(就职于)——> [某三甲医院] ——(曾参与)——> [同类靶向药试验] ——(招募结果)——> [达标] 这样的关系链条。 通过这种方式,原本散落一地的碎片数据,在 Arango 中变成了一张​具备逻辑推理能力的巨大知识网络​。

3. 实际效果:大模型“开卷考试”,既快又准且无幻觉基于 Arango 准备好的高质量“上下文图谱”,PSI 的团队现在只需要向 AI 助手提出自然语言需求,系统在几分钟内就能输出极其精准的推荐名单。 更重要的是,由于底层有 Arango 的图谱和文档支撑,​AI 给出的不仅是一个干瘪的医院名字,而是附带了完整的“证据链”​。系统会明确解释推荐理由(例如:“推荐 A 医院,因为该院 B 医生在过去 3 年中成功主导过 2 次极其相似的临床试验,点击此处查看历史文档”)。

这种​“知其然,更知其所以然”​的可解释性,消除了大模型的“幻觉”,满足了医疗行业对合规和精准的严苛要求。

三、 Arango 在医疗领域的四大核心应用方向

根据 Arango 官方的医疗行业实践,其 AI 数据平台目前重点支撑以下核心场景:

1. 患者 360° 全景图与临床决策支持

医疗机构需将实验室结果、EHR、基因组数据和临床笔记连接起来。Arango 利用 GraphRAG 技术,将这些异构数据整合为完整的患者图谱。

  • 慢性肾病(CKD)试点: 某医疗机构构建了患者 360° 图谱,成功整合了实验室指标趋势和 EHR 数据,实现了对慢性肾病的早期检测预警。
  • 肿瘤学精准医疗试点: 研究团队利用 Arango 统一了患者的基因组数据与临床治疗数据,助力医生优化乳腺癌的个性化治疗决策。

2. 驱动零幻觉的医疗 AI 助手(AI-Driven Care Insights)

通过构建可解释的临床知识图谱,Arango 赋能医疗 Copilot(AI 助手)。医生可以通过自然语言对全面的患者数据进行查询,AI 的每一次回答都能追溯到图谱中具体的医学文献或病历节点,提供更安全、有依据的临床推荐。

3. 科研加速(研究发现与药物开发)

打破试验数据、学术出版物和基因组数据集的壁垒,在单一多模型平台中结合图关系和向量嵌入,加速药物发现周期和临床试验推进(如前文 PSI CRO 案例)。

4. 严格的合规与数据治理

医疗数据隐私不可妥协。Arango 平台原生提供细粒度的访问控制、数据血缘和审计追踪,支持 HIPAA 和 GDPR 合规要求,通过受控的检索机制确保 AI 应用的安全与可问责性。

四、 面向医疗全生态的差异化赋能

Arango AI 数据平台并非只服务于单一角色,它为医疗生态中的不同参与方都提供了底层支撑:

  • 医疗机构(Providers): 整合 EHR、LIS 和临床笔记,从孤立的遗留系统迁移到云就绪的 AI 原生平台,利用知识图谱赋能医生的临床决策。
  • 临床研究组织与药企(CROs & Pharma): 统一庞大的试验数据和学术文献,加速临床试验站点筛选、患者入组和靶向药物研发。
  • 支付方与保险(Payers): 依托 Arango 在金融领域成熟的图分析与反欺诈能力,医疗保险机构可构建 360° 会员档案,精准检测潜在的异常理赔与欺诈模式,并优化医疗服务提供者网络。

五、 结语:超越数据库,走向“更好的上下文”

正如近期行业前沿峰会所揭示的趋势:AI 发展的下一个关键阶段不再是盲目追求“更大的模型”,而是为模型提供“更好的上下文(Better Context)”。

传统 AI 应用之所以难以在医疗生产环境中落地,往往是因为它们虽然具备快速输出的能力,却缺乏理解企业级复杂医疗数据的能力。Arango AI 数据平台正是为此而生——它是一个让 AI 能够真正“理解”医疗业务的基础设施层。

“为了让 AI 智能体真正发挥作用,团队必须能够信任它们的推荐。”

—— Andrei Seryi,PSI CRO 知识与流程改进总监

在医疗领域,“信任”不仅意味着准确,更意味着可解释、可追溯、可审计。

目前,Arango 在海外医疗与生命科学领域已积累了成熟的实践经验。作为 Arango 在中国的技术合作伙伴,我们正致力于将这一先进的 AI 基础设施引入国内生态。如果您所在的机构正在探索医疗大模型的落地,或受困于底层数据的关联瓶颈,欢迎与我们联系,我们期待为您提供基于真实业务场景的架构探讨与技术 PoC 测试。

母胎单身魔法师。

这十几年年经历了很多不好的事,之前帖子写过自己经历。t/1080820

24-26 年这 2 年,可能开窍了或者命运使然,很努力,情绪改善了很多,玩股票赚了些钱,减肥了几十斤,今年能拿到一个 92 的自考本,总比是个大专要好。

我家里属于散养那种,不管不顾的,一直说让带个媳妇,不怎么催,他们知道催也没用,还是得靠我自己改变观念。之前上学的时候,从小学到大学都有女的喜欢我,给我递纸条,我那时候一直抑郁,自己都要死要活的,学都不想上了,用各种理由搪塞拒绝了。

感觉自己年纪大了,有点迷茫了。进了社会,感觉生活中女的太少了,所以现在我想找了,怎么找一个?各位的结婚对象都是怎么找的?怎么找一个好的?