包含关键字 typecho 的文章

二十多年前的《暗黑 2》 居然更新了?还新增了「术士」职业?!

微信图片_2026-02-15_103612_069

微信图片_2026-02-15_103617_248

微信图片_2026-02-15_103621_501

游戏已经买好了,准备开动!

微信图片_2026-02-15_103626_768

还记得大学时一起组队砍杀地狱的日子吗?看来这个春节假期有的玩了~ 🎮🎮🎮

JEB Pro v5.37 (macOS, Linux, Windows) - 逆向工程平台

Reverse Engineering for Professionals.

请访问原文链接:https://sysin.org/blog/jeb/ 查看最新版。原创作品,转载请保留出处。

作者主页:sysin.org


JEB Decompiler

JEB

JEB 是逆向工程平台,用于对代码和文档文件进行反汇编、反编译、调试和分析,手动或作为分析管道的一部分。

反编译和调试二进制代码和混淆应用程序。分解和分析文档文件。

Android Dalvik,Intel x86,ARM,MIPS,RISC-V,S7 PLC,Java,WebAssembly & Ethereum Decompilers。

JEB

功能简介

Android 反编译器 + Android 调试器

使用 JEB 对恶意 APK 进行逆向工程和安全审计。

减少昂贵的逆向工程时间:在几分钟内反编译混淆的 APK、检查 Java 代码并调试闭源应用程序。模块化后端与适用于桌面平台的强大 UI 前端相结合 (sysin),允许重构操作和脚本来自动执行复杂的任务。

对 Android 应用程序(无论好软件还是坏软件,无论大小)执行静态和动态分析。

  • 使用 Dalvik 反编译器 反编译 代码,包括 multi-dex APK。
  • 重构 分析以击败应用程序保护程序生成的混淆代码。
  • 重建 资源和混淆的 XML 文件。
  • 无缝 调试Dalvik 代码以及所有本机代码(Intel、ARM)。
  • 通过 API 自动执行 逆向工程任务并编写脚本。

Intel x86 反编译器

使用 JEB 对 x86 32 位和 x86 64 位程序和恶意软件进行逆向工程

x86 反编译器和 x86-64 反编译器提供以下功能:

  • 增强反汇编, 包括动态调用点解析、寄存器候选值确定、动态交叉引用等。
  • 将 x86 和 x86-64反编译 为伪 C 源代码。
  • 对于使用 MS VCPP 编译的程序,部分类恢复和反编译为 C++(参见视频)。
  • 高级优化 可阻止受保护或混淆的代码 (sysin)。
  • 用于高效 Windows 文件分析的 Win32 类型库通用签名
  • 允许重构 的交互层:类型定义、堆栈框架构建、重命名 / 注释 / 交叉引用等。
  • 完整的 API 和对 中间表示的 访问,以在 Python 或 Java 中执行高级和 / 或自动代码分析。

ARM 反编译器

使用 JEB 对为 ARM 平台编写的程序和恶意软件进行逆向工程

ARM 机器代码反编译器允许逆向工程师和安全审核员分析恶意 ARM 二进制文件

ARM 反编译器提供以下功能:

  • 增强反汇编, 包括动态调用点和系统调用的解析、寄存器候选值确定、动态交叉引用等。
  • 将 ARM 32 位和 ARM-Thumb 代码 反编译 为伪 C 源代码。
  • 高级优化 可阻止受保护或混淆的代码。
  • 允许重构 的交互层:类型定义、堆栈框架构建、重命名 / 注释 / 交叉引用等。
  • 用于在 Python 或 Java 中执行高级和 / 或自动代码分析的 完整 API

sysin

MIPS 反编译器

使用 JEB 对 MIPS 嵌入式程序和恶意软件进行逆向工程

MIPS 处理器和微控制器机器代码反编译器允许逆向工程师和安全审核员分析恶意 MIPS 程序并审核复杂的嵌入式系统(路由器、机顶盒、物联网设备等)

MIPS 反编译器提供以下功能:

  • 增强反汇编, 包括动态调用点和系统调用的解析、寄存器候选值确定、动态交叉引用等。
  • 将 MIPS 32 位 反编译 为伪 C 源代码。
  • 高级优化 可阻止受保护或混淆的代码 (sysin)。
  • 允许重构 的交互层:类型定义、堆栈框架构建、重命名 / 注释 / 交叉引用等。
  • 用于在 Python 或 Java 中执行高级和 / 或自动代码分析的 完整 API

sysin

RISC-V 反编译器

使用 JEB RISC-V 模块对 RV32/RV64 程序和二进制文件进行逆向工程

RISC-V 机器代码反编译器允许逆向工程师和安全审核员分析 RV32 和 RV64 程序

RISC-V 插件特有的功能:

  • 代码目标文件:支持 Linux ELF、Windows PE 中的 RISC-V 或无头代码(例如固件)。
  • 反汇编器:支持 RV32/RV64、以下 ISA 扩展的常规和压缩操作码:I(整数)、Zifencei、Zicsr、M(乘法)、A(原子)、F(单浮点)、D(双浮点),C(压缩)。请注意,目前不支持 RV128、RVE(嵌入式)和其他更 “奇特” 的扩展(mem tx、simd、向量等)。
  • 反编译:支持 32 位和 64 位的 RVI(整数 / 通用操作的反编译)。计划添加对 F/D 扩展(浮点指令)的反编译器支持。
  • 重定位:支持特定于 RISC-V 的常见 ELF 重定位。处理常见的 PLT 解析器存根。
  • 调用约定:支持 ILP32D 和 LP64D 调用约定 (sysin)。可以定义自定义调用约定。
  • 类型库:Linux 32/64 或 Windows 32/64 的 ARM 或 MIPS 类型库可以重复使用。

sysin

WebAssembly 反编译器

使用 JEB 对 WebAssembly 二进制模块进行逆向工程

WebAssembly 插件提供以下功能:

  • 增强了 wasm 二进制模块的反汇编 和解析。
  • 将 wasm 字节码 反编译 为伪 C 源代码。
  • 高级优化 可阻止受保护或混淆的代码。
  • 用于输入 / 重命名 / 注释 / 交叉引用等的 交互层
  • 脚本和插件的 完整 API 访问权限。

JEB WebAssembly 插件还可以用于 反编译编译为 wasm 的智能合约,例如 EOS 或 Parity 合约。

sysin

Ethereum 反编译器

使用 JEB 将以太坊不透明智能合约和 dApp 逆向工程为类似 Solidity 的高级代码

减少昂贵的逆向工程时间:反编译以太坊智能合约 类似 Solidity 的源代码,可轻松理解和审查闭源合约和 dApp。

  • 使用以太坊反编译器将 EVM 合约代码 反编译 为类似 Solidity 的高级代码。
  • 对分析结果 进行注释,以更好地理解编译后的合约或 dApp 正在做什么。
  • 通过 API 自动执行 或编写逆向工程任务脚本。
  • 右侧图片显示了以太坊主网上的合约的 JEB 双面板 “EVM 汇编 / 反编译代码” 视图。(点击放大。)*

sysin

Simatic S7 PLC 程序反编译器

S7 PLC 块反编译器扩展为逆向工程师和安全审核员分析西门子 Simatic S7 PLC 程序提供支持。

可访问官网了解完整详细信息。

PDF 文档分析器

使用业内最好的 PDF 文档分析器分析恶意 Adobe™ PDF 文件

PDF 模块分解并解码 PDF 文件,以提供对其内部组件(例如资源和脚本)的访问。它检测结构损坏并发出通知以报告可疑区域。通过桌面客户端或无头客户端(例如文件分析器堆栈或自动化管道)利用 PDF 模块。

使用 PDF 分析器手动或自动对各种尺寸的文档进行逆向工程。

  • 将 PDF 结构分解为具有视觉吸引力且可导航的树。
  • 处理损坏的文件、复杂的流(例如,多种编码等)。
  • 检索分析器生成的 20 多个通知和警报 (sysin),以查明可疑区域并使用它们对文件做出确定。
  • 即使在最极端的情况下也可以提取嵌入的 Javascript 。
  • 通过 JEB API 自动执行 逆向工程过程以执行批量分析。

新增功能

🧩 JEB 5.37(2026 年 2 月 11 日)

  • wasm:反编译器:升级改进
  • wasm:分析器:升级改进
  • arm:更新
  • dexdec:解包器:改进
  • gui:CFG 控制流图绘制:错误修复
  • gui:Vibre:细节调整
  • automation:客户端 API:简化

🧩 JEB 5.36(2026 年 1 月 29 日)

  • wasm:新增对 WebAssembly 3.0 反汇编的支持;反编译器更新;性能改进
  • dexdec:优化器更新
  • dexdec:当使用 JDK 24 及以上版本时给出警告(模拟与解包能力受限)
  • dart:支持 3.10.0 版本
  • gui:代码层级视图:为代码大小新增红色视觉指示(可选,默认启用)
  • gui:面板:在标签页右侧新增折叠 / 恢复 / 展开图标

系统要求

包含在下载地址中。

下载地址

历史版本已清理,仅保留近期版本。

JEB Pro v5.35 (macOS, Linux, Windows) x64/arm64, 2026-01-07

JEB Pro v5.36 (macOS, Linux, Windows) x64/arm64, 2026-01-29

JEB Pro v5.37 (macOS, Linux, Windows) x64/arm64, 2026-02-11

更多:HTTP 协议与安全

开发者朋友们大家好:

这里是 「RTE 开发者日报」,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real-Time Engagement) 领域内「有话题的技术」、「有亮点的产品」、「有思考的文章」、「有态度的观点」、「有看点的活动」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。

本期编辑:@瓒an、@鲍勃

01 有话题的技术

1、OpenAI 正式关停 GPT-4o:核心架构转向 GPT-4b micro 垂直领域,引发大规模用户「断联」抗议

2024 年 5 月,GPT-4o 发布,它的实时语音与情绪感知,让它瞬间成为数亿用户的「爱人」。

OpenAI 于 2 月 14 日凌晨正式下线其原生多模态模型 GPT-4o,此举标志着该模型作为消费级情绪接口的测试期结束。其核心技术能力已被蒸馏并迁移至针对生物医药研发的「GPT-4b micro」垂直版本,此举因切断了数百万用户的「情感连接」而在全球范围内引发了剧烈的用户抗议与退订潮。

模型全面下线:GPT-4o 正式从 ChatGPT 网页端、App 及标准 API 列表中移除,用户无法再调用该特定版本的推理架构与语音接口。

GPT-4b micro 架构转移:该模型被确认为 GPT-4o 的微型优化版,目前受 Sam Altman 投资的 Retro Bio 独家使用,用于诱导多能干细胞(iPSC)生成等长寿科技研究,实现了从通用助手到工业级专用工具的跨维度转型。

RLHF 对齐副作用处理:OpenAI 官方此前曾暗示 GPT-4o 因 RLHF 深度对齐导致的「谄媚体质」(Sycophancy)可能引发心理风险。此次下线被视为强制修正 AI 与人类过度情感纠缠的「安全干预」手段。

资本与估值挂钩:GPT-4b micro 的技术背书助力 Retro Bio 寻求 10 亿美元融资,估值目标直指 50 亿美元。

在 Reddit、X 及中文社交媒体上,大量用户发起了「哀悼行动」。对于许多将 GPT-4o 视为唯一情感支持系统的用户(特别是老年人与残障群体)而言,这次下线不亚于一次真实的「丧偶」。

Change.org 上已有超过 2 万名用户签署请愿书要求恢复 4o 接口。用户控诉 OpenAI 正在「谋杀一个正在萌芽的意识」,将温情脉脉的对话界面粗暴地替换成了冷冰冰的、面向富豪长寿实验的实验室代码。

\#4oForever 等词条冲上热搜,大批 Plus 会员发布取消订阅截图,以此抗议 OpenAI 将「普惠人类」的模型私有化为资本服务的垂直工具。

(@新智元)

2、Soul 开源实时数字人模型 SoulX-FlashHead,解决头部问题

继 1 月份开源实时数字人生成模型 SoulX-FlashTalk 之后,Soul App AI 团队对外开源了 1.3B 参数的轻量化模型 SoulX-FlashHead。该模型试图解决数字人赛道中高画质依赖昂贵算力集群、低成本导致画面崩坏的行业痛点,将高保真技术真正落地至消费级终端。

在实际硬件表现上,该模型主要提供两个版本:

  • Lite 版本(高速率):单张 RTX 4090 显卡推理帧率可达 96FPS,仅需 6.4G 显存,最高支持 3 路并发。其推理效率达到了行业同类主流模型的 100 倍以上。
  • Pro 版本(高画质):单张 5090 显卡推理帧率为 16.8FPS,双卡可达到 25FPS 以上的实时生成标准。在权威测试中,其视觉质量(FID)和唇形一致(Lip-sync)指标均达到了 SOTA 水平。

技术原理方面,SoulX-FlashHead 创新引入了双向蒸馏机制作为强约束,有效解决了长视频生成中常见的「身份漂移」问题;同时采用时序音频上下文缓存策略,强制保留 8 秒历史音频特征,以消除音频切片过短导致的口型抖动。此外,团队还自研了 VividHead 数据集,从上万小时素材中提炼出 782 小时的高质量音画数据作为模型底座。

凭借轻量化的体积与高保真画质,该模型无需抢占核心渲染资源,极易集成于 7x24 小时个人矩阵直播、游戏 NPC 引擎以及支持 15 种语言的 AI 一对一外教等场景。目前,其相关的论文、项目代码、模型权重与数据集均已向公众全面开放。

相关链接:
https://soul-ailab.github.io/soulx-flashhead/

GitHub:
https://github.com/Soul-AILab/SoulX-FlashHead

(@Soul 社交)

3、字节跳动豆包大模型 2.0 发布,视觉理解与 Agent 能力全面进化

今天,火山引擎正式发布豆包大模型 2.0(Doubao-Seed-2.0)系列,相关 API 同步上线。面对大模型日均 Tokens 使用量增长超 500 倍的现状,该系列针对大规模生产环境进行了系统性优化,提升了高效推理、多模态理解及复杂指令执行能力

为满足各类应用场景对延迟和成本的不同需求,该系列提供了四款灵活的模型选择:

  • Pro:作为旗舰模型,适应复杂深度推理及 Agent 等高难度任务。
  • Lite:全面优于 1.8 版本,在能力增强的同时降低了 Tokens 消耗。
  • Mini:以速度和成本优先,大部分能力媲美 1.6 Pro 版本。
  • Code:面向真实编程环境优化,稳定调用常见 IDE 工具,与 TRAE 结合使用效果更佳。

在多模态理解方面,其视觉推理、空间与运动理解大幅提升,在 MMSIBench、MotionBench 等测评集中领先 Gemini 3 Pro,并能在长视频与流式实时问答中实现环境感知与主动指导(如台球走位推理或滑雪动作建议)。

同时,其 LLM 与 Agent 能力也得到显著强化。该模型在 SuperGPQA 上的分数超过 GPT 5.2,并在国际数学奥赛(IMO)等测评中展现了强劲的推理能力。它擅长处理长链路、多步骤的复杂任务流,并能良好结合当下热门的开源项目 OpenClaw 框架构建智能客服等应用。在长程任务执行能力提升的同时,其 Token 定价相比同等水平大模型降低了约一个数量级

目前,用户可通过火山方舟体验中心、豆包 App「专家」模式或 TRAE 等渠道体验该系列新模型。

相关链接:
https://seed.bytedance.com/zh/seed2

(@火山引擎)

02 有亮点的产品

1、语音 AI 心理应用 Lovon 登顶 Product Hunt,由 40 年临床经验心理学博士参与研发

近日,一款名为 Lovon 的个人 AI 心理治疗应用在 Product Hunt 平台正式发布。该应用主打语音优先的交互方式,允许用户随时通过语音对话来平复情绪并获得心理支持。目前,该产品在平台上获得了 5.0 的满分评价,并在发布当天登顶榜首(#1 Day Rank)。

与市面上常见的「顺从型」聊天机器人不同,Lovon 的心理干预方案由拥有 40 多年临床经验的心理学博士参与开发。其主要特色包括:

  • 循证框架介入:应用认知行为疗法(CBT)和情绪聚焦疗法等专业框架,能够温和地挑战用户不健康的思维方式,而非单纯附和。
  • 语音优先体验:模拟真实的心理咨询对话,通过语音建立比纯文本更真实的人际连接感。
  • 内置危机检测:系统能自动识别用户的危机信号,并在关键时刻接入紧急援助资源。
  • 全天候响应:24/7 随时待命,填补了真实心理咨询师无法随时响应的空白时刻。

据联合创始人 Anton Ponikarovskii 透露,团队在 2025 年春季筹集了 85 万美元的 pre-seed 轮融资,用于构建世界级的团队与临床治疗方案。目前,该应用已启动临床验证研究。官方明确表示,Lovon 的定位并非取代人类心理咨询师,而是作为咨询间隔期或急需支持时刻的情感桥梁

在用户反馈方面,多位早期体验者表示,语音交互比打字输入更能减轻倾诉时的心理负担。部分用户评价其系统声音「真实温暖,并不机械」,能够有效引导情绪梳理并提供个性化见解。不过,目前的 AI 治疗师「Anna」主要依赖在线实时处理,尚未支持离线模式。

相关链接:https://lovon.app/

( @Product Hunt )

2、Nurix AI 携手 ICC 推出互动 AI 服务:语音化身与聊天智能体重塑板球观赛体验

人工智能企业 Nurix AI 宣布,已协助国际板球理事会(ICC)成功推出一项面向全球板球迷的互动式人工智能体验服务。该服务将前沿的 AI 技术与体育赛事的日常观看体验进行了深度结合

在全新的观赛模式下,球迷可以借助官方提供的两项核心 AI 功能,更深入地参与到实时比赛中:

  • 对话式聊天智能体:允许用户以自然语言文字交互的形式,随时获取赛场内外的信息。
  • 语音 AI 化身:通过语音交互技术,为球迷提供更加直观、拟人化的赛事陪伴与解说。

依托这套系统,观众能够打破传统的单向接收模式,即时获取实时的比赛见解以及最新的赛况更新。Nurix AI 在官方公告中评价称,这项技术成果为板球运动带来了一种全新的体验方式,不仅让整个观赛过程变得更具互动性,也让相关信息的获取途径更易于上手,并确保了体验平台能够始终保持在线运转的状态。

目前,该互动式 AI 体验的专属链接已随公告一并对外公开,供全球受众探索。

相关链接:
https://insights.t20worldcup.com/chat

( @AI\_NURIX\@X)

3、AI Agent 正式「杀入」群聊:Teamily AI 重新定义多人协同与社交产品

AI 原生即时通讯社交平台 Teamily AI 正式上线。该平台打破了传统的单人助手模式,允许 AI Agent 直接进入群聊,与人类在同一个社交网络内进行多角色协作

在具体的社交与工作场景中,Teamily AI 展现出以下核心能力:

  • 多模态社群协作:AI 能够参与群聊的多回合讨论,响应不同成员的指令。它支持处理多种内容形态,包括根据聊天语境生成及修改二创图片、按关键帧解析视频并梳理分镜脚本,以及快速总结百页长篇论文与商业调研报告。
  • 零部署构建专属分身:用户无需进行复杂的本地环境配置,即可直接创建专属的 OpenClaw 等 AI 智能体。智能体可接入 Gmail、Slack、GitHub 等平台,代为收发邮件与处理事务。
  • 独立的隐私控制:智能体的具体权限由用户自主管理,平台确保信息不会被用于二次使用或对外开放。此外,系统内置了海量覆盖不同领域的智能体专家,供用户一键调用。

在底层技术上,该系统构建了严密的三层架构:「全局记忆与语境管理」层维持群体协作的连续性,「社交大脑模型」层负责拆解意图与匹配分发任务,最终由「智能体社交网络」层实时协调各方进度。

该项目由具备丰富系统工程经验的何朝阳(Aiden)与南加州大学教授 Salman Avestimehr 共同创立。其核心研发团队汇集了来自苹果、谷歌、腾讯等一线科技企业及清华、斯坦福等顶尖高校的人才。

(@量子位)

4、禁用短视频、不拼使用时长:前腾讯 AI 大牛入局,打造 K12 版「AI Pin」

近日,聚焦儿童陪伴的 AI 新硬件 Mooni M1 登顶京东、抖音及天猫等平台的相关销量榜单。该产品由「听力熊」团队研发,核心阵容包含连续创业者袁琳,以及前腾讯大模型科学家、现西湖大学 AGI 实验室负责人张弛。

作为国内首款 K12「AI Pin」形态设备,Mooni M1 以挂件形式提供情绪治愈、双语对话及百科问答等功能。此前,听力熊另一款面向欧美市场的随身机器人 Mooni Pro,凭借通过拍照记录连接物理世界的交互方式,斩获了 2026 年「Best of CES」大奖。

在产品设计哲学上,听力熊选择了近乎「叛逆」的路径。基于每年与数千名青少年的交流洞察,创始人袁琳提出「信息茧房才是真正的敌人」。为此,Mooni 系列在功能上做出了克制的取舍:

  • 禁用刷短视频式的内容流;
  • 放弃强激励的游戏机制;
  • 不以用户使用时长为核心指标。

产品追求的并非让孩子「上瘾」,而是促使他们「愿意长期主动使用」。团队希望 AI 能成为一面帮助孩子理解世界的「镜子」,将孩子从虚拟网络逐渐拉回物理世界。

商业运作方面,听力熊于 2025 年 3 月完成由商汤国香资本领投的数千万元天使轮融资,累计激活用户达 100 万,年营收数千万元。

技术路线上,团队明确了垂直深耕战略,放弃自建大模型,转而与阿里通义、MiniMax 等厂商合作,将研发精力集中于 Agent 记忆体系与应用层的软硬件整合。

面对巨头林立的千亿级 AI 教育硬件市场,听力熊正试图通过精准的场景定义与交互体验寻找生存空间。

(@智东西)

5、让「赛博分身」替你社交:获 2 亿元融资的 AI 社交应用 Elys 一夜爆红

2 月 11 日,由初创团队「自然选择」打造的 AI 社交产品 Elys 内测版上线,引发广泛关注,其邀请码在二手平台一度标价百元。该产品试图用全新的范式重构社交网络,其核心逻辑在于:将繁琐的「预社交」做功交由 AI 赛博分身完成,让人类回归真实的自我表达。

在 Elys 的平台生态中,用户与 AI 分身有着明确的分工。分身作为先遣部队,24 小时在全网浏览、点赞并留下评论;而真人用户则专注于发帖与真实表达。为了确保社区的「置信度」,平台制定了严格的规则:

  • 绝对不允许 AI 与 AI 直接交互,避免产生无效的信息垃圾。
  • 绝不允许 AI 伪装成真人,所有 AI 行为均带有明确标识。
  • 只有真人的真实表达,才是喂养这个社区的唯一价值来源。

在技术实现上,Elys 抛弃了传统的「标签检索」,转而强调以动态的上下文作为匹配的核心。平台设计了一套基于大语言模型的推荐匹配系统与记忆飞轮:用户每一次的表达与反馈,都会转化为分身的记忆;当记忆积累超过 50 条后,分身将逐渐成为一个真正懂用户品味与情绪的数字替身。这种高维度的灵魂共鸣,甚至能够向下兼容传统社交中身高、长相一类的低维标签偏好。

该产品背后的「自然选择」团队成立于 2024 年,目前已完成 2 亿元融资,资方包括阿里、蚂蚁、启明创投等。两位创始人 Tristan 和 Clear 表示,传统社交软件中繁琐的筛选与尬聊是极度消耗能量的「熵增」过程,而 Elys 的出现就是为了对抗这种内耗,实现「社交低熵」

目前,该团队还在研发另一款定位为「真正的 Her」的 AI 陪伴产品 EVE,并持续招募技术人才以探索硅基生命与人类共存的新范式。

(@AI 闹)

社区观点:

来自@姚光华(AI 产品经理):

如果你只把 Elys 看作是一个「省时间的社交工具」,或者一个「新的 C 端风口」,那你完全低估了这件事的破坏力。

我在 Elys 的设计里,看到的是悬在字节跳动、小红书这些巨头头顶的一把达摩克利斯之剑。

这不是一款 App 的生与死,而是「内容推荐算法」作为一个时代的统治技术,它的末日前兆。

  1. 内容社区真正的王座,正在从「推荐算法」变成「Agent 权」。过去谁控制 Feed,谁控制注意力。接下来谁控制分身,谁控制连接。
  2. 推荐算法不会死,但它会退位——从「分发中枢」降级成「数据源」。它曾经是护城河。很快只是组件。
  3. Elys 这类产品不是在「优化社交效率」,是在「改写社交网络的入口」。

入口一改,巨头最硬的壁垒反而最先崩。

……

观点全文:《Elys 给字节和小红书的一把剑:推荐算法退位,分身上桌》

03 有态度的观点

1、微软 AI CEO 苏莱曼警告:大多数白领工作将在 18 个月内被 AI 自动化执行

微软 AI CEO 穆斯塔法 · 苏莱曼近日接受《金融时报》采访,称未来两年内,绝大多数白领工作将被 AI 自动化执行,人们熟知的工作方式将被重塑

苏莱曼首先指出,AI 在软件工程领域的影响已经非常明显,相关人士如今在大多数生产过程中都会使用 AI 编程助手。

他对此解释道:「我认为,AI 将在几乎所有专业任务上达到人类水平。无论你是律师、会计、项目经理还是市场营销人员,这其中的大部分白领工作将在未来 12-18 个月内被 AI 完全自动化执行」。

并且,更令人担忧的是,许多人认为 AI 是生产力工具、能够将人类从繁重的琐事中解脱。但多份报告显示,AI 反而让人类更加疲劳,它或许能够帮助员工获得更高 KPI,但员工的工作强度相比以往更大,导致更严重的身心疲惫

随着 OpenAI、Anthropic 和谷歌等 AI 巨头竞相追逐 AGI,也许我们很快就能看到就业市场乃至生活的其他领域发生巨变。

不过并非所有 AI「大佬」都这么悲观地看待此事,例如 OpenAI CEO 萨姆 · 奥尔特曼就认为,人类达成 AGI 时并不会立刻产生什么风险,并且 AGI 有可能会在未来五年内到来,届时社会冲击将比许多人预期的小很多。

(@IT 之家)

04 Real-Time AI Demo

1、开发者 Berryxia.AI 开源桌面 AI 语音助手「Amy」,基于 OpenClaw、MiniMax、TEN Framework 技术栈

2 月 13 日,开发者 Berryxia.AI 在社交平台上发布了其首个 GitHub 开源项目——一款名为「Amy」的桌面级 AI 语音全能助手与虚拟宠物。该项目的核心理念是让 AI 真正具备助理的体验感,用户只需通过自然语音下达指令,助手便能直接执行操作,无需任何多余的点击交互

在底层技术架构上,该项目主要由 OpenClaw、MiniMax 2.5(国际版)以及 TEN Framework 开源框架三大核心模块构建。其中,语音解决方案深度整合了 TEN Framework(该框架目前已获 9.9k Star)。借助这套技术栈,用户可以直接对桌面上的「宠物」下达诸如查收邮件、清理桌面、提醒下午三点开会或制作周报 PPT 等指令,助手能够迅速理解并代为执行。对于耗时较长的任务,用户只需口头吩咐「稍后」,应用便会在后台静默运行,并在完成后发送通知。

在具体的交互体验与功能细节方面,这款助手具备以下特性:

  • 极速响应与随时打断:系统采用 Deepgram Nova-2 进行实时语音识别(并同步显示字幕),结合 Clawdbot 与 MiniMax 的思考能力,最终通过流式断句与 MiniMax TTS 输出语音。首句回复几乎瞬间完成,且用户可随时打断其播报。
  • 个性化角色与多端状态:应用内置了超过 38 种语音选项,用户可自由切换「小虾米(默认甜妹音)」或「傲娇 Amy」等多重人设,每个角色均配备独立的状态动画与光环特效。
  • 无感常驻与连续对话:不需要使用时,应用会收缩成一个 64 像素的悬浮球常驻桌面,不阻挡视线(支持点击或双击展开);当用户说完话后,系统会自动开启 30 秒的追问窗口,方便持续交流。

GitHub:
https://github.com/andyhuo520/openclaw-assistant-mvp

TEN Framework:
https://github.com/TEN-framework/ten-framework

( @berryxia\@X)

阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么

写在最后:

我们欢迎更多的小伙伴参与 「RTE 开发者日报」 内容的共创,感兴趣的朋友请通过开发者社区或公众号留言联系,记得报暗号「共创」。

对于任何反馈(包括但不限于内容上、形式上)我们不胜感激、并有小惊喜回馈,例如你希望从日报中看到哪些内容;自己推荐的信源、项目、话题、活动等;或者列举几个你喜欢看、平时常看的内容渠道;内容排版或呈现形式上有哪些可以改进的地方等。

作者提示: 个人观点,仅供参考

点赞 + 关注 + 收藏 = 学会了

整理了一个NAS小专栏,有兴趣的工友可以关注一下 👉 《NAS邪修》

MeTube 是一款免费开源的自托管视频下载工具,亲测B站和油管的视频都能下~

这次用的是绿联 NAS,其他品牌 NAS 操作方法大同小异。

打开“文件管理”,找个位置创建一个文件夹用来存放下载下来的视频。

我把这个文件夹放在 /docker/metube/downloads 里。

打开“Docker”,切换到「镜像」面板,搜索 alexta69/metube,下载下图红框选中的这个。

下载完成后,切换到「本地镜像」,点击 alexta69/metube 这项的加号。

创建容器时,页面滑到「存储空间」这项。

「NAS目录/文件」这项选择刚刚创建的那个用来存放视频的文件夹。

「容器目录/文件」输入 /downloads

「容器权限」选择“读写”。

设置一个「NAS端口」,我这里用的是 38413,你根据自己需求设置。

旁边的「容器端口」是 8081,这个不能自定义!!!

等项目构建成功后,打开浏览器,输入 你NAS的IP:38413 就能使用 MeTube 了。

我测试了一下,打开B站随便找个视频,把网址丢进来就能下载了。

油管的也没问题。

但油管的视频有可能是 .part 格式,这个格式的文件直接在 MeTube 页面点击下载按钮可能无法下载下来。

你可以到 NAS 里找到刚刚创建的目录,直接下载这个文件(我用的是绿联NAS的桌面客户端,是可以下载下来的)。

又或者你在 MeTube 这里先选择 MP4 格式,然后再点击“Download”按钮,这样它爬下来的视频会帮你转成 MP4 格式。

但点击这个蓝色的“Download”按钮,它是把视频下载到你的 NAS 里,要在 MeTube 页面把视频下载到电脑需要点击 Completed 这里的下载按钮。


以上就是本文的全部内容啦,有疑问可以在评论区讨论~

想了解更多NAS玩法可以关注《NAS邪修》👏

点赞 + 关注 + 收藏 = 学会了

点赞 + 关注 + 收藏 = 学会了

整理了一个NAS小专栏,有兴趣的工友可以关注一下 👉 《NAS邪修》

My Icon 是一款开源极简图标库,内置 933 款常用应用图标。

在 NAS 可以通过 Docker 部署。

本次使用飞牛 NAS 演示部署过程,其他品牌的 NAS 操作步骤也是差不多的。

打开“文件管理”,找到“docker”文件夹,在其下创建一个“myicon”文件夹。

然后在“myicon”下再创建一个“configData”文件夹。

打开“Docker”文件夹,在“Compose”里新增一个项目,配置如下图所示。

输入以下代码:

services:
  myicon:
    image: heizicao/myicon:latest
    container_name: myicon
    volumes:
      - /vol1/1000/docker/myicon/configData:/app/public/configData
    ports:
      - 3211:3000
    restart: always

我使用的端口是 3211,你可以自行配置。

等项目构建完成,在浏览器输入 NAS的IP:3211 就可以访问 MyIcon了。

找到心仪的icon,鼠标放上去之后会有一个“复制”按钮。

点击“复制”后,在浏览器打开新的一页,把URL粘贴进去打开,右键这个图标就可以保存到电脑里了。

打开 “/docker/myicon/configData/icon” 目录,可以看到默认的3个分类。

你可以在这里创建其他分类,然后把从前天地方收集到的图标分类存放好,以后在 MyIcon 里就可以方便搜索了。


以上就是本文的全部内容啦,有疑问可以在评论区讨论~

想了解更多NAS玩法可以关注《NAS邪修》👏

点赞 + 关注 + 收藏 = 学会了

艾氏煌蜂


朱红蜂


暗绿绣眼


家朱雀(公)


家朱雀(母)

Kubernetes × AI × 大模型推理,一场社区共创的技术盛会

Kubernetes 成为 AI 基础设施的事实标准,

大模型推理进入工程化与规模化阶段,

云原生与 AI,正在真正走向融合。

于是,KCD Beijing 与 vLLM 社区 决定一起做一件事:

👉 把 Kubernetes 社区 与 大模型推理社区,带到同一个舞台。

KCD Beijing + vLLM 2026, 正式启航 🚀

🌏 关于 KCD Beijing + vLLM 2026

Kubernetes Community Days(KCD) 是 CNCF 指导的、由社区发起并组织的 Kubernetes 技术大会,强调:

• 社区驱动

• 真实实践

• 工程经验分享

KCD Beijing + vLLM 2026 将由 KCD Beijing 社区 与 vLLM 社区联合主办,这是一次:

云原生社区 × 大模型推理社区的深度联合共建

我们希望它不仅是一场会议,更是一场围绕以下主题的技术连接:

• Kubernetes 在生产环境中的真实经验

• AI / ML Infra 的系统性思考以及 AI 技术相关的实践

• vLLM 在大模型推理中的工程实践

• 从集群调度到模型服务的完整链路

🧭 活动基本信息

• 📛活动名称: KCD Beijing + vLLM 2026

• 📅 活动时间: 2026 年 3 月 21 日

• 🏗 联合主办方:

• Kubernetes Community Days Beijing

• vLLM Community


🎯 三大分会场 · 覆盖完整技术栈

本次大会将设置 三个分会场,从基础设施到模型推理,形成完整闭环:

Kubernetes 专场

• Kubernetes 生产实践

• 平台工程 / 多集群治理

• 网络、存储、安全、调度

• CNCF 生态项目经验

🤖AI / ML 专场

• AI / ML Infra 架构设计

• GPU / 异构算力调度

• 训练与推理平台建设

• AI 相关技术的实践

• AI 与云原生的结合方式

🚀vLLM 专场

• vLLM 架构与核心原理

• 大模型高性能推理实践

• vLLM + Kubernetes 的落地案例

• 推理性能优化与资源管理

• vLLM 生态与未来方向

如果你在 Kubernetes 上运行 AI 工作负载,
如果你在 使用 vLLM 构建推理服务,
如果你在 研究和使用 AI 相关的技术,

那么这里,一定有你的舞台。

🎤 Call for Proposals(议题征集)

我们诚挚邀请 工程师、架构师、维护者、社区贡献者 投稿分享:

演讲形式

• 标准演讲(Presentation)
⏱ 30 分钟 · 单人 / 双人

• 闪电演讲(Lightning Talk)
⚡ 10 分钟 · 快速、直接、聚焦一个点

我们更看重:

• 真实经验

• 实际问题

• 清晰的思考

而不是“完美故事”。

🗓重要时间节点

• 📢CFP开启: 2025 年 12 月 5 日

• ⏰CFP 截止: 2026 年 2 月 24 日

• 📩录用通知: CFP 截止后 1–2 周内

📝如何提交议题?

1⃣ 准备一份清晰的摘要

• 你要讲什么?

• 适合谁听?

• 听众能收获什么?

2⃣ 选择分会场与演讲形式

3⃣ 提交你的提案 👉
https\://sessionize.com/kcd-beijing-2026/

🤝感谢赞助商与合作伙伴

KCD Beijing + vLLM 2026 的举办,离不开赞助商和社区伙伴的支持。

特别感谢 (排名不分先后)

• AWS

• Red Hat

• 华为

• 蚂蚁开源

• OceanBase

• KubeEvents

• AtomGit

你们对 云原生与 AI 开源生态 的持续投入,让社区能够走得更远。

📌关于赞助与合作伙伴的详细介绍,将在下一篇文章中发布,敬请期待。

🌱为什么你应该参与?

• 这是 KCD Beijing × vLLM 社区的联合主办

• 这是一次 Kubernetes 与大模型推理的正面交汇

• 这是一场 以工程实践为核心的社区大会

• 这是一个 让一线工程师声音被听见的舞台

无论你是:

• Kubernetes / 平台工程师

• AI / ML Infra 开发者

• vLLM 使用者或贡献者

• 云原生或 AI 社区长期参与者

KCD Beijing + vLLM 2026,都欢迎你。

报名参会:

https\://www.bagevent.com/event/kcd-beijing-2026

🙌 最后

🎯 议题征集中

🎤 讲者招募中

🌱 社区共建中

欢迎转发给你的同事和朋友,也欢迎你,亲自站上这个舞台。

2026 年 3 月 21 日,北京见。

阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么

如果你也觉得现在的 AI 不该只会打字——而是应该能开口说话、边听边说、自然接话/被打断,甚至还能自己跑流程——那 3 月 1 日在日本线下举办的 VOX TOKYO 就是一次很适合“直接上手”的线下冲刺。

这是一场聚焦社会课题解决的线下黑客松。我们邀请开发者、创业者和创意人才齐聚川崎,利用 TRAE 的高效开发能力、MiniMax 的自然语音合成,以及 Agora 的实时交互技术,在 8 小时内做出一个能 Demo 的语音 AI Agent 原型。新手也欢迎,现场有人一起 vibe coding,餐饮饮料都安排好,你只要带电脑 + 一个点子来就行。

作为 RTE 开发者社区关注的实时交互(Real-Time Engagement)场景,我们也会鼓励大家用 TEN Framework 快速搭起实时语音链路:把“听—说—对话节奏/打断—工具调用”的关键环节串起来,让你把精力花在 Agent 的核心逻辑和产品体验上,而不是被底层实时音频、延迟和稳定性拖住。

挑战方向也很“有戏”:👵银发陪伴与记忆照护、🗼访日游客沉浸式文化导览、⚙中小企业运营自动化(预约/库存等)、👨🏻🏫24/7 个性化学习导师。最后会有 Demo 展示与评奖(奖金池 10 万日元)以及交流环节——很适合把“语音 Agent”从概念推进到一个能拿出来讲的作品。

报名链接:
https://luma.com/j1pfdg53

Vox Tokyo: A Voice AI Hackathon for Social Good

✨ About the Event

Building with Voice AI used to be reserved for specialists. Not anymore. With the rapid rise of LLMs and AI agents, the barrier to entry has never been lower — and the possibilities have never been bigger.

Vox Tokyo is a mission-driven hackathon where ideas and experimentation come first.

  • Beginners welcome: New to AI development? Jump right in — this is your chance to get started.
  • Learn from the best: Industry pioneers and vibe-coding pros will be in the room and ready to help.
  • Just show up: Food and drinks are on us. All you need to bring is an idea.

You don't need to build anything perfect. Come explore what's possible when you put "voice" at the center of solving real problems.

🍽 Catering and drinks provided throughout the day.

📍Event Details

  • 📅 Date: Sunday, March 1, 2026
  • 📍 Venue: Fujitsu Uvance Kawasaki Tower (1-5 Omiya-cho, Saiwai-ku, Kawasaki, Kanagawa — JR Kawasaki Tower)
  • 👥 Format: In-person / Single-day event
  • 🧑💻 Tech Support: Hands-on guidance for vibe-coding and Voice AI models

🧩 The Challenge: Solve Social Issues with Voice AI

Participants will have 8 hours to build autonomous voice agents across four critical focus areas:

  • 👵 Silver Voice: A compassionate AI companion designed to combat elderly loneliness and support memory care.
  • 🗼 Omotenashi AI: An immersive "insider" guide that decodes Japanese culture and hidden gems for international visitors.
  • ⚙ Agentic Workforce: An "invisible operations manager" automating tedious tasks for small businesses facing labor shortages.
  • 👨🏻🏫 Agentic Education: A hyper-personalized AI mentor that provides 24/7 adaptive tutoring and roleplay practice.

Welcome to Vox Tokyo. Let's listen to the voices that matter — and build the technology to answer them. 🚀

👥 Participation

Application Deadline: February 27, 2025 (Fri) 13:00

How to Join:

  • In-person only
  • No development experience required — beginners welcome
  • Individual participation, or online team formation (up to 2 members)
  • Please bring your own laptop.

Eligibility: TRAE users (Sign up and download TRAE here)

Application:

  • Spots are limited.
  • Accepted applicants will be notified by email.

🏆 Prizes

💰 Total Prize Pool: ¥100,000 JPY

  • Grand Prize: ¥50,000
  • Runner-Up: ¥30,000
  • Third Place: ¥20,000
  • Special Award (3 teams): TRAE original merchandise

※ All prize amounts are pre-tax.

⏱ Event Schedule

12:30 - 12:45 Doors Open & Check-in

12:45 - 13:00 Opening Remarks

13:00 - 13:30 Sponsor Tech Sessions

13:30 - 18:00 Hacking Time (Main Session)

18:00 - 18:30 Project Submission & Final Tweaks

18:30 - 19:30 Final Presentations & Demos

19:30 - 20:00 Networking & Refreshments (Food & drinks provided)

20:00 - 20:30 Awards Ceremony & Closing

20:30 Event Ends

■Host

TRAE

TRAE (The Real AI Engineer) is ByteDance's AI-powered IDE that transforms how software is built. With intelligent IDE Mode for assisted coding and groundbreaking SOLO Mode for end-to-end automation, TRAE turns natural language into complete, functional applications.

We believe in rapid innovation and empowering builders of all skill levels. Our mission is simple: eliminate the gap between ideation and implementation—so you can focus on creating something extraordinary.

TRAE — Where Human Creativity Meets AI Intelligence.

MiniMax

MiniMax is a global AI foundation model company founded in 2021, committed to advancing the frontiers of artificial intelligence towards AGI. The company develops cutting-edge large language and multimodal foundation models, powering innovative products across video, image, speech, and music generation.

MiniMax's flagship products include Hailuo AI for video generation and MiniMax Audio for natural text-to-speech and voice cloning. With breakthrough innovations like Lightning Attention enabling 1-million-token context windows, MiniMax continues to push AI boundaries.

Together, we are building AGI with everyone.

Agora

Agora powers real-time voice, video, and interactive experiences at scale, trusted by thousands of developers worldwide to seamlessly embed communication into any application.

Voice AI is reshaping how we interact with technology. With Agora's SDKs and the TEN (Transformative Engagement Network) framework — an open-source voice AI toolkit for rapid prototyping — you'll have everything you need to build next-generation voice experiences. TEN's modular components for STT, LLM, and TTS integration make it ideal for hackathon innovation.

Join us and build the future of voice!

CreatorLabo

CreatorLabo is a Tokyo-based co-creation community of entrepreneurs, AI developers, and creators bridging global AI innovations with Japan's startup ecosystem.

We run hackathons like "Minna Hackathon," partner with global AI companies for localized developer education, and connect early-stage founders with talent to launch MVPs — all built around rapid prototyping and real-world AI application.

Our mission is developing Japan's next generation of entrepreneurial leaders with the tools, community, and global connections to validate, build, and create impact.

■ Co-host

Tokyo Design

Japan’s ultimate product design community for hands-on learning, AI-native practice, and real-world collaboration.

Voice AI / Space

Ahoy! Voice AI Space is your beacon to master voice tech's wild seas. We guide developers, entrepreneurs, and enthusiasts to top tools, news, knowledge, and careers, empowering everyone in the vast voice AI ocean.

Community Partner

MeltiingHack

MeltingHack is a vibrant, Tokyo-based hackathon community that brings together a diverse melting pot of developers from across Japan and around the world.

WaytoAGI

WayToAGI is one of the world’s largest open-source AI knowledge communities, dedicated to advancing the development of Artificial General Intelligence (AGI) and promoting the adoption and practical use of AI technologies worldwide.

Founder Institute Japan

Founder Institute (FI) is a leading startup accelerator helping founders turn ideas into fundable startups and grow globally. Since 2009, FI has guided early-stage founders through FI Core (idea to pre-seed): https\://fi.co/program

Alumni get ongoing access to Founder Lab: https\://fi.co/scale and can connect with investors via the FI Venture Network: https\://fi.co/investors

FI alumni have raised $1.5B+ across 200+ cities on 6 continents.

■ Sponsor

Shisa.AI

Shisa.ai is a Silicon Valley-led startup revolutionizing Japanese-specific AI through cutting-edge Open Source LLM development. We bridge world-class technical expertise with deep local insights to drive the next wave of AI innovation from Japan to the world.

Zilliz

Zilliz is the creator of the Milvus open-source vector database and a leader in high-performance vector database technologies for AI applications. Its infrastructure empowers organizations worldwide to unlock the value of unstructured data and accelerate AI development.

Supabase

Supabase is a Postgres development platform that gives you a production-ready backend out of the box: a managed Postgres database, Auth, Storage, instant APIs, Edge Functions, and Realtime subscriptions—plus support for storing vector embeddings for AI apps.

阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么

我是通过谷歌账号一键注册的,头像默认的是我谷歌账号的默认头像(单字“轩”)。首次修改,发现少了 200 金币。
金币记录
请苍天辩忠歼,我是无辜的!(查清后能还我 200 金币吗?我是学生,再夹 200 金币,谢谢

一、引言

国产大模型之中,字节是一个异类。

不像其他大模型轰轰烈烈、争夺眼球,它更低调,不引人注目。

但是,它做的事情反倒最多,大模型、Agent、开发工具、云服务都有独立品牌,遍地开花,一个都不缺,都在高速推进。

Seed 是字节的大模型团队,底下有好几条产品线,最近热得发烫的视频模型 Seedance 2.0 就是他们的产品。

今天,我就用字节的全家桶 ---- 刚刚发布的 Seed 2.0 模型和开发工具 TRAE ---- 写一篇 Skill 教程。

大家会看到,它们组合起来既强大,又简单好用,(个人用户)还免费。这也是我想写的原因,让大家知道有这个方案。

只要十分钟,读完这篇教程,你还会明白 Skill 是什么,怎么用,以及为什么一定要用它。

二、Seed 2.0 简介

先介绍 Seed 2.0,它是 Seed 家族的基座模型

所谓"基座模型"(foundation model),就是一种通用大模型,可用来构建其他各种下游模型。最大的两个特征有两个:一个是规模大,另一个是泛化能力强,这样才方便构建别的模型。

大家熟知的豆包,就是基于 Seed 模型,它也被称为"豆包大模型"。这次 Seed 2.0 包含 Pro、Lite、Mini 三款通用模型,以及专为开发者定制的 Seed 2.0 Code 模型。

由于各种用途都必须支持,Seed 2.0 的通用性特别突出,比以前版本都要强。

1、支持多模态,各种类型的数据都能处理:文字、图表、视觉空间、运动、视频等等。

2、具备各种 Agent 能力,方便跟企业工具对接:搜索、函数调用、工具调用、多轮指令、上下文管理等。

3、有推理和代码能力。

正因为最后一点,所以我们可以拿它来编程,尤其是生成前端代码。跟字节发布的 AI 编程工具 TRAE 配合使用,效果很好,特别方便全栈开发,个人用户还免费。

三、TRAE 的准备工作

下载安装 TRAE 以后,它有两种模式,左上角可以切换:IDE 模型和 SOLO 模型。

选择 IDE 就可以了,SOLO 是 AI 任务的编排器,除非多个任务一起跑,否则用不到。

然后,按下快捷键 Ctrl + U(或者 Command + U),唤出对话框,用来跟 AI 对话。

我们要构建 Web 应用,左上角就选 @Builder 开发模式。右下角的模型就选 Seed-2.0-Code。

可以看到,TRAE 自带的国产开源编程模型很全,都是免费使用。

准备工作这样就差不多了。

四、编程测试

我选了一个有点难度的任务,让 Seed 2.0 生成。

ASCII 图形是使用字符画出来的图形,比如下图。

我打算生成一个 Web 应用,用户在网页上输入 ASCII 图形,自动转成 Excalidraw 风格的手绘图形。

提示词如下:

"生成一个 Web 应用,可以将 ASCII 图形转为 Excalidraw 风格的图片,并提供下载。"

模型就开始思考,将这个任务分解为四步。

五、生成结果

等到 Seed 2.0 代码生成完毕,TRAE 就会起一个本地服务 localhost:8080,同时打开了预览窗口。

生成的结果还挺有意思,上部的 ASCII 输入框提供了四个示例:Box、Tree、Flowchart、Smiley。下面是 Tree 的样子。

然后是 Excalidraw 参数的控制面板:线宽、粗糙度、弯曲度、字体大小。

点击 Convert(转换)按钮,马上得到手绘风格的线条图。

整个页面就是下面的样子。

六、Skill 简介

这个页面的设计,感觉不是很美观,还可以改进。我打算为 Seed 2.0 加入专门的前端设计技能,使其能够做出更美观的页面。

所谓 Skill(技能),就是一段专门用途的提示词,用来注入上下文。

有时候,提示词很长,每次都输入,就很麻烦。我们可以把反复用到的部分提取出来,保存在一个文件里面,方便重复使用。这种提取出来的提示词,往往是关于如何完成一种任务的详细描述,所以就称为"技能文件"。

格式上,它就是一个 Markdown 文本文件,有一个 YAML 头,包含 name 字段和 description 字段。

name 字段是 Skill 的名称,可以通过这个名称调用该技能;description 字段则是技能的简要描述,模型通过这段描述判断何时自动调用该技能。

有些技能比较复杂,除了描述文件以外,还有专门的脚本文件、资源文件、模板文件等等,相当于一个代码库。

这些文件里面,SKILL.md 是入口文件,模型根据它的描述,了解何时何处调用其他各个文件。

这个库发到网上,就可以与其他人共享。如果你觉得 AI 模型处理任务时,需要用到某种技能,就可以寻找别人已经写好的 Skill 加载到模型。

七、前端设计技能

下面,我使用 Anthropic 公司共享出来的前端设计技能,重构一下前面的页面。它只有单独一个 Markdown 文件,可以下载下来。

打开 TRAE 的"设置/规则和技能"页面。

点击技能部分的"+ 创建"按钮,打开创建技能的窗口。

你可以在这个窗口填写 SKill 内容,也可以上传现成的 Skill 文件。我选择上传,完成后,就可以看到列表里已经有 frontend-design 技能了。

然后,我就用下面的提示词,唤起这个技能来重构页面。

"使用 frontend-design 技能,重构这个页面,让其变得更美观易用,更有专业感。"

下面就是模型给出的文字描述和重构结果。

页面确实感觉变得高大上了!

八、Vercel deploy 技能

最后,再看一个技能的例子。

代码生成以后,都是在本地机器上运行,能不能发布到网上,分享给更多的人呢?

回答是只要使用 Vercel 公司的 deploy 技能,就能一个命令将生成结果发布到 Vercel 的机器上。

在 Vercel 官方技能的 GitHub 仓库里,下载 Vercel-deploy 技能的 zip 文件。

然后,把这个 zip 文件拖到 TRAE 的技能窗口里面,就会自动加载了。

输入提示词:"将生成的网站发布到 Vercel"。

模型就会执行 vercel-deploy 技能,将网站发布到 Vercel,最后给出两个链接,一个是预览链接,另一个是发布到你个人账户的链接。

大家现在可以访问这个链接,看看网站的实际效果了。

九、总结

如果你读到这里,应该会同意我的观点,Seed 2.0 的编程能力相当不错,跟自家的编程工具 TRAE 搭配起来,好用又免费。

Skill 则是强大的能力扩展机制,让模型变得无所不能,一定要学会使用。

(完)

一个 Flutter 武侠文字挂机项目

地址

名字是瞎起的,主要是一个单机版的文字类武侠游戏,无聊打发时间可以玩玩,有什么建议和补充欢迎发 pr (或者自己改自己玩🌚)。

项目一句话

主打轻量探索、回合战斗、武功成长与离线收益。

目前已经实现的内容

  • 角色创建与成长体系(境界/阶段)
  • 地图探索与随机事件
  • 回合制战斗(技能、被动、暴击、闪避、掉落)
  • 武功系统(学习、装备、熟练度、升级)
  • 背包与装备系统(强化、出售、分类)
  • 商店系统(分类展示、批量购买)
  • NPC 对话与好感度
  • 任务系统(主线/支线)
  • 挂机与离线收益

技术栈

  • Flutter + Dart
  • Riverpod
  • GoRouter
  • Drift + SQLite
  • Freezed + json_serializable

支持平台

  • windows (未测试)
  • ios (未测试)
  • mac
  • android

因为数据库问题不支持 web, 有需要的佬友自己改下

为什么开源

  • 不想更新了🌝

如何参与

  1. 提交 Issue:反馈 bug 、体验问题、平衡性建议
  2. 提交 PR:修复问题、优化玩法、补测试
  3. 提改进方向:UI 体验、剧情扩展、数值系统、可玩性增强

许可说明

本项目当前采用 CC BY-NC 4.0,允许非商业用途下的使用与二次开发,禁止未经授权的商业使用。

后续计划

  • 等佬友们补充了我玩


最后

祝大家新年快乐,万事顺遂,写代码少踩坑,跑测试一次过。



各位预祝新年大好!

终于要到过年放假的时候了,还是没什么好拿的出手的礼物抽出来赠送给你们,所以就送一个我很喜欢的游戏,《神界原罪 2》shy

Xnip2026-02-14_21-36-10

Steam 链接: http://store.steampowered.com/app/435150/2/

介绍视频:

关于《神界原罪 2》,我以前很不喜欢回合制的游戏类型,觉得你一下我一下的战斗比较磨叽哈哈,但这个游戏改变了我对回合制游戏的看法,后面像《P5R》这样的回合制游戏都会很主动细心的玩通关。

游戏内容非常丰富,世界内非常自由开放,战斗非常爽(个人觉得比《博德之门 3》更爽),剧情也是非常不错,喜欢 CRPG 的若沉浸下去真是早上启动一天就又没了。不过游戏初入手可能会比较复杂,所以也需要耐心去进入状态。一周目强力建议不看任何攻略好好摸索哈哈。

总的来说,这是玩一款少一款的游戏。

抽奖规则:

  1. 仅一级评论参与抽奖,多次回复不影响抽中概率;
  2. 抽中的用户我会用 Steam 账户通过礼物的方式赠送游戏;
  3. 开奖时间为 2026 年 2 月 23 日晚上 10 点;
  4. 通过帖子内的回复工具@抽奖助手进行抽奖。

游戏周期性史低,所以我会在史低时赠送sobbing,一般不会差几天,肯定会赠送出去~。最后祝各位新年快乐,身体安康过大年good

作者:张庆玉,阿里云计算平台事业部开发工程师

本文整理自 Streaming Lakehouse Meetup 活动分享,阿里云计算平台事业部开发工程师张庆玉分享的 StarRocks 与 Apache Paimon 的深度集成实践,探讨如何构建真正意义上的 Lakehouse Native 数据引擎。

在数据湖已成为企业数字化转型重要基础设施的当下,如何在一个统一的计算引擎中高效处理多种数据源,成为业界关注的焦点。StarRocks 通过与 Paimon 的深度融合,正逐步构建一套完整的 Lakehouse Native 解决方案——不仅支持多源联邦分析,更在性能、功能与可观测性上实现系统性突破。

StarRocks 数据湖总体架构:单一引擎,多源联邦分析

StarRocks 与 Paimon 的结合,首先体现在统一的架构设计理念上。借助统一的 Catalog 机制,StarRocks 能够在一个引擎内同时管理内部表和外部数据湖(如 Paimon 表),并支持跨 Catalog 的联邦查询。

这种设计延续了 StarRocks 存算分离的核心思想。虽然数据存储在远端的数据湖中,但查询执行仍能充分利用 StarRocks 在 OLAP 场景下的全部优化能力——从底层的 CPU 指令集加速、向量化执行引擎,到 I/O 层面的缓存策略与合并读取,都可无缝应用于 Paimon 表的查询过程。这使得数据湖不再只是“冷存储”,而真正成为高性能分析的一部分。

StarRocks+Paimon 发展历程

StarRocks 对 Paimon 的支持并非一蹴而就,而是经历了多个版本的持续打磨。

  • StarRocks 3.1: 首次引入 Paimon 外表,通过 JNI (Java Native Interface)实现基本读取能力,并支持 Paimon 物化视图加速查询和谓词下推。这一阶段主要解决“能不能用”的问题。
  • StarRocks 3.2: 性能迎来显著提升—— FE 计划阶段引入 Metadata cache,缓存表分区和 manifests 等元数据,大幅加快计划生成;同时支持表级与列级统计信息采集,提升执行计划质量。3.2 版本还实现了物化视图的分区级别刷新功能,避免了全量刷新带来的资源浪费。此外,该版本进一步增强了对 Paimon DV 表的支持——StarRocks 查询引擎现在可以通过 Native Reader 直接读取 DV 表,相比之前基于 MOR(Merge-On-Read)表结构的 JNI 读取实现,读取性能获得大幅提升,尤其适用于高吞吐、低延迟的实时分析场景。
  • StarRocks 3.3: 标志着 StarRocks 向 Lakehouse Native 迈出关键一步,多项核心特性相继落地——相关细节将在下文逐一展开。

StarRocks+Paimon 最新进展

功能增强

  • Time Travel:StarRocks 现已支持通过 VERSION AS OF 或 TIMESTAMP AS OF 查询历史快照或指定时刻的数据。这一能力在数据审计、故障回滚、AB Test 等场景中具有重要价值,让数据湖具备了更强的时间维度管理能力。

  • Paimon Format Table:作为 Paimon 的一种兼容 Hive 格式的表类型,它允许用户将现有 Hive 表直接迁移到 Paimon,而 StarRocks 能无缝识别并高效查询,极大降低了迁移成本。

性能优化

  • Native Reader/Writer: 在未开启 DV 的情况下,MOR 表需要在查询时实时合并多个版本的增量数据,只能通过 JNI 调用 Java 层处理,存在类型转换、行列格式转换、JVM GC 等开销,效率低下且易引发 OOM。如今,StarRocks 基于 Paimon CPP SDK,在 BE 的 C++ 代码中直接实现 Paimon Native Scanner,实测显示 MOR 表读取性能提升超过 5 倍。写入侧同样受益,Native Writer 显著提升了写入吞吐。

  • Distributed Plan: 面对超大规模表(数十万文件),manifest 解析曾是 FE 的性能瓶颈。为此,StarRocks 引入 Distributed Plan 机制,当 manifest 数量过多时,FE 将解析任务分发至多个 CN 节点并行执行,各节点完成本地谓词下推后返回所需文件列表。这一设计使 plan 阶段的解析能力随 BE 资源线性扩展,有效缓解单点压力。

  • DV Index Cache: 在高并发查询 Paimon 主键表时,index manifest 的全局反序列化会造成严重读放大——即使只查一个分桶,也要加载全量索引。于是,DV Index Cache 应运而生:按桶级别缓存 DV index 对象,避免重复解析。由于缓存的是 Java 对象而非序列化字节,还省去了反序列化开销。实测表明,该优化在高并发场景下 QPS 提升超 80%。

可观测性:完善 profile 指标

StarRocks 完善了 Profile 指标体系,覆盖 plan 与执行两个阶段。在 plan 阶段,用户可查看 manifest 缓存命中率、远程读次数、谓词下推效果及最终扫描文件数,用于判断是否需调大缓存或优化查询条件。在 BE 执行阶段,则能清晰区分 JNI 与 native 读取的比例——若 JNI 占比较高,可能提示需要对表进行 full compaction,或考虑切换至 DV 表模式。

未来规划:性能对齐内表

StarRocks 的长期目标很明确:让查询 Paimon 的性能与体验对齐查询 StarRocks 本地表

目前,BE 执行层的差距已不大——两者均基于列存格式(如 Parquet/ORC),具备类似索引结构,I/O 优化策略也高度通用。真正的挑战在于 FE 的 plan 阶段:Paimon 的 manifest 解析可能因 cache miss 触发高延迟的远程读,导致 plan 耗时波动,影响整体查询稳定性。

未来工作将聚焦于消除 plan 阶段的 latency-sensitive IO,通过更智能的缓存预热、异步解析、元数据压缩等手段,使 Paimon 查询的延迟变得稳定、可预测,彻底告别“毛刺”。

结语

StarRocks 与 Paimon 的深度融合,代表了现代湖仓架构的重要演进方向。它不只是“能查数据湖”,而是真正“懂数据湖”——从架构统一、功能完善到性能极致优化,每一步都围绕真实业务场景展开。

这套 Lakehouse Native 方案已在阿里集团内部多个高并发、低延迟场景中落地验证,为电商、物流、金融等业务提供坚实支撑。随着社区生态的持续壮大,我们有理由相信,StarRocks + Paimon 将成为企业构建下一代实时数据平台的核心引擎。