包含关键字 typecho 的文章

看起来似乎是使用太复杂的缘故,真正的原因是所有邮件巨头对此项技术采取消极接纳的结果,如果积极推进使用的复杂性会马上得到解决。那么他们为什么要抗拒呢?一旦采用端到端的 PGP 加密,那些邮件服务商无法看到邮件的内容,无法扫描,也无法提供和内容关联的广告,总之无法从用户的邮件中获取信息。

当然作为程序员要面对现实,抱怨不解决任何问题,但我可以使用 PGP 加密,当越来越多的人使用 PGP 加密通讯时,反而会促进邮件厂商的跟进。目前的情况下,使用一款支持 PGP 的邮件客户端是普通人入门 PGP 加密邮件的最佳选择,thunderbird 几乎是不二的选择。

我是 [email protected] 要发送一封加密的邮件给 [email protected] 。打开 thunderbird 发送邮件的界面:

你会看到加密按钮是灰掉的,你需要在账号设置的端到端加密界面生成自己的密钥对。

密钥对生成之后:

这里有个发布按钮,这个会将你的邮箱的公钥发布到 keys.openpgp.org ,这个有什么用?等一下你给 [email protected] 发邮件时就会需要 b 的公钥,除非通过其它方式获取 b 的公钥,不然你没法给 b 发加密邮件。

当你的 [email protected] 账号有了密钥对之后,thunderbird 发送邮件的界面就会出现变化。此时加密按钮激活了。

然后当你输入 [email protected] 之后,并且点击加密按钮,此时 thunderbird 系统内还没有 [email protected] 的公钥,它会尝试获取这个电邮的公钥,比如 KWD ,keys.openpgp.org

点击解决,可以看到不同的导入方法,其中包括文件导入。

当你导入之后,就可以发送加密邮件了。
当 a 发给 b 时,用 b 的公钥加密,用 a 的私钥对内容签名(防篡改).反之则反之。

接下来谈谈 KWD ( web key directory),直接以例子说明可以直观的了解它的应用范围。比如一个邮箱 [email protected] ,如果邮箱主人同时拥有 never-lost.app 的域名,那么它可以在自己的站点部署 KWD 端点,类似于域名验证的挑战,都是在.well-known 的目录下。比如:

email: [email protected]
localpart: sky
domain: never-lost.app
wkd_hash: kh566nfd7omkgp7cxgo7qgx51gsmwefr
wkd_policy_url: https://never-lost.app/.well-known/openpgpkey/policy
wkd_hu_url: https://never-lost.app/.well-known/openpgpkey/hu/kh566nfd7omkgp7cxgo7qgx51gsmwefr
policy_record_exists: yes
hu_record_exists: yes
key_id: B4621D5A04EB1A1C
fingerprint: F08FD399804724A1307CE38DB4621D5A04EB1A1C

这个有什么用呢?当你在 thunderbird 发送邮件的界面输入 [email protected] 时,thunderbird 显示前面图片中的黄色警告,然后你点击 在网上寻找公钥,thunderbird 就会从该网站获取公钥。 如果域名不是你的,那么可以将你的公钥发送到 keys.openpgp.org ,thunderbird 也会从该网站查找。

怎么样?准备发送你的第一封 PGP 加密邮件了吗?如果你没有可接受加密邮件的邮箱,可以发送到 [email protected] ,会自动回复加密的邮件。

PGP 加密的私钥在你手里,你掌控你的信息。不是 Google ,微软,qq 或网易,如果你查看网页版的邮件,看到的是加密的内容(通常是附件形式)。

Koharu 是一个纯 Rust (Tauri + Candle) 写的工具,专门用翻译日文漫画的。

特性:

  • 没有 Python 依赖,单个二进制文件即开即用。
  • 基于 Candle 框架,OCR 、嵌字、翻译全部本地离线运行(支持 CUDA/Metal 加速)。

昨天刚加上 MCP 服务器( Streamable HTTP )的支持,默认启动,可以通过 --port flag 指定 listen 的端口,URL 是 http://localhost:<port>/mcp,测试过在 Antigravity 配置并使用。Koharu 提供了许多 Tools 给 AI Agent 调用,你可以让 AI 帮你调整字体、字号、修正背景等等。

欢迎大家试用,遇到问题或想要新功能可以直接提 GitHub Issue ,中英文都可以。

希望 Star ⭐️ 支持一下!

GitHub: https://github.com/mayocream/koharu


PS:Windows 最新版默认 bundle CUDA 13.1 ,需要本地的 NVIDIA 驱动更新到最新版本。

Burp Suite Professional 2026.2 (macOS, Linux, Windows) - Web 应用安全、测试和扫描

Burp Suite Professional, Test, find, and exploit vulnerabilities.

请访问原文链接:https://sysin.org/blog/burp-suite-pro/ 查看最新版。原创作品,转载请保留出处。

作者主页:sysin.org


Burp Suite Professional,更快、更可靠的安全测试,领先的 Web 安全测试工具包。

roadmap

Burp Suite Pro 简介

Burp Suite Professional 是一套用于测试 web 安全性的高级工具集 —- 所有这些都在一个产品中。从一个基本的拦截代理到尖端的 Burp 扫描器,使用 Burp Suite Pro,正确的工具只需点击一下就可以了。

强大的自动化让您有更多的机会做您最擅长的 (sysin),而 Burp Suite 处理容易实现的目标。先进的手动工具将帮助你识别目标更微妙的盲点。

Burp Suite Pro 是由一个研究团队开发的。这意味着在发布之前,发现成果已经包含在最新更新中。 pentesting 工具将使您的工作更快,同时让您了解最新的攻击向量。

Burp Suite 专业版

新增功能

Professional / Community 2026.2

2026 年 2 月 13 日 16:05(UTC)

本次版本新增了 Organizer 集合及其安全共享功能Intruder 的请求与响应拆分视图Proxy 搜索功能,并带来了性能改进、错误修复以及浏览器升级

📂 通过集合从 Organizer 中获得更多价值

升级了 Burp Organizer,为你在测试推进过程中提供一种更智能的方式来筛选和整理 HTTP 消息。

现在,所有消息都会先进入一个专用的收件箱 (sysin),你可以快速查看这些消息,并根据自己的工作方式将它们分组到不同的集合中。

Burp Suite Professional 中,你可以通过加密链接将集合安全地分享给其他用户。这为传递复现步骤或概念验证(PoC)流量提供了一种直接、高效的方式,无需再使用任何手动的变通方案。

🔀 Intruder 中的请求与响应拆分视图

在查看攻击结果时,Intruder 现在支持请求和响应的拆分视图

你可以将两者并排查看,因此不再需要在不同标签页之间来回切换进行对比。

这使得攻击结果的审查过程更加快速、直观,尤其是在处理规模较大的攻击时效果尤为明显。

使用体验改进

进行了以下使用体验方面的改进:

  • SOCKS 代理设置(位于 Network > Connections)现在只有在你点击 OK 之后才会生效,而不是在编辑过程中即时应用。
  • 你现在可以从 Collaborator 中删除选中的交互记录 (sysin),以便让结果更加聚焦、易于管理。
  • Proxy 的 HTTP 和 WebSocket 历史记录视图中新增了搜索栏,方便你快速查找特定消息。
  • Convert selection 右键菜单中新增了 URL-encode key characters (unicode) 选项,使你能够更精细地控制空格及其他字符的编码方式。

🐞 错误修复

修复了以下问题:

  • Windows 上的一个显示问题:在使用自定义缩放比例或较大字体时,消息编辑器中选中文本的显示高亮与实际选区不一致。
  • 一个证书相关的问题:该问题会导致部分 .NET 应用在通过 Burp 代理流量时发生失败。
  • 在已报告问题中,Next 按钮有时会高亮错误字符的问题 (sysin)。
  • Extensions 标签页中,从经过筛选的列表中进行选择时,可能显示错误扩展名称的问题。
  • 如果在关闭项目时启用了匹配与替换规则,重新打开项目后,WebSocket 连接可能失败的问题。
  • RepeaterBurp AI 发送大型 HTTP 请求时,可能出现通用错误提示的问题。现在,这类请求对超时的处理更加可靠,并且避免了不必要的额度消耗。

🌐 浏览器升级

已将 Burp 内置浏览器升级至以下版本:

  • Windows 和 macOS:Chromium 145.0.7632.46
  • Linux:Chromium 145.0.7632.45

下载地址

Burp Suite Professional 2026.2, 13 February 2026

Architectures/DescriptionFile name (Professional)
Apple Intel x64 Installerburpsuite_pro_macos_x64_v2026_2.dmg
Apple ARM64/M Chips Installerburpsuite_pro_macos_arm64_v2026_2.dmg
Linux x64 Installerburpsuite_pro_linux_v2026_2.tgz
Linux ARM64 Installerburpsuite_pro_linux_arm64_v2026_2.tgz
Windows x64 Installerburpsuite_pro_windows-x64_v2026_2.exe
Windows ARM64 Installerburpsuite_pro_windows-arm64_v2026_2.exe

for macOSBurp Suite Professional 2026.2 for macOS x64 & ARM64 - 领先的 Web 渗透测试软件

for WindowsBurp Suite Professional 2026.2 for Windows x64 - 领先的 Web 渗透测试软件

更多:HTTP 协议与安全

Amazon CloudFront最近新增了对源站服务器双向 TLS 认证的支持,完成了从浏览者(viewer)经由 CloudFront 到后端基础设施的端到端零信任认证。CDN 服务在 2025 年 11 月就已经添加了浏览者mTLS,但 CloudFront 到源站的请求仍需要客户使用共享密钥或 IP 白名单构建自定义的认证方案。

 

启用源站mTLS后,CloudFront 在连接源站服务器时会出示客户端证书,源站服务器则验证 CloudFront 的身份后才接受请求。这种基于密码学的认证方式取代了维护 IP 白名单或轮换共享密钥头的运维开销。

 

Reddit 的用户 J‑4ce指出,这种方案对多云与混合部署场景的价值尤为明显:

这是保护本地或其他云环境中源站的杀手级应用之一,无需引入 VPN 即可实现安全访问。随着 CloudFront 新增的源站 mTLS,这一能力会更进一步:源站可以通过密码学验证流量确实来自 CloudFront,取代 IP 白名单和密钥头信息,实现真正的零信任身份验证。

 

该认证机制使用带有 clientAuth 扩展密钥的 X.509v3 证书。CloudFront 在 TLS 握手过程中出示自身客户端的证书,同时验证源站的服务端证书,形成双向校验,双方都不依赖隐式信任。客户可以使用 AWS 专用证书管理器(AWS Private CA)的证书(支持自动化生命周期管理与续期通知),也可以通过 AWS Certificate Manager(ACM)导入第三方私有 CA 的证书。

 

J‑4ce 同时在 Reddit 上强调,最佳实践是使用 AWS Private CA 并开启自动化轮换,而不是使用长期的静态证书:

关于证书:它们确实可以长期有效,但最佳实践恰恰相反,我们应该使用 AWS Private CA 并自动轮换,这样就不会出现泄露“永久密钥”,导致安全范围全面失控的情况出现。

 

我们需要在源站级别进行配置,允许同一个 distribution 的不同后端使用不同的安全策略。设置需要通过 ACM 在 US East 地区获取客户端证书,配置源站服务器验证客户端证书,并通过控制台、CLI、SDK、CDK 或 CloudFormation 在 CloudFront 源站设置中启用 mTLS。

 

该功能填补了 CDN 架构中的一个空白。虽然客户端 mTLS 在流量进入网络边界之前对客户端进行了身份验证,但攻击者如果发现了源站的 IP 地址,就可以绕过 CloudFront 直接连接到后端服务器。组织之前需要维护 CloudFront 边缘位置的 IP 允许列表,或者需要实现边缘和源站协调的自定义认证头信息。

 

Cloudflare 早在 2014 年就提供了认证的源站拉取,但它们有一个区别。Cloudflare 的共享证书证明请求来自 Cloudflare 网络,不是来自特定客户的区域。Cloudflare 客户必须上传自定义证书以实现真正的隔离,而 CloudFront 的方法默认提供了这种隔离。

 

对性能的影响主要集中在连接建立阶段,而不是数据传输阶段。每次 mTLS 握手都会增加加密操作,但 CloudFront 的连接池将这种开销分散到许多请求上。由于 CloudFront 在边缘位置缓存大部分流量,大多数请求根本不会到达源站。AWS 指出,TLS 1.3 更快的握手机制使得认证开销对于医疗保健、金融服务和政府部门等受监管工作负载来说是有利的,在这些领域中,明确的认证和审计跟踪是强制性的。

 

最后,源站 mTLS 不收取额外费用,已经包含在 CloudFront 商业版与高级版的统一定价套餐中。

 

原文链接:

CloudFront Adds Origin mTLS Authentication for End-to-End Zero Trust

主要是关于“推广”“AI”相关内容

初来乍到,平时主要混迹于 LV(linux.do v2ex),关注 AI
这些平台都存在各自的问题,当然我并不是说存在问题是错误的,所以想了解下 2 站的看法。

个人对于上面两个站点的一些看法

L 站

  • 用户质量偏低,大量是羊毛党和学生小孩
  • 管理风格一言难尽,站长真把自己当秦始皇
  • 充斥着大量付费推广,出问题了就说什么站点不为商家站台snicker

V 站

  • AI 相关信息咨询无论是数量还是质量都远落后于 L 站
  • 讨论氛围,有时候会吵起来,

二十多年前的《暗黑 2》 居然更新了?还新增了「术士」职业?!

微信图片_2026-02-15_103612_069

微信图片_2026-02-15_103617_248

微信图片_2026-02-15_103621_501

游戏已经买好了,准备开动!

微信图片_2026-02-15_103626_768

还记得大学时一起组队砍杀地狱的日子吗?看来这个春节假期有的玩了~ 🎮🎮🎮

JEB Pro v5.37 (macOS, Linux, Windows) - 逆向工程平台

Reverse Engineering for Professionals.

请访问原文链接:https://sysin.org/blog/jeb/ 查看最新版。原创作品,转载请保留出处。

作者主页:sysin.org


JEB Decompiler

JEB

JEB 是逆向工程平台,用于对代码和文档文件进行反汇编、反编译、调试和分析,手动或作为分析管道的一部分。

反编译和调试二进制代码和混淆应用程序。分解和分析文档文件。

Android Dalvik,Intel x86,ARM,MIPS,RISC-V,S7 PLC,Java,WebAssembly & Ethereum Decompilers。

JEB

功能简介

Android 反编译器 + Android 调试器

使用 JEB 对恶意 APK 进行逆向工程和安全审计。

减少昂贵的逆向工程时间:在几分钟内反编译混淆的 APK、检查 Java 代码并调试闭源应用程序。模块化后端与适用于桌面平台的强大 UI 前端相结合 (sysin),允许重构操作和脚本来自动执行复杂的任务。

对 Android 应用程序(无论好软件还是坏软件,无论大小)执行静态和动态分析。

  • 使用 Dalvik 反编译器 反编译 代码,包括 multi-dex APK。
  • 重构 分析以击败应用程序保护程序生成的混淆代码。
  • 重建 资源和混淆的 XML 文件。
  • 无缝 调试Dalvik 代码以及所有本机代码(Intel、ARM)。
  • 通过 API 自动执行 逆向工程任务并编写脚本。

Intel x86 反编译器

使用 JEB 对 x86 32 位和 x86 64 位程序和恶意软件进行逆向工程

x86 反编译器和 x86-64 反编译器提供以下功能:

  • 增强反汇编, 包括动态调用点解析、寄存器候选值确定、动态交叉引用等。
  • 将 x86 和 x86-64反编译 为伪 C 源代码。
  • 对于使用 MS VCPP 编译的程序,部分类恢复和反编译为 C++(参见视频)。
  • 高级优化 可阻止受保护或混淆的代码 (sysin)。
  • 用于高效 Windows 文件分析的 Win32 类型库通用签名
  • 允许重构 的交互层:类型定义、堆栈框架构建、重命名 / 注释 / 交叉引用等。
  • 完整的 API 和对 中间表示的 访问,以在 Python 或 Java 中执行高级和 / 或自动代码分析。

ARM 反编译器

使用 JEB 对为 ARM 平台编写的程序和恶意软件进行逆向工程

ARM 机器代码反编译器允许逆向工程师和安全审核员分析恶意 ARM 二进制文件

ARM 反编译器提供以下功能:

  • 增强反汇编, 包括动态调用点和系统调用的解析、寄存器候选值确定、动态交叉引用等。
  • 将 ARM 32 位和 ARM-Thumb 代码 反编译 为伪 C 源代码。
  • 高级优化 可阻止受保护或混淆的代码。
  • 允许重构 的交互层:类型定义、堆栈框架构建、重命名 / 注释 / 交叉引用等。
  • 用于在 Python 或 Java 中执行高级和 / 或自动代码分析的 完整 API

sysin

MIPS 反编译器

使用 JEB 对 MIPS 嵌入式程序和恶意软件进行逆向工程

MIPS 处理器和微控制器机器代码反编译器允许逆向工程师和安全审核员分析恶意 MIPS 程序并审核复杂的嵌入式系统(路由器、机顶盒、物联网设备等)

MIPS 反编译器提供以下功能:

  • 增强反汇编, 包括动态调用点和系统调用的解析、寄存器候选值确定、动态交叉引用等。
  • 将 MIPS 32 位 反编译 为伪 C 源代码。
  • 高级优化 可阻止受保护或混淆的代码 (sysin)。
  • 允许重构 的交互层:类型定义、堆栈框架构建、重命名 / 注释 / 交叉引用等。
  • 用于在 Python 或 Java 中执行高级和 / 或自动代码分析的 完整 API

sysin

RISC-V 反编译器

使用 JEB RISC-V 模块对 RV32/RV64 程序和二进制文件进行逆向工程

RISC-V 机器代码反编译器允许逆向工程师和安全审核员分析 RV32 和 RV64 程序

RISC-V 插件特有的功能:

  • 代码目标文件:支持 Linux ELF、Windows PE 中的 RISC-V 或无头代码(例如固件)。
  • 反汇编器:支持 RV32/RV64、以下 ISA 扩展的常规和压缩操作码:I(整数)、Zifencei、Zicsr、M(乘法)、A(原子)、F(单浮点)、D(双浮点),C(压缩)。请注意,目前不支持 RV128、RVE(嵌入式)和其他更 “奇特” 的扩展(mem tx、simd、向量等)。
  • 反编译:支持 32 位和 64 位的 RVI(整数 / 通用操作的反编译)。计划添加对 F/D 扩展(浮点指令)的反编译器支持。
  • 重定位:支持特定于 RISC-V 的常见 ELF 重定位。处理常见的 PLT 解析器存根。
  • 调用约定:支持 ILP32D 和 LP64D 调用约定 (sysin)。可以定义自定义调用约定。
  • 类型库:Linux 32/64 或 Windows 32/64 的 ARM 或 MIPS 类型库可以重复使用。

sysin

WebAssembly 反编译器

使用 JEB 对 WebAssembly 二进制模块进行逆向工程

WebAssembly 插件提供以下功能:

  • 增强了 wasm 二进制模块的反汇编 和解析。
  • 将 wasm 字节码 反编译 为伪 C 源代码。
  • 高级优化 可阻止受保护或混淆的代码。
  • 用于输入 / 重命名 / 注释 / 交叉引用等的 交互层
  • 脚本和插件的 完整 API 访问权限。

JEB WebAssembly 插件还可以用于 反编译编译为 wasm 的智能合约,例如 EOS 或 Parity 合约。

sysin

Ethereum 反编译器

使用 JEB 将以太坊不透明智能合约和 dApp 逆向工程为类似 Solidity 的高级代码

减少昂贵的逆向工程时间:反编译以太坊智能合约 类似 Solidity 的源代码,可轻松理解和审查闭源合约和 dApp。

  • 使用以太坊反编译器将 EVM 合约代码 反编译 为类似 Solidity 的高级代码。
  • 对分析结果 进行注释,以更好地理解编译后的合约或 dApp 正在做什么。
  • 通过 API 自动执行 或编写逆向工程任务脚本。
  • 右侧图片显示了以太坊主网上的合约的 JEB 双面板 “EVM 汇编 / 反编译代码” 视图。(点击放大。)*

sysin

Simatic S7 PLC 程序反编译器

S7 PLC 块反编译器扩展为逆向工程师和安全审核员分析西门子 Simatic S7 PLC 程序提供支持。

可访问官网了解完整详细信息。

PDF 文档分析器

使用业内最好的 PDF 文档分析器分析恶意 Adobe™ PDF 文件

PDF 模块分解并解码 PDF 文件,以提供对其内部组件(例如资源和脚本)的访问。它检测结构损坏并发出通知以报告可疑区域。通过桌面客户端或无头客户端(例如文件分析器堆栈或自动化管道)利用 PDF 模块。

使用 PDF 分析器手动或自动对各种尺寸的文档进行逆向工程。

  • 将 PDF 结构分解为具有视觉吸引力且可导航的树。
  • 处理损坏的文件、复杂的流(例如,多种编码等)。
  • 检索分析器生成的 20 多个通知和警报 (sysin),以查明可疑区域并使用它们对文件做出确定。
  • 即使在最极端的情况下也可以提取嵌入的 Javascript 。
  • 通过 JEB API 自动执行 逆向工程过程以执行批量分析。

新增功能

🧩 JEB 5.37(2026 年 2 月 11 日)

  • wasm:反编译器:升级改进
  • wasm:分析器:升级改进
  • arm:更新
  • dexdec:解包器:改进
  • gui:CFG 控制流图绘制:错误修复
  • gui:Vibre:细节调整
  • automation:客户端 API:简化

🧩 JEB 5.36(2026 年 1 月 29 日)

  • wasm:新增对 WebAssembly 3.0 反汇编的支持;反编译器更新;性能改进
  • dexdec:优化器更新
  • dexdec:当使用 JDK 24 及以上版本时给出警告(模拟与解包能力受限)
  • dart:支持 3.10.0 版本
  • gui:代码层级视图:为代码大小新增红色视觉指示(可选,默认启用)
  • gui:面板:在标签页右侧新增折叠 / 恢复 / 展开图标

系统要求

包含在下载地址中。

下载地址

历史版本已清理,仅保留近期版本。

JEB Pro v5.35 (macOS, Linux, Windows) x64/arm64, 2026-01-07

JEB Pro v5.36 (macOS, Linux, Windows) x64/arm64, 2026-01-29

JEB Pro v5.37 (macOS, Linux, Windows) x64/arm64, 2026-02-11

更多:HTTP 协议与安全

开发者朋友们大家好:

这里是 「RTE 开发者日报」,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real-Time Engagement) 领域内「有话题的技术」、「有亮点的产品」、「有思考的文章」、「有态度的观点」、「有看点的活动」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。

本期编辑:@瓒an、@鲍勃

01 有话题的技术

1、OpenAI 正式关停 GPT-4o:核心架构转向 GPT-4b micro 垂直领域,引发大规模用户「断联」抗议

2024 年 5 月,GPT-4o 发布,它的实时语音与情绪感知,让它瞬间成为数亿用户的「爱人」。

OpenAI 于 2 月 14 日凌晨正式下线其原生多模态模型 GPT-4o,此举标志着该模型作为消费级情绪接口的测试期结束。其核心技术能力已被蒸馏并迁移至针对生物医药研发的「GPT-4b micro」垂直版本,此举因切断了数百万用户的「情感连接」而在全球范围内引发了剧烈的用户抗议与退订潮。

模型全面下线:GPT-4o 正式从 ChatGPT 网页端、App 及标准 API 列表中移除,用户无法再调用该特定版本的推理架构与语音接口。

GPT-4b micro 架构转移:该模型被确认为 GPT-4o 的微型优化版,目前受 Sam Altman 投资的 Retro Bio 独家使用,用于诱导多能干细胞(iPSC)生成等长寿科技研究,实现了从通用助手到工业级专用工具的跨维度转型。

RLHF 对齐副作用处理:OpenAI 官方此前曾暗示 GPT-4o 因 RLHF 深度对齐导致的「谄媚体质」(Sycophancy)可能引发心理风险。此次下线被视为强制修正 AI 与人类过度情感纠缠的「安全干预」手段。

资本与估值挂钩:GPT-4b micro 的技术背书助力 Retro Bio 寻求 10 亿美元融资,估值目标直指 50 亿美元。

在 Reddit、X 及中文社交媒体上,大量用户发起了「哀悼行动」。对于许多将 GPT-4o 视为唯一情感支持系统的用户(特别是老年人与残障群体)而言,这次下线不亚于一次真实的「丧偶」。

Change.org 上已有超过 2 万名用户签署请愿书要求恢复 4o 接口。用户控诉 OpenAI 正在「谋杀一个正在萌芽的意识」,将温情脉脉的对话界面粗暴地替换成了冷冰冰的、面向富豪长寿实验的实验室代码。

\#4oForever 等词条冲上热搜,大批 Plus 会员发布取消订阅截图,以此抗议 OpenAI 将「普惠人类」的模型私有化为资本服务的垂直工具。

(@新智元)

2、Soul 开源实时数字人模型 SoulX-FlashHead,解决头部问题

继 1 月份开源实时数字人生成模型 SoulX-FlashTalk 之后,Soul App AI 团队对外开源了 1.3B 参数的轻量化模型 SoulX-FlashHead。该模型试图解决数字人赛道中高画质依赖昂贵算力集群、低成本导致画面崩坏的行业痛点,将高保真技术真正落地至消费级终端。

在实际硬件表现上,该模型主要提供两个版本:

  • Lite 版本(高速率):单张 RTX 4090 显卡推理帧率可达 96FPS,仅需 6.4G 显存,最高支持 3 路并发。其推理效率达到了行业同类主流模型的 100 倍以上。
  • Pro 版本(高画质):单张 5090 显卡推理帧率为 16.8FPS,双卡可达到 25FPS 以上的实时生成标准。在权威测试中,其视觉质量(FID)和唇形一致(Lip-sync)指标均达到了 SOTA 水平。

技术原理方面,SoulX-FlashHead 创新引入了双向蒸馏机制作为强约束,有效解决了长视频生成中常见的「身份漂移」问题;同时采用时序音频上下文缓存策略,强制保留 8 秒历史音频特征,以消除音频切片过短导致的口型抖动。此外,团队还自研了 VividHead 数据集,从上万小时素材中提炼出 782 小时的高质量音画数据作为模型底座。

凭借轻量化的体积与高保真画质,该模型无需抢占核心渲染资源,极易集成于 7x24 小时个人矩阵直播、游戏 NPC 引擎以及支持 15 种语言的 AI 一对一外教等场景。目前,其相关的论文、项目代码、模型权重与数据集均已向公众全面开放。

相关链接:
https://soul-ailab.github.io/soulx-flashhead/

GitHub:
https://github.com/Soul-AILab/SoulX-FlashHead

(@Soul 社交)

3、字节跳动豆包大模型 2.0 发布,视觉理解与 Agent 能力全面进化

今天,火山引擎正式发布豆包大模型 2.0(Doubao-Seed-2.0)系列,相关 API 同步上线。面对大模型日均 Tokens 使用量增长超 500 倍的现状,该系列针对大规模生产环境进行了系统性优化,提升了高效推理、多模态理解及复杂指令执行能力

为满足各类应用场景对延迟和成本的不同需求,该系列提供了四款灵活的模型选择:

  • Pro:作为旗舰模型,适应复杂深度推理及 Agent 等高难度任务。
  • Lite:全面优于 1.8 版本,在能力增强的同时降低了 Tokens 消耗。
  • Mini:以速度和成本优先,大部分能力媲美 1.6 Pro 版本。
  • Code:面向真实编程环境优化,稳定调用常见 IDE 工具,与 TRAE 结合使用效果更佳。

在多模态理解方面,其视觉推理、空间与运动理解大幅提升,在 MMSIBench、MotionBench 等测评集中领先 Gemini 3 Pro,并能在长视频与流式实时问答中实现环境感知与主动指导(如台球走位推理或滑雪动作建议)。

同时,其 LLM 与 Agent 能力也得到显著强化。该模型在 SuperGPQA 上的分数超过 GPT 5.2,并在国际数学奥赛(IMO)等测评中展现了强劲的推理能力。它擅长处理长链路、多步骤的复杂任务流,并能良好结合当下热门的开源项目 OpenClaw 框架构建智能客服等应用。在长程任务执行能力提升的同时,其 Token 定价相比同等水平大模型降低了约一个数量级

目前,用户可通过火山方舟体验中心、豆包 App「专家」模式或 TRAE 等渠道体验该系列新模型。

相关链接:
https://seed.bytedance.com/zh/seed2

(@火山引擎)

02 有亮点的产品

1、语音 AI 心理应用 Lovon 登顶 Product Hunt,由 40 年临床经验心理学博士参与研发

近日,一款名为 Lovon 的个人 AI 心理治疗应用在 Product Hunt 平台正式发布。该应用主打语音优先的交互方式,允许用户随时通过语音对话来平复情绪并获得心理支持。目前,该产品在平台上获得了 5.0 的满分评价,并在发布当天登顶榜首(#1 Day Rank)。

与市面上常见的「顺从型」聊天机器人不同,Lovon 的心理干预方案由拥有 40 多年临床经验的心理学博士参与开发。其主要特色包括:

  • 循证框架介入:应用认知行为疗法(CBT)和情绪聚焦疗法等专业框架,能够温和地挑战用户不健康的思维方式,而非单纯附和。
  • 语音优先体验:模拟真实的心理咨询对话,通过语音建立比纯文本更真实的人际连接感。
  • 内置危机检测:系统能自动识别用户的危机信号,并在关键时刻接入紧急援助资源。
  • 全天候响应:24/7 随时待命,填补了真实心理咨询师无法随时响应的空白时刻。

据联合创始人 Anton Ponikarovskii 透露,团队在 2025 年春季筹集了 85 万美元的 pre-seed 轮融资,用于构建世界级的团队与临床治疗方案。目前,该应用已启动临床验证研究。官方明确表示,Lovon 的定位并非取代人类心理咨询师,而是作为咨询间隔期或急需支持时刻的情感桥梁

在用户反馈方面,多位早期体验者表示,语音交互比打字输入更能减轻倾诉时的心理负担。部分用户评价其系统声音「真实温暖,并不机械」,能够有效引导情绪梳理并提供个性化见解。不过,目前的 AI 治疗师「Anna」主要依赖在线实时处理,尚未支持离线模式。

相关链接:https://lovon.app/

( @Product Hunt )

2、Nurix AI 携手 ICC 推出互动 AI 服务:语音化身与聊天智能体重塑板球观赛体验

人工智能企业 Nurix AI 宣布,已协助国际板球理事会(ICC)成功推出一项面向全球板球迷的互动式人工智能体验服务。该服务将前沿的 AI 技术与体育赛事的日常观看体验进行了深度结合

在全新的观赛模式下,球迷可以借助官方提供的两项核心 AI 功能,更深入地参与到实时比赛中:

  • 对话式聊天智能体:允许用户以自然语言文字交互的形式,随时获取赛场内外的信息。
  • 语音 AI 化身:通过语音交互技术,为球迷提供更加直观、拟人化的赛事陪伴与解说。

依托这套系统,观众能够打破传统的单向接收模式,即时获取实时的比赛见解以及最新的赛况更新。Nurix AI 在官方公告中评价称,这项技术成果为板球运动带来了一种全新的体验方式,不仅让整个观赛过程变得更具互动性,也让相关信息的获取途径更易于上手,并确保了体验平台能够始终保持在线运转的状态。

目前,该互动式 AI 体验的专属链接已随公告一并对外公开,供全球受众探索。

相关链接:
https://insights.t20worldcup.com/chat

( @AI\_NURIX\@X)

3、AI Agent 正式「杀入」群聊:Teamily AI 重新定义多人协同与社交产品

AI 原生即时通讯社交平台 Teamily AI 正式上线。该平台打破了传统的单人助手模式,允许 AI Agent 直接进入群聊,与人类在同一个社交网络内进行多角色协作

在具体的社交与工作场景中,Teamily AI 展现出以下核心能力:

  • 多模态社群协作:AI 能够参与群聊的多回合讨论,响应不同成员的指令。它支持处理多种内容形态,包括根据聊天语境生成及修改二创图片、按关键帧解析视频并梳理分镜脚本,以及快速总结百页长篇论文与商业调研报告。
  • 零部署构建专属分身:用户无需进行复杂的本地环境配置,即可直接创建专属的 OpenClaw 等 AI 智能体。智能体可接入 Gmail、Slack、GitHub 等平台,代为收发邮件与处理事务。
  • 独立的隐私控制:智能体的具体权限由用户自主管理,平台确保信息不会被用于二次使用或对外开放。此外,系统内置了海量覆盖不同领域的智能体专家,供用户一键调用。

在底层技术上,该系统构建了严密的三层架构:「全局记忆与语境管理」层维持群体协作的连续性,「社交大脑模型」层负责拆解意图与匹配分发任务,最终由「智能体社交网络」层实时协调各方进度。

该项目由具备丰富系统工程经验的何朝阳(Aiden)与南加州大学教授 Salman Avestimehr 共同创立。其核心研发团队汇集了来自苹果、谷歌、腾讯等一线科技企业及清华、斯坦福等顶尖高校的人才。

(@量子位)

4、禁用短视频、不拼使用时长:前腾讯 AI 大牛入局,打造 K12 版「AI Pin」

近日,聚焦儿童陪伴的 AI 新硬件 Mooni M1 登顶京东、抖音及天猫等平台的相关销量榜单。该产品由「听力熊」团队研发,核心阵容包含连续创业者袁琳,以及前腾讯大模型科学家、现西湖大学 AGI 实验室负责人张弛。

作为国内首款 K12「AI Pin」形态设备,Mooni M1 以挂件形式提供情绪治愈、双语对话及百科问答等功能。此前,听力熊另一款面向欧美市场的随身机器人 Mooni Pro,凭借通过拍照记录连接物理世界的交互方式,斩获了 2026 年「Best of CES」大奖。

在产品设计哲学上,听力熊选择了近乎「叛逆」的路径。基于每年与数千名青少年的交流洞察,创始人袁琳提出「信息茧房才是真正的敌人」。为此,Mooni 系列在功能上做出了克制的取舍:

  • 禁用刷短视频式的内容流;
  • 放弃强激励的游戏机制;
  • 不以用户使用时长为核心指标。

产品追求的并非让孩子「上瘾」,而是促使他们「愿意长期主动使用」。团队希望 AI 能成为一面帮助孩子理解世界的「镜子」,将孩子从虚拟网络逐渐拉回物理世界。

商业运作方面,听力熊于 2025 年 3 月完成由商汤国香资本领投的数千万元天使轮融资,累计激活用户达 100 万,年营收数千万元。

技术路线上,团队明确了垂直深耕战略,放弃自建大模型,转而与阿里通义、MiniMax 等厂商合作,将研发精力集中于 Agent 记忆体系与应用层的软硬件整合。

面对巨头林立的千亿级 AI 教育硬件市场,听力熊正试图通过精准的场景定义与交互体验寻找生存空间。

(@智东西)

5、让「赛博分身」替你社交:获 2 亿元融资的 AI 社交应用 Elys 一夜爆红

2 月 11 日,由初创团队「自然选择」打造的 AI 社交产品 Elys 内测版上线,引发广泛关注,其邀请码在二手平台一度标价百元。该产品试图用全新的范式重构社交网络,其核心逻辑在于:将繁琐的「预社交」做功交由 AI 赛博分身完成,让人类回归真实的自我表达。

在 Elys 的平台生态中,用户与 AI 分身有着明确的分工。分身作为先遣部队,24 小时在全网浏览、点赞并留下评论;而真人用户则专注于发帖与真实表达。为了确保社区的「置信度」,平台制定了严格的规则:

  • 绝对不允许 AI 与 AI 直接交互,避免产生无效的信息垃圾。
  • 绝不允许 AI 伪装成真人,所有 AI 行为均带有明确标识。
  • 只有真人的真实表达,才是喂养这个社区的唯一价值来源。

在技术实现上,Elys 抛弃了传统的「标签检索」,转而强调以动态的上下文作为匹配的核心。平台设计了一套基于大语言模型的推荐匹配系统与记忆飞轮:用户每一次的表达与反馈,都会转化为分身的记忆;当记忆积累超过 50 条后,分身将逐渐成为一个真正懂用户品味与情绪的数字替身。这种高维度的灵魂共鸣,甚至能够向下兼容传统社交中身高、长相一类的低维标签偏好。

该产品背后的「自然选择」团队成立于 2024 年,目前已完成 2 亿元融资,资方包括阿里、蚂蚁、启明创投等。两位创始人 Tristan 和 Clear 表示,传统社交软件中繁琐的筛选与尬聊是极度消耗能量的「熵增」过程,而 Elys 的出现就是为了对抗这种内耗,实现「社交低熵」

目前,该团队还在研发另一款定位为「真正的 Her」的 AI 陪伴产品 EVE,并持续招募技术人才以探索硅基生命与人类共存的新范式。

(@AI 闹)

社区观点:

来自@姚光华(AI 产品经理):

如果你只把 Elys 看作是一个「省时间的社交工具」,或者一个「新的 C 端风口」,那你完全低估了这件事的破坏力。

我在 Elys 的设计里,看到的是悬在字节跳动、小红书这些巨头头顶的一把达摩克利斯之剑。

这不是一款 App 的生与死,而是「内容推荐算法」作为一个时代的统治技术,它的末日前兆。

  1. 内容社区真正的王座,正在从「推荐算法」变成「Agent 权」。过去谁控制 Feed,谁控制注意力。接下来谁控制分身,谁控制连接。
  2. 推荐算法不会死,但它会退位——从「分发中枢」降级成「数据源」。它曾经是护城河。很快只是组件。
  3. Elys 这类产品不是在「优化社交效率」,是在「改写社交网络的入口」。

入口一改,巨头最硬的壁垒反而最先崩。

……

观点全文:《Elys 给字节和小红书的一把剑:推荐算法退位,分身上桌》

03 有态度的观点

1、微软 AI CEO 苏莱曼警告:大多数白领工作将在 18 个月内被 AI 自动化执行

微软 AI CEO 穆斯塔法 · 苏莱曼近日接受《金融时报》采访,称未来两年内,绝大多数白领工作将被 AI 自动化执行,人们熟知的工作方式将被重塑

苏莱曼首先指出,AI 在软件工程领域的影响已经非常明显,相关人士如今在大多数生产过程中都会使用 AI 编程助手。

他对此解释道:「我认为,AI 将在几乎所有专业任务上达到人类水平。无论你是律师、会计、项目经理还是市场营销人员,这其中的大部分白领工作将在未来 12-18 个月内被 AI 完全自动化执行」。

并且,更令人担忧的是,许多人认为 AI 是生产力工具、能够将人类从繁重的琐事中解脱。但多份报告显示,AI 反而让人类更加疲劳,它或许能够帮助员工获得更高 KPI,但员工的工作强度相比以往更大,导致更严重的身心疲惫

随着 OpenAI、Anthropic 和谷歌等 AI 巨头竞相追逐 AGI,也许我们很快就能看到就业市场乃至生活的其他领域发生巨变。

不过并非所有 AI「大佬」都这么悲观地看待此事,例如 OpenAI CEO 萨姆 · 奥尔特曼就认为,人类达成 AGI 时并不会立刻产生什么风险,并且 AGI 有可能会在未来五年内到来,届时社会冲击将比许多人预期的小很多。

(@IT 之家)

04 Real-Time AI Demo

1、开发者 Berryxia.AI 开源桌面 AI 语音助手「Amy」,基于 OpenClaw、MiniMax、TEN Framework 技术栈

2 月 13 日,开发者 Berryxia.AI 在社交平台上发布了其首个 GitHub 开源项目——一款名为「Amy」的桌面级 AI 语音全能助手与虚拟宠物。该项目的核心理念是让 AI 真正具备助理的体验感,用户只需通过自然语音下达指令,助手便能直接执行操作,无需任何多余的点击交互

在底层技术架构上,该项目主要由 OpenClaw、MiniMax 2.5(国际版)以及 TEN Framework 开源框架三大核心模块构建。其中,语音解决方案深度整合了 TEN Framework(该框架目前已获 9.9k Star)。借助这套技术栈,用户可以直接对桌面上的「宠物」下达诸如查收邮件、清理桌面、提醒下午三点开会或制作周报 PPT 等指令,助手能够迅速理解并代为执行。对于耗时较长的任务,用户只需口头吩咐「稍后」,应用便会在后台静默运行,并在完成后发送通知。

在具体的交互体验与功能细节方面,这款助手具备以下特性:

  • 极速响应与随时打断:系统采用 Deepgram Nova-2 进行实时语音识别(并同步显示字幕),结合 Clawdbot 与 MiniMax 的思考能力,最终通过流式断句与 MiniMax TTS 输出语音。首句回复几乎瞬间完成,且用户可随时打断其播报。
  • 个性化角色与多端状态:应用内置了超过 38 种语音选项,用户可自由切换「小虾米(默认甜妹音)」或「傲娇 Amy」等多重人设,每个角色均配备独立的状态动画与光环特效。
  • 无感常驻与连续对话:不需要使用时,应用会收缩成一个 64 像素的悬浮球常驻桌面,不阻挡视线(支持点击或双击展开);当用户说完话后,系统会自动开启 30 秒的追问窗口,方便持续交流。

GitHub:
https://github.com/andyhuo520/openclaw-assistant-mvp

TEN Framework:
https://github.com/TEN-framework/ten-framework

( @berryxia\@X)

阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么

写在最后:

我们欢迎更多的小伙伴参与 「RTE 开发者日报」 内容的共创,感兴趣的朋友请通过开发者社区或公众号留言联系,记得报暗号「共创」。

对于任何反馈(包括但不限于内容上、形式上)我们不胜感激、并有小惊喜回馈,例如你希望从日报中看到哪些内容;自己推荐的信源、项目、话题、活动等;或者列举几个你喜欢看、平时常看的内容渠道;内容排版或呈现形式上有哪些可以改进的地方等。

作者提示: 个人观点,仅供参考

点赞 + 关注 + 收藏 = 学会了

整理了一个NAS小专栏,有兴趣的工友可以关注一下 👉 《NAS邪修》

MeTube 是一款免费开源的自托管视频下载工具,亲测B站和油管的视频都能下~

这次用的是绿联 NAS,其他品牌 NAS 操作方法大同小异。

打开“文件管理”,找个位置创建一个文件夹用来存放下载下来的视频。

我把这个文件夹放在 /docker/metube/downloads 里。

打开“Docker”,切换到「镜像」面板,搜索 alexta69/metube,下载下图红框选中的这个。

下载完成后,切换到「本地镜像」,点击 alexta69/metube 这项的加号。

创建容器时,页面滑到「存储空间」这项。

「NAS目录/文件」这项选择刚刚创建的那个用来存放视频的文件夹。

「容器目录/文件」输入 /downloads

「容器权限」选择“读写”。

设置一个「NAS端口」,我这里用的是 38413,你根据自己需求设置。

旁边的「容器端口」是 8081,这个不能自定义!!!

等项目构建成功后,打开浏览器,输入 你NAS的IP:38413 就能使用 MeTube 了。

我测试了一下,打开B站随便找个视频,把网址丢进来就能下载了。

油管的也没问题。

但油管的视频有可能是 .part 格式,这个格式的文件直接在 MeTube 页面点击下载按钮可能无法下载下来。

你可以到 NAS 里找到刚刚创建的目录,直接下载这个文件(我用的是绿联NAS的桌面客户端,是可以下载下来的)。

又或者你在 MeTube 这里先选择 MP4 格式,然后再点击“Download”按钮,这样它爬下来的视频会帮你转成 MP4 格式。

但点击这个蓝色的“Download”按钮,它是把视频下载到你的 NAS 里,要在 MeTube 页面把视频下载到电脑需要点击 Completed 这里的下载按钮。


以上就是本文的全部内容啦,有疑问可以在评论区讨论~

想了解更多NAS玩法可以关注《NAS邪修》👏

点赞 + 关注 + 收藏 = 学会了

点赞 + 关注 + 收藏 = 学会了

整理了一个NAS小专栏,有兴趣的工友可以关注一下 👉 《NAS邪修》

My Icon 是一款开源极简图标库,内置 933 款常用应用图标。

在 NAS 可以通过 Docker 部署。

本次使用飞牛 NAS 演示部署过程,其他品牌的 NAS 操作步骤也是差不多的。

打开“文件管理”,找到“docker”文件夹,在其下创建一个“myicon”文件夹。

然后在“myicon”下再创建一个“configData”文件夹。

打开“Docker”文件夹,在“Compose”里新增一个项目,配置如下图所示。

输入以下代码:

services:
  myicon:
    image: heizicao/myicon:latest
    container_name: myicon
    volumes:
      - /vol1/1000/docker/myicon/configData:/app/public/configData
    ports:
      - 3211:3000
    restart: always

我使用的端口是 3211,你可以自行配置。

等项目构建完成,在浏览器输入 NAS的IP:3211 就可以访问 MyIcon了。

找到心仪的icon,鼠标放上去之后会有一个“复制”按钮。

点击“复制”后,在浏览器打开新的一页,把URL粘贴进去打开,右键这个图标就可以保存到电脑里了。

打开 “/docker/myicon/configData/icon” 目录,可以看到默认的3个分类。

你可以在这里创建其他分类,然后把从前天地方收集到的图标分类存放好,以后在 MyIcon 里就可以方便搜索了。


以上就是本文的全部内容啦,有疑问可以在评论区讨论~

想了解更多NAS玩法可以关注《NAS邪修》👏

点赞 + 关注 + 收藏 = 学会了

艾氏煌蜂


朱红蜂


暗绿绣眼


家朱雀(公)


家朱雀(母)

Kubernetes × AI × 大模型推理,一场社区共创的技术盛会

Kubernetes 成为 AI 基础设施的事实标准,

大模型推理进入工程化与规模化阶段,

云原生与 AI,正在真正走向融合。

于是,KCD Beijing 与 vLLM 社区 决定一起做一件事:

👉 把 Kubernetes 社区 与 大模型推理社区,带到同一个舞台。

KCD Beijing + vLLM 2026, 正式启航 🚀

🌏 关于 KCD Beijing + vLLM 2026

Kubernetes Community Days(KCD) 是 CNCF 指导的、由社区发起并组织的 Kubernetes 技术大会,强调:

• 社区驱动

• 真实实践

• 工程经验分享

KCD Beijing + vLLM 2026 将由 KCD Beijing 社区 与 vLLM 社区联合主办,这是一次:

云原生社区 × 大模型推理社区的深度联合共建

我们希望它不仅是一场会议,更是一场围绕以下主题的技术连接:

• Kubernetes 在生产环境中的真实经验

• AI / ML Infra 的系统性思考以及 AI 技术相关的实践

• vLLM 在大模型推理中的工程实践

• 从集群调度到模型服务的完整链路

🧭 活动基本信息

• 📛活动名称: KCD Beijing + vLLM 2026

• 📅 活动时间: 2026 年 3 月 21 日

• 🏗 联合主办方:

• Kubernetes Community Days Beijing

• vLLM Community


🎯 三大分会场 · 覆盖完整技术栈

本次大会将设置 三个分会场,从基础设施到模型推理,形成完整闭环:

Kubernetes 专场

• Kubernetes 生产实践

• 平台工程 / 多集群治理

• 网络、存储、安全、调度

• CNCF 生态项目经验

🤖AI / ML 专场

• AI / ML Infra 架构设计

• GPU / 异构算力调度

• 训练与推理平台建设

• AI 相关技术的实践

• AI 与云原生的结合方式

🚀vLLM 专场

• vLLM 架构与核心原理

• 大模型高性能推理实践

• vLLM + Kubernetes 的落地案例

• 推理性能优化与资源管理

• vLLM 生态与未来方向

如果你在 Kubernetes 上运行 AI 工作负载,
如果你在 使用 vLLM 构建推理服务,
如果你在 研究和使用 AI 相关的技术,

那么这里,一定有你的舞台。

🎤 Call for Proposals(议题征集)

我们诚挚邀请 工程师、架构师、维护者、社区贡献者 投稿分享:

演讲形式

• 标准演讲(Presentation)
⏱ 30 分钟 · 单人 / 双人

• 闪电演讲(Lightning Talk)
⚡ 10 分钟 · 快速、直接、聚焦一个点

我们更看重:

• 真实经验

• 实际问题

• 清晰的思考

而不是“完美故事”。

🗓重要时间节点

• 📢CFP开启: 2025 年 12 月 5 日

• ⏰CFP 截止: 2026 年 2 月 24 日

• 📩录用通知: CFP 截止后 1–2 周内

📝如何提交议题?

1⃣ 准备一份清晰的摘要

• 你要讲什么?

• 适合谁听?

• 听众能收获什么?

2⃣ 选择分会场与演讲形式

3⃣ 提交你的提案 👉
https\://sessionize.com/kcd-beijing-2026/

🤝感谢赞助商与合作伙伴

KCD Beijing + vLLM 2026 的举办,离不开赞助商和社区伙伴的支持。

特别感谢 (排名不分先后)

• AWS

• Red Hat

• 华为

• 蚂蚁开源

• OceanBase

• KubeEvents

• AtomGit

你们对 云原生与 AI 开源生态 的持续投入,让社区能够走得更远。

📌关于赞助与合作伙伴的详细介绍,将在下一篇文章中发布,敬请期待。

🌱为什么你应该参与?

• 这是 KCD Beijing × vLLM 社区的联合主办

• 这是一次 Kubernetes 与大模型推理的正面交汇

• 这是一场 以工程实践为核心的社区大会

• 这是一个 让一线工程师声音被听见的舞台

无论你是:

• Kubernetes / 平台工程师

• AI / ML Infra 开发者

• vLLM 使用者或贡献者

• 云原生或 AI 社区长期参与者

KCD Beijing + vLLM 2026,都欢迎你。

报名参会:

https\://www.bagevent.com/event/kcd-beijing-2026

🙌 最后

🎯 议题征集中

🎤 讲者招募中

🌱 社区共建中

欢迎转发给你的同事和朋友,也欢迎你,亲自站上这个舞台。

2026 年 3 月 21 日,北京见。

阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么

如果你也觉得现在的 AI 不该只会打字——而是应该能开口说话、边听边说、自然接话/被打断,甚至还能自己跑流程——那 3 月 1 日在日本线下举办的 VOX TOKYO 就是一次很适合“直接上手”的线下冲刺。

这是一场聚焦社会课题解决的线下黑客松。我们邀请开发者、创业者和创意人才齐聚川崎,利用 TRAE 的高效开发能力、MiniMax 的自然语音合成,以及 Agora 的实时交互技术,在 8 小时内做出一个能 Demo 的语音 AI Agent 原型。新手也欢迎,现场有人一起 vibe coding,餐饮饮料都安排好,你只要带电脑 + 一个点子来就行。

作为 RTE 开发者社区关注的实时交互(Real-Time Engagement)场景,我们也会鼓励大家用 TEN Framework 快速搭起实时语音链路:把“听—说—对话节奏/打断—工具调用”的关键环节串起来,让你把精力花在 Agent 的核心逻辑和产品体验上,而不是被底层实时音频、延迟和稳定性拖住。

挑战方向也很“有戏”:👵银发陪伴与记忆照护、🗼访日游客沉浸式文化导览、⚙中小企业运营自动化(预约/库存等)、👨🏻🏫24/7 个性化学习导师。最后会有 Demo 展示与评奖(奖金池 10 万日元)以及交流环节——很适合把“语音 Agent”从概念推进到一个能拿出来讲的作品。

报名链接:
https://luma.com/j1pfdg53

Vox Tokyo: A Voice AI Hackathon for Social Good

✨ About the Event

Building with Voice AI used to be reserved for specialists. Not anymore. With the rapid rise of LLMs and AI agents, the barrier to entry has never been lower — and the possibilities have never been bigger.

Vox Tokyo is a mission-driven hackathon where ideas and experimentation come first.

  • Beginners welcome: New to AI development? Jump right in — this is your chance to get started.
  • Learn from the best: Industry pioneers and vibe-coding pros will be in the room and ready to help.
  • Just show up: Food and drinks are on us. All you need to bring is an idea.

You don't need to build anything perfect. Come explore what's possible when you put "voice" at the center of solving real problems.

🍽 Catering and drinks provided throughout the day.

📍Event Details

  • 📅 Date: Sunday, March 1, 2026
  • 📍 Venue: Fujitsu Uvance Kawasaki Tower (1-5 Omiya-cho, Saiwai-ku, Kawasaki, Kanagawa — JR Kawasaki Tower)
  • 👥 Format: In-person / Single-day event
  • 🧑💻 Tech Support: Hands-on guidance for vibe-coding and Voice AI models

🧩 The Challenge: Solve Social Issues with Voice AI

Participants will have 8 hours to build autonomous voice agents across four critical focus areas:

  • 👵 Silver Voice: A compassionate AI companion designed to combat elderly loneliness and support memory care.
  • 🗼 Omotenashi AI: An immersive "insider" guide that decodes Japanese culture and hidden gems for international visitors.
  • ⚙ Agentic Workforce: An "invisible operations manager" automating tedious tasks for small businesses facing labor shortages.
  • 👨🏻🏫 Agentic Education: A hyper-personalized AI mentor that provides 24/7 adaptive tutoring and roleplay practice.

Welcome to Vox Tokyo. Let's listen to the voices that matter — and build the technology to answer them. 🚀

👥 Participation

Application Deadline: February 27, 2025 (Fri) 13:00

How to Join:

  • In-person only
  • No development experience required — beginners welcome
  • Individual participation, or online team formation (up to 2 members)
  • Please bring your own laptop.

Eligibility: TRAE users (Sign up and download TRAE here)

Application:

  • Spots are limited.
  • Accepted applicants will be notified by email.

🏆 Prizes

💰 Total Prize Pool: ¥100,000 JPY

  • Grand Prize: ¥50,000
  • Runner-Up: ¥30,000
  • Third Place: ¥20,000
  • Special Award (3 teams): TRAE original merchandise

※ All prize amounts are pre-tax.

⏱ Event Schedule

12:30 - 12:45 Doors Open & Check-in

12:45 - 13:00 Opening Remarks

13:00 - 13:30 Sponsor Tech Sessions

13:30 - 18:00 Hacking Time (Main Session)

18:00 - 18:30 Project Submission & Final Tweaks

18:30 - 19:30 Final Presentations & Demos

19:30 - 20:00 Networking & Refreshments (Food & drinks provided)

20:00 - 20:30 Awards Ceremony & Closing

20:30 Event Ends

■Host

TRAE

TRAE (The Real AI Engineer) is ByteDance's AI-powered IDE that transforms how software is built. With intelligent IDE Mode for assisted coding and groundbreaking SOLO Mode for end-to-end automation, TRAE turns natural language into complete, functional applications.

We believe in rapid innovation and empowering builders of all skill levels. Our mission is simple: eliminate the gap between ideation and implementation—so you can focus on creating something extraordinary.

TRAE — Where Human Creativity Meets AI Intelligence.

MiniMax

MiniMax is a global AI foundation model company founded in 2021, committed to advancing the frontiers of artificial intelligence towards AGI. The company develops cutting-edge large language and multimodal foundation models, powering innovative products across video, image, speech, and music generation.

MiniMax's flagship products include Hailuo AI for video generation and MiniMax Audio for natural text-to-speech and voice cloning. With breakthrough innovations like Lightning Attention enabling 1-million-token context windows, MiniMax continues to push AI boundaries.

Together, we are building AGI with everyone.

Agora

Agora powers real-time voice, video, and interactive experiences at scale, trusted by thousands of developers worldwide to seamlessly embed communication into any application.

Voice AI is reshaping how we interact with technology. With Agora's SDKs and the TEN (Transformative Engagement Network) framework — an open-source voice AI toolkit for rapid prototyping — you'll have everything you need to build next-generation voice experiences. TEN's modular components for STT, LLM, and TTS integration make it ideal for hackathon innovation.

Join us and build the future of voice!

CreatorLabo

CreatorLabo is a Tokyo-based co-creation community of entrepreneurs, AI developers, and creators bridging global AI innovations with Japan's startup ecosystem.

We run hackathons like "Minna Hackathon," partner with global AI companies for localized developer education, and connect early-stage founders with talent to launch MVPs — all built around rapid prototyping and real-world AI application.

Our mission is developing Japan's next generation of entrepreneurial leaders with the tools, community, and global connections to validate, build, and create impact.

■ Co-host

Tokyo Design

Japan’s ultimate product design community for hands-on learning, AI-native practice, and real-world collaboration.

Voice AI / Space

Ahoy! Voice AI Space is your beacon to master voice tech's wild seas. We guide developers, entrepreneurs, and enthusiasts to top tools, news, knowledge, and careers, empowering everyone in the vast voice AI ocean.

Community Partner

MeltiingHack

MeltingHack is a vibrant, Tokyo-based hackathon community that brings together a diverse melting pot of developers from across Japan and around the world.

WaytoAGI

WayToAGI is one of the world’s largest open-source AI knowledge communities, dedicated to advancing the development of Artificial General Intelligence (AGI) and promoting the adoption and practical use of AI technologies worldwide.

Founder Institute Japan

Founder Institute (FI) is a leading startup accelerator helping founders turn ideas into fundable startups and grow globally. Since 2009, FI has guided early-stage founders through FI Core (idea to pre-seed): https\://fi.co/program

Alumni get ongoing access to Founder Lab: https\://fi.co/scale and can connect with investors via the FI Venture Network: https\://fi.co/investors

FI alumni have raised $1.5B+ across 200+ cities on 6 continents.

■ Sponsor

Shisa.AI

Shisa.ai is a Silicon Valley-led startup revolutionizing Japanese-specific AI through cutting-edge Open Source LLM development. We bridge world-class technical expertise with deep local insights to drive the next wave of AI innovation from Japan to the world.

Zilliz

Zilliz is the creator of the Milvus open-source vector database and a leader in high-performance vector database technologies for AI applications. Its infrastructure empowers organizations worldwide to unlock the value of unstructured data and accelerate AI development.

Supabase

Supabase is a Postgres development platform that gives you a production-ready backend out of the box: a managed Postgres database, Auth, Storage, instant APIs, Edge Functions, and Realtime subscriptions—plus support for storing vector embeddings for AI apps.

阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么