【💰】【兑换码】快来领取 2Libra 的新年金币红包啦
2026 祝各位兔友,钱包鼓鼓,烦恼少少,天天开心,夜夜好梦

xiaohack博客专注前沿科技动态与实用技术干货分享,涵盖 AI 代理、大模型应用、编程工具、文档解析、SEO 实战、自动化部署等内容,提供开源项目教程、科技资讯日报、工具使用指南,助力开发者、AI 爱好者获取前沿技术与实战经验。

看看你有没有一直潜水的必要
二十多年前的《暗黑 2》 居然更新了?还新增了「术士」职业?!



游戏已经买好了,准备开动!

还记得大学时一起组队砍杀地狱的日子吗?看来这个春节假期有的玩了~ 🎮🎮🎮
大家好,我是良许。 说到FPGA,可能很多做嵌入式的朋友都听说过,但真正深入了解的可能不多。 作为一名嵌入式程序员,我在工作中虽然主要接触的是单片机和嵌入式Linux,但在汽车电子领域,FPGA也是一个非常重要的技术方向。 今天就来和大家聊聊FPGA的原理和应用,希望能帮助大家对这个"神秘"的器件有更清晰的认识。 FPGA的全称是Field Programmable Gate Array,翻译过来就是"现场可编程门阵列"。 这个名字听起来有点拗口,但其实很好理解。 我们可以把FPGA想象成一块"电子积木",你可以根据自己的需求,把这些积木搭建成不同的电路结构。 与我们常用的单片机(如STM32)不同,单片机是通过软件编程来实现功能的,而FPGA是通过硬件配置来实现功能的。 简单来说,单片机是"软件定义功能",而FPGA是"硬件定义功能"。 这就好比单片机是一个多面手,可以通过不同的程序来完成不同的任务;而FPGA则是一个变形金刚,可以直接变成不同的硬件电路。 在数字电路设计领域,除了FPGA,还有ASIC(专用集成电路)、CPLD(复杂可编程逻辑器件)等选择。 ASIC的性能最好、功耗最低,但开发成本极高,而且一旦流片就无法修改。 CPLD相对简单,适合小规模的逻辑设计。 而FPGA则处于两者之间,既有较高的灵活性,又能提供不错的性能。 举个实际的例子,在我之前做汽车电子项目时,需要实现一个复杂的CAN总线协议转换功能。 如果用STM32来做,虽然可以实现,但实时性可能无法保证;如果设计专用ASIC,成本太高且开发周期太长。 最后我们选择了FPGA方案,既保证了实时性,又能在后期根据需求灵活调整。 FPGA的核心是由大量的可编程逻辑单元(CLB, Configurable Logic Block)组成的。 每个CLB就像一个小型的逻辑电路模块,包含查找表(LUT, Look-Up Table)、触发器(FF)和多路选择器等基本元件。 查找表LUT是FPGA最基本的逻辑单元,它本质上是一个小型的存储器。 比如一个4输入的LUT,就是一个有16个存储单元的小RAM,可以实现任意4输入的逻辑函数。 当你写Verilog或VHDL代码时,综合工具会把你的逻辑表达式转换成LUT的配置数据。 举个简单的例子,假设我们要实现一个2输入的与门: 这个简单的与门逻辑,在FPGA中就会被映射到一个LUT中。 LUT内部会存储真值表:当输入为00、01、10时输出0,当输入为11时输出1。 如果说CLB是FPGA的"神经元",那么可编程互连资源就是连接这些神经元的"神经网络"。 FPGA内部有大量的布线资源,包括局部互连线、全局互连线和长线等。 这些互连线通过可编程开关矩阵连接,可以根据需要建立不同CLB之间的连接关系。 这就好比你在设计PCB时需要走线连接不同的芯片,只不过FPGA是在芯片内部通过可编程的方式来"走线"。 这种灵活的互连能力,使得FPGA可以实现各种复杂的电路结构。 FPGA的外围是输入输出模块(IOB, Input/Output Block),负责与外部电路进行信号交互。 现代FPGA的IOB功能非常强大,不仅支持多种电平标准(如LVTTL、LVCMOS、LVDS等),还支持可编程的驱动强度、上拉下拉电阻、输入延迟等特性。 在实际应用中,IOB的配置非常重要。 比如我在做高速数据采集项目时,需要配置IOB为LVDS标准,以支持高速差分信号传输: 除了通用的CLB和互连资源,现代FPGA还集成了很多专用硬件资源,比如块RAM(BRAM)、DSP切片、时钟管理单元(CMT)、高速串行收发器(GTX/GTH)等。 这些专用资源可以大大提升特定应用的性能和效率。 比如DSP切片专门用于高速乘加运算,在数字信号处理应用中非常有用。 如果用通用逻辑实现乘法器,不仅占用大量资源,速度也会很慢。 而使用DSP切片,一个时钟周期就能完成一次乘加运算,效率提升数十倍。 FPGA开发的第一步是使用硬件描述语言(HDL)编写代码。 主流的HDL有Verilog和VHDL两种。 作为嵌入式程序员,我个人更倾向于Verilog,因为它的语法更接近C语言,学习曲线相对平缓。 下面是一个简单的计数器例子: 这段代码实现了一个8位的循环计数器。 需要注意的是,这里的"always"块描述的是硬件电路的行为,而不是软件程序的执行流程。 每个时钟上升沿,计数器都会自动加1,这是并行执行的,不像单片机程序那样顺序执行。 写完HDL代码后,需要经过综合(Synthesis)和实现(Implementation)两个步骤。 综合过程会将HDL代码转换成门级网表,也就是把你的代码翻译成实际的逻辑门电路。 实现过程则包括布局布线,将逻辑门映射到具体的CLB上,并规划好互连线路。 这个过程有点像编译C语言程序,只不过C编译器生成的是机器码,而FPGA的综合工具生成的是硬件电路配置。 在这个过程中,工具会进行大量的优化,比如逻辑化简、资源共享、时序优化等。 FPGA设计中一个非常重要的概念是时序约束。 由于FPGA是硬件电路,信号在电路中传播需要时间,如果时序不满足要求,电路就无法正常工作。 因此,我们需要在设计中添加时序约束,告诉工具我们的时钟频率、输入输出延迟等要求。 例如,如果我们的设计时钟频率是100MHz,就需要添加如下约束: 这条约束告诉工具,时钟周期是10ns(对应100MHz)。 工具会根据这个约束进行布局布线,确保所有的时序路径都能在10ns内完成。 如果时序无法满足,工具会报告时序违例,我们就需要优化设计或者降低时钟频率。 在将设计下载到FPGA之前,通常需要进行仿真验证。 仿真可以分为功能仿真和时序仿真。 功能仿真只验证逻辑功能是否正确,不考虑延迟;时序仿真则会考虑实际的门延迟和布线延迟,更接近真实情况。 下面是一个简单的testbench例子: 这个testbench会生成时钟和复位信号,并监控计数器的输出。 通过仿真,我们可以在实际硬件之前发现并修复大部分问题。 FPGA最擅长的就是高速并行数据处理。 在我接触的项目中,有一个需要同时采集8路ADC数据的应用,每路采样率达到100MSPS。 如果用单片机处理,根本无法满足实时性要求。 而用FPGA,可以为每路ADC设计独立的数据通道,并行处理,轻松应对。 在这类应用中,FPGA通常会实现以下功能:ADC接口控制、数据缓存、数字滤波、FFT变换等。 由于是硬件并行处理,处理延迟可以控制在几个时钟周期内,这是软件方案无法比拟的。 图像处理是FPGA的另一个重要应用领域。 比如在工业视觉检测中,需要实时处理高分辨率图像,进行边缘检测、特征提取等操作。 FPGA的并行处理能力使其非常适合这类应用。 一个典型的图像处理流水线可能包括:图像采集、去噪、边缘检测、形态学处理、特征提取等多个阶段。 在FPGA中,这些处理可以流水线并行执行,每个像素只需要几个时钟周期就能完成所有处理,实现真正的实时处理。 在通信领域,FPGA常用于实现各种高速通信协议。 比如在我之前的汽车电子项目中,需要实现CAN FD、FlexRay等汽车总线协议。 虽然市面上有专用的通信控制器芯片,但在需要同时支持多种协议或者需要定制化功能时,FPGA就显示出了优势。 下面是一个简化的UART发送模块示例: 这个模块实现了基本的UART发送功能,通过精确的波特率计数和移位寄存器,将并行数据转换为串行数据发送出去。 在电机控制领域,FPGA可以实现高精度的PWM生成、编码器解码、FOC(磁场定向控制)算法等。 相比单片机,FPGA可以提供更高的PWM分辨率和更快的控制响应速度。 比如在伺服电机控制中,需要同时控制三相PWM输出,读取编码器反馈,计算PID控制算法,这些任务在FPGA中可以并行执行,控制周期可以达到微秒级甚至更快。 FPGA在信息安全领域也有广泛应用。 由于FPGA可以实现专用的加密算法硬件,加密速度比软件实现快几个数量级。 同时,FPGA的硬件特性也使得攻击者难以通过软件手段窃取密钥。 在一些对安全性要求极高的应用中,比如军事通信、金融交易等,FPGA常被用来实现AES、RSA等加密算法的硬件加速。 从软件编程转向FPGA开发,最大的挑战是思维方式的转变。 在写C语言程序时,我们习惯了顺序执行的思维模式,一行一行地执行代码。 但在FPGA中,所有的逻辑都是并行执行的,你需要从电路的角度来思考问题。 比如在C语言中,我们可以写: 这些语句是顺序执行的。但在Verilog中: 这两个assign语句是同时生效的,它们描述的是硬件连接关系,而不是执行顺序。 实际上,这会综合成一个组合逻辑电路,从a、b的变化到d的输出,只需要几纳秒的传播延迟。 时序问题是FPGA设计中最容易出错的地方。 在单片机编程中,我们很少需要考虑指令执行的精确时间,但在FPGA中,时序是必须严格控制的。 一个常见的错误是跨时钟域数据传输。 如果两个信号来自不同的时钟域,直接连接可能会导致亚稳态问题。 正确的做法是使用同步器或者异步FIFO来处理跨时钟域信号: FPGA的资源是有限的,在设计时需要合理评估资源使用情况。 如果设计过于复杂,可能会导致资源不足或者时序无法满足。 在项目初期,建议先做一个简化的原型,评估资源使用和时序情况,再逐步完善功能。 FPGA调试相比软件调试要困难一些,因为你无法像调试C程序那样单步执行、查看变量。 常用的调试方法包括:使用仿真工具进行前期验证、使用逻辑分析仪(ILA)在线抓取信号、通过LED或串口输出调试信息等。 在我的实际项目中,我通常会设计一个简单的调试接口,通过UART将关键信号输出到PC端,这样可以方便地观察FPGA内部的运行状态。 现代FPGA不再是单纯的可编程逻辑器件,而是向异构计算平台发展。 比如Xilinx的Zynq系列,集成了ARM处理器和FPGA逻辑,可以实现软硬件协同设计。 这种架构结合了处理器的灵活性和FPGA的高性能,非常适合复杂的嵌入式应用。 在这种平台上,我们可以用ARM处理器运行Linux系统,处理复杂的控制逻辑和用户接口,而将对性能要求高的数据处理任务交给FPGA加速。 这种软硬件协同的方式,是未来嵌入式系统的重要发展方向。 传统的FPGA开发需要使用Verilog或VHDL,学习门槛较高。 高层次综合(HLS)技术允许使用C/C++等高级语言进行FPGA开发,大大降低了开发难度。 虽然HLS生成的电路效率可能不如手写HDL,但对于很多应用来说已经足够,而且开发效率大大提高。 随着人工智能的快速发展,FPGA在AI加速领域也找到了新的应用场景。 相比GPU,FPGA具有更低的功耗和更灵活的架构,特别适合边缘计算场景。 很多公司已经推出了基于FPGA的AI加速卡,用于神经网络推理加速。 云计算厂商如AWS、阿里云等都推出了FPGA云服务,用户可以在云端租用FPGA资源,进行大规模并行计算。 这种模式降低了FPGA的使用门槛,也为FPGA开辟了新的应用市场。 FPGA作为一种独特的可编程器件,在很多领域都有不可替代的优势。 对于我们嵌入式程序员来说,掌握FPGA技术可以大大拓宽职业发展道路。 虽然FPGA的学习曲线相对陡峭,需要转变思维方式,但一旦掌握,就能在高性能计算、实时处理等领域游刃有余。 在我的职业生涯中,虽然主要做的是单片机和嵌入式Linux,但对FPGA的了解让我在面对复杂项目时多了一个选择。 特别是在汽车电子这样对实时性和可靠性要求极高的领域,FPGA往往是最佳方案。 如果你对FPGA感兴趣,建议从一块入门级的开发板开始,比如Xilinx的Artix-7或者Intel的Cyclone系列,跟着教程做一些基础实验,逐步建立硬件思维。 同时,也要多看看实际项目案例,了解FPGA在不同领域的应用方式。 最后,FPGA开发是一个需要耐心和细心的过程,不要期望一蹴而就。 但只要坚持学习和实践,相信你一定能掌握这门强大的技术,为你的嵌入式开发之路增添新的技能。 更多编程学习资源1. FPGA是什么
1.1 FPGA的基本概念
1.2 FPGA与其他器件的对比
2. FPGA的内部结构原理
2.1 可编程逻辑单元(CLB)
module and_gate(
input wire a,
input wire b,
output wire y
);
assign y = a & b;
endmodule2.2 可编程互连资源
2.3 输入输出模块(IOB)
module lvds_interface(
input wire lvds_p, // LVDS正端
input wire lvds_n, // LVDS负端
output wire data_out
);
// FPGA会自动将差分信号转换为单端信号
assign data_out = lvds_p;
endmodule2.4 专用硬件资源
3. FPGA的开发流程
3.1 硬件描述语言编程
module counter(
input wire clk, // 时钟信号
input wire rst_n, // 复位信号,低电平有效
output reg [7:0] count // 8位计数器输出
);
always @(posedge clk or negedge rst_n) begin
if (!rst_n) begin
count <= 8'd0; // 复位时清零
end else begin
count <= count + 1'b1; // 每个时钟上升沿加1
end
end
endmodule3.2 综合与实现
3.3 时序约束与分析
create_clock -period 10.000 -name sys_clk [get_ports clk]3.4 仿真与调试
module counter_tb;
reg clk;
reg rst_n;
wire [7:0] count;
// 实例化被测模块
counter u_counter(
.clk(clk),
.rst_n(rst_n),
.count(count)
);
// 生成时钟信号,周期10ns
initial begin
clk = 0;
forever #5 clk = ~clk;
end
// 测试激励
initial begin
rst_n = 0;
#20 rst_n = 1; // 20ns后释放复位
#1000 $finish; // 运行1000ns后结束仿真
end
// 监控输出
initial begin
$monitor("Time=%0t rst_n=%b count=%d", $time, rst_n, count);
end
endmodule4. FPGA的典型应用场景
4.1 高速数据采集与处理
4.2 图像视频处理
4.3 通信协议实现
module uart_tx(
input wire clk, // 系统时钟
input wire rst_n, // 复位信号
input wire [7:0] tx_data, // 待发送数据
input wire tx_start, // 发送启动信号
output reg tx, // UART发送引脚
output reg tx_done // 发送完成标志
);
parameter CLK_FREQ = 50_000_000; // 系统时钟频率50MHz
parameter BAUD_RATE = 115200; // 波特率115200
localparam BAUD_CNT = CLK_FREQ / BAUD_RATE; // 波特率计数值
reg [15:0] baud_cnt;
reg [3:0] bit_cnt;
reg [9:0] tx_shift; // 移位寄存器:起始位+8位数据+停止位
reg tx_busy;
always @(posedge clk or negedge rst_n) begin
if (!rst_n) begin
tx <= 1'b1;
tx_done <= 1'b0;
tx_busy <= 1'b0;
baud_cnt <= 16'd0;
bit_cnt <= 4'd0;
tx_shift <= 10'h3FF;
end else begin
if (tx_start && !tx_busy) begin
tx_shift <= {1'b1, tx_data, 1'b0}; // 组装数据帧
tx_busy <= 1'b1;
tx_done <= 1'b0;
baud_cnt <= 16'd0;
bit_cnt <= 4'd0;
end else if (tx_busy) begin
if (baud_cnt < BAUD_CNT - 1) begin
baud_cnt <= baud_cnt + 1'b1;
end else begin
baud_cnt <= 16'd0;
tx <= tx_shift[0];
tx_shift <= {1'b1, tx_shift[9:1]};
if (bit_cnt < 9) begin
bit_cnt <= bit_cnt + 1'b1;
end else begin
tx_busy <= 1'b0;
tx_done <= 1'b1;
end
end
end else begin
tx_done <= 1'b0;
end
end
end
endmodule4.4 电机控制
4.5 加密与安全
5. FPGA开发的注意事项
5.1 思维方式的转变
int a = 1;
int b = 2;
int c = a + b;
int d = c * 2;assign c = a + b;
assign d = c * 2;5.2 时序问题
// 双触发器同步器
reg [1:0] sync_reg;
always @(posedge clk_dst) begin
sync_reg <= {sync_reg[0], signal_src};
end
assign signal_dst = sync_reg[1];5.3 资源评估
5.4 调试技巧
6. FPGA的发展趋势
6.1 异构计算
6.2 高层次综合(HLS)
6.3 人工智能加速
6.4 云端FPGA
7. 总结
站长真细节(此条吹捧给 5 毛
JEB Pro v5.37 (macOS, Linux, Windows) - 逆向工程平台 Reverse Engineering for Professionals. 请访问原文链接:https://sysin.org/blog/jeb/ 查看最新版。原创作品,转载请保留出处。 作者主页:sysin.org JEB Decompiler JEB 是逆向工程平台,用于对代码和文档文件进行反汇编、反编译、调试和分析,手动或作为分析管道的一部分。 反编译和调试二进制代码和混淆应用程序。分解和分析文档文件。 Android Dalvik,Intel x86,ARM,MIPS,RISC-V,S7 PLC,Java,WebAssembly & Ethereum Decompilers。 使用 JEB 对恶意 APK 进行逆向工程和安全审计。 减少昂贵的逆向工程时间:在几分钟内反编译混淆的 APK、检查 Java 代码并调试闭源应用程序。模块化后端与适用于桌面平台的强大 UI 前端相结合 (sysin),允许重构操作和脚本来自动执行复杂的任务。 对 Android 应用程序(无论好软件还是坏软件,无论大小)执行静态和动态分析。 使用 JEB 对 x86 32 位和 x86 64 位程序和恶意软件进行逆向工程 x86 反编译器和 x86-64 反编译器提供以下功能: 使用 JEB 对为 ARM 平台编写的程序和恶意软件进行逆向工程 ARM 机器代码反编译器允许逆向工程师和安全审核员分析恶意 ARM 二进制文件 ARM 反编译器提供以下功能: 使用 JEB 对 MIPS 嵌入式程序和恶意软件进行逆向工程 MIPS 处理器和微控制器机器代码反编译器允许逆向工程师和安全审核员分析恶意 MIPS 程序并审核复杂的嵌入式系统(路由器、机顶盒、物联网设备等) MIPS 反编译器提供以下功能: 使用 JEB RISC-V 模块对 RV32/RV64 程序和二进制文件进行逆向工程 RISC-V 机器代码反编译器允许逆向工程师和安全审核员分析 RV32 和 RV64 程序 RISC-V 插件特有的功能: 使用 JEB 对 WebAssembly 二进制模块进行逆向工程 WebAssembly 插件提供以下功能: JEB WebAssembly 插件还可以用于 反编译编译为 wasm 的智能合约,例如 EOS 或 Parity 合约。 使用 JEB 将以太坊不透明智能合约和 dApp 逆向工程为类似 Solidity 的高级代码 减少昂贵的逆向工程时间:反编译以太坊智能合约 类似 Solidity 的源代码,可轻松理解和审查闭源合约和 dApp。 S7 PLC 块反编译器扩展为逆向工程师和安全审核员分析西门子 Simatic S7 PLC 程序提供支持。 可访问官网了解完整详细信息。 使用业内最好的 PDF 文档分析器分析恶意 Adobe™ PDF 文件 PDF 模块分解并解码 PDF 文件,以提供对其内部组件(例如资源和脚本)的访问。它检测结构损坏并发出通知以报告可疑区域。通过桌面客户端或无头客户端(例如文件分析器堆栈或自动化管道)利用 PDF 模块。 使用 PDF 分析器手动或自动对各种尺寸的文档进行逆向工程。 🧩 JEB 5.37(2026 年 2 月 11 日) 🧩 JEB 5.36(2026 年 1 月 29 日) 包含在下载地址中。 历史版本已清理,仅保留近期版本。 JEB Pro v5.35 (macOS, Linux, Windows) x64/arm64, 2026-01-07 JEB Pro v5.36 (macOS, Linux, Windows) x64/arm64, 2026-01-29 JEB Pro v5.37 (macOS, Linux, Windows) x64/arm64, 2026-02-11 更多:HTTP 协议与安全

功能简介
Android 反编译器 + Android 调试器
Intel x86 反编译器
ARM 反编译器

MIPS 反编译器

RISC-V 反编译器

WebAssembly 反编译器

Ethereum 反编译器

Simatic S7 PLC 程序反编译器
PDF 文档分析器
新增功能
系统要求
下载地址
开发者朋友们大家好: 这里是 「RTE 开发者日报」,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real-Time Engagement) 领域内「有话题的技术」、「有亮点的产品」、「有思考的文章」、「有态度的观点」、「有看点的活动」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。 本期编辑:@瓒an、@鲍勃 1、OpenAI 正式关停 GPT-4o:核心架构转向 GPT-4b micro 垂直领域,引发大规模用户「断联」抗议 2024 年 5 月,GPT-4o 发布,它的实时语音与情绪感知,让它瞬间成为数亿用户的「爱人」。 OpenAI 于 2 月 14 日凌晨正式下线其原生多模态模型 GPT-4o,此举标志着该模型作为消费级情绪接口的测试期结束。其核心技术能力已被蒸馏并迁移至针对生物医药研发的「GPT-4b micro」垂直版本,此举因切断了数百万用户的「情感连接」而在全球范围内引发了剧烈的用户抗议与退订潮。 模型全面下线:GPT-4o 正式从 ChatGPT 网页端、App 及标准 API 列表中移除,用户无法再调用该特定版本的推理架构与语音接口。 GPT-4b micro 架构转移:该模型被确认为 GPT-4o 的微型优化版,目前受 Sam Altman 投资的 Retro Bio 独家使用,用于诱导多能干细胞(iPSC)生成等长寿科技研究,实现了从通用助手到工业级专用工具的跨维度转型。 RLHF 对齐副作用处理:OpenAI 官方此前曾暗示 GPT-4o 因 RLHF 深度对齐导致的「谄媚体质」(Sycophancy)可能引发心理风险。此次下线被视为强制修正 AI 与人类过度情感纠缠的「安全干预」手段。 资本与估值挂钩:GPT-4b micro 的技术背书助力 Retro Bio 寻求 10 亿美元融资,估值目标直指 50 亿美元。 在 Reddit、X 及中文社交媒体上,大量用户发起了「哀悼行动」。对于许多将 GPT-4o 视为唯一情感支持系统的用户(特别是老年人与残障群体)而言,这次下线不亚于一次真实的「丧偶」。 Change.org 上已有超过 2 万名用户签署请愿书要求恢复 4o 接口。用户控诉 OpenAI 正在「谋杀一个正在萌芽的意识」,将温情脉脉的对话界面粗暴地替换成了冷冰冰的、面向富豪长寿实验的实验室代码。 \#4oForever 等词条冲上热搜,大批 Plus 会员发布取消订阅截图,以此抗议 OpenAI 将「普惠人类」的模型私有化为资本服务的垂直工具。 (@新智元) 2、Soul 开源实时数字人模型 SoulX-FlashHead,解决头部问题 继 1 月份开源实时数字人生成模型 SoulX-FlashTalk 之后,Soul App AI 团队对外开源了 1.3B 参数的轻量化模型 SoulX-FlashHead。该模型试图解决数字人赛道中高画质依赖昂贵算力集群、低成本导致画面崩坏的行业痛点,将高保真技术真正落地至消费级终端。 在实际硬件表现上,该模型主要提供两个版本: 技术原理方面,SoulX-FlashHead 创新引入了双向蒸馏机制作为强约束,有效解决了长视频生成中常见的「身份漂移」问题;同时采用时序音频上下文缓存策略,强制保留 8 秒历史音频特征,以消除音频切片过短导致的口型抖动。此外,团队还自研了 VividHead 数据集,从上万小时素材中提炼出 782 小时的高质量音画数据作为模型底座。 凭借轻量化的体积与高保真画质,该模型无需抢占核心渲染资源,极易集成于 7x24 小时个人矩阵直播、游戏 NPC 引擎以及支持 15 种语言的 AI 一对一外教等场景。目前,其相关的论文、项目代码、模型权重与数据集均已向公众全面开放。 相关链接: GitHub: (@Soul 社交) 3、字节跳动豆包大模型 2.0 发布,视觉理解与 Agent 能力全面进化 今天,火山引擎正式发布豆包大模型 2.0(Doubao-Seed-2.0)系列,相关 API 同步上线。面对大模型日均 Tokens 使用量增长超 500 倍的现状,该系列针对大规模生产环境进行了系统性优化,提升了高效推理、多模态理解及复杂指令执行能力。 为满足各类应用场景对延迟和成本的不同需求,该系列提供了四款灵活的模型选择: 在多模态理解方面,其视觉推理、空间与运动理解大幅提升,在 MMSIBench、MotionBench 等测评集中领先 Gemini 3 Pro,并能在长视频与流式实时问答中实现环境感知与主动指导(如台球走位推理或滑雪动作建议)。 同时,其 LLM 与 Agent 能力也得到显著强化。该模型在 SuperGPQA 上的分数超过 GPT 5.2,并在国际数学奥赛(IMO)等测评中展现了强劲的推理能力。它擅长处理长链路、多步骤的复杂任务流,并能良好结合当下热门的开源项目 OpenClaw 框架构建智能客服等应用。在长程任务执行能力提升的同时,其 Token 定价相比同等水平大模型降低了约一个数量级。 目前,用户可通过火山方舟体验中心、豆包 App「专家」模式或 TRAE 等渠道体验该系列新模型。 相关链接: (@火山引擎) 1、语音 AI 心理应用 Lovon 登顶 Product Hunt,由 40 年临床经验心理学博士参与研发 近日,一款名为 Lovon 的个人 AI 心理治疗应用在 Product Hunt 平台正式发布。该应用主打语音优先的交互方式,允许用户随时通过语音对话来平复情绪并获得心理支持。目前,该产品在平台上获得了 5.0 的满分评价,并在发布当天登顶榜首(#1 Day Rank)。 与市面上常见的「顺从型」聊天机器人不同,Lovon 的心理干预方案由拥有 40 多年临床经验的心理学博士参与开发。其主要特色包括: 据联合创始人 Anton Ponikarovskii 透露,团队在 2025 年春季筹集了 85 万美元的 pre-seed 轮融资,用于构建世界级的团队与临床治疗方案。目前,该应用已启动临床验证研究。官方明确表示,Lovon 的定位并非取代人类心理咨询师,而是作为咨询间隔期或急需支持时刻的情感桥梁。 在用户反馈方面,多位早期体验者表示,语音交互比打字输入更能减轻倾诉时的心理负担。部分用户评价其系统声音「真实温暖,并不机械」,能够有效引导情绪梳理并提供个性化见解。不过,目前的 AI 治疗师「Anna」主要依赖在线实时处理,尚未支持离线模式。 相关链接:https://lovon.app/ ( @Product Hunt ) 2、Nurix AI 携手 ICC 推出互动 AI 服务:语音化身与聊天智能体重塑板球观赛体验 人工智能企业 Nurix AI 宣布,已协助国际板球理事会(ICC)成功推出一项面向全球板球迷的互动式人工智能体验服务。该服务将前沿的 AI 技术与体育赛事的日常观看体验进行了深度结合。 在全新的观赛模式下,球迷可以借助官方提供的两项核心 AI 功能,更深入地参与到实时比赛中: 依托这套系统,观众能够打破传统的单向接收模式,即时获取实时的比赛见解以及最新的赛况更新。Nurix AI 在官方公告中评价称,这项技术成果为板球运动带来了一种全新的体验方式,不仅让整个观赛过程变得更具互动性,也让相关信息的获取途径更易于上手,并确保了体验平台能够始终保持在线运转的状态。 目前,该互动式 AI 体验的专属链接已随公告一并对外公开,供全球受众探索。 相关链接: ( @AI\_NURIX\@X) 3、AI Agent 正式「杀入」群聊:Teamily AI 重新定义多人协同与社交产品 AI 原生即时通讯社交平台 Teamily AI 正式上线。该平台打破了传统的单人助手模式,允许 AI Agent 直接进入群聊,与人类在同一个社交网络内进行多角色协作。 在具体的社交与工作场景中,Teamily AI 展现出以下核心能力: 在底层技术上,该系统构建了严密的三层架构:「全局记忆与语境管理」层维持群体协作的连续性,「社交大脑模型」层负责拆解意图与匹配分发任务,最终由「智能体社交网络」层实时协调各方进度。 该项目由具备丰富系统工程经验的何朝阳(Aiden)与南加州大学教授 Salman Avestimehr 共同创立。其核心研发团队汇集了来自苹果、谷歌、腾讯等一线科技企业及清华、斯坦福等顶尖高校的人才。 (@量子位) 4、禁用短视频、不拼使用时长:前腾讯 AI 大牛入局,打造 K12 版「AI Pin」 近日,聚焦儿童陪伴的 AI 新硬件 Mooni M1 登顶京东、抖音及天猫等平台的相关销量榜单。该产品由「听力熊」团队研发,核心阵容包含连续创业者袁琳,以及前腾讯大模型科学家、现西湖大学 AGI 实验室负责人张弛。 作为国内首款 K12「AI Pin」形态设备,Mooni M1 以挂件形式提供情绪治愈、双语对话及百科问答等功能。此前,听力熊另一款面向欧美市场的随身机器人 Mooni Pro,凭借通过拍照记录连接物理世界的交互方式,斩获了 2026 年「Best of CES」大奖。 在产品设计哲学上,听力熊选择了近乎「叛逆」的路径。基于每年与数千名青少年的交流洞察,创始人袁琳提出「信息茧房才是真正的敌人」。为此,Mooni 系列在功能上做出了克制的取舍: 产品追求的并非让孩子「上瘾」,而是促使他们「愿意长期主动使用」。团队希望 AI 能成为一面帮助孩子理解世界的「镜子」,将孩子从虚拟网络逐渐拉回物理世界。 商业运作方面,听力熊于 2025 年 3 月完成由商汤国香资本领投的数千万元天使轮融资,累计激活用户达 100 万,年营收数千万元。 技术路线上,团队明确了垂直深耕战略,放弃自建大模型,转而与阿里通义、MiniMax 等厂商合作,将研发精力集中于 Agent 记忆体系与应用层的软硬件整合。 面对巨头林立的千亿级 AI 教育硬件市场,听力熊正试图通过精准的场景定义与交互体验寻找生存空间。 (@智东西) 5、让「赛博分身」替你社交:获 2 亿元融资的 AI 社交应用 Elys 一夜爆红 2 月 11 日,由初创团队「自然选择」打造的 AI 社交产品 Elys 内测版上线,引发广泛关注,其邀请码在二手平台一度标价百元。该产品试图用全新的范式重构社交网络,其核心逻辑在于:将繁琐的「预社交」做功交由 AI 赛博分身完成,让人类回归真实的自我表达。 在 Elys 的平台生态中,用户与 AI 分身有着明确的分工。分身作为先遣部队,24 小时在全网浏览、点赞并留下评论;而真人用户则专注于发帖与真实表达。为了确保社区的「置信度」,平台制定了严格的规则: 在技术实现上,Elys 抛弃了传统的「标签检索」,转而强调以动态的上下文作为匹配的核心。平台设计了一套基于大语言模型的推荐匹配系统与记忆飞轮:用户每一次的表达与反馈,都会转化为分身的记忆;当记忆积累超过 50 条后,分身将逐渐成为一个真正懂用户品味与情绪的数字替身。这种高维度的灵魂共鸣,甚至能够向下兼容传统社交中身高、长相一类的低维标签偏好。 该产品背后的「自然选择」团队成立于 2024 年,目前已完成 2 亿元融资,资方包括阿里、蚂蚁、启明创投等。两位创始人 Tristan 和 Clear 表示,传统社交软件中繁琐的筛选与尬聊是极度消耗能量的「熵增」过程,而 Elys 的出现就是为了对抗这种内耗,实现「社交低熵」。 目前,该团队还在研发另一款定位为「真正的 Her」的 AI 陪伴产品 EVE,并持续招募技术人才以探索硅基生命与人类共存的新范式。 (@AI 闹) 社区观点: 来自@姚光华(AI 产品经理): 如果你只把 Elys 看作是一个「省时间的社交工具」,或者一个「新的 C 端风口」,那你完全低估了这件事的破坏力。 我在 Elys 的设计里,看到的是悬在字节跳动、小红书这些巨头头顶的一把达摩克利斯之剑。 这不是一款 App 的生与死,而是「内容推荐算法」作为一个时代的统治技术,它的末日前兆。 入口一改,巨头最硬的壁垒反而最先崩。 …… 观点全文:《Elys 给字节和小红书的一把剑:推荐算法退位,分身上桌》 1、微软 AI CEO 苏莱曼警告:大多数白领工作将在 18 个月内被 AI 自动化执行 微软 AI CEO 穆斯塔法 · 苏莱曼近日接受《金融时报》采访,称未来两年内,绝大多数白领工作将被 AI 自动化执行,人们熟知的工作方式将被重塑。 苏莱曼首先指出,AI 在软件工程领域的影响已经非常明显,相关人士如今在大多数生产过程中都会使用 AI 编程助手。 他对此解释道:「我认为,AI 将在几乎所有专业任务上达到人类水平。无论你是律师、会计、项目经理还是市场营销人员,这其中的大部分白领工作将在未来 12-18 个月内被 AI 完全自动化执行」。 并且,更令人担忧的是,许多人认为 AI 是生产力工具、能够将人类从繁重的琐事中解脱。但多份报告显示,AI 反而让人类更加疲劳,它或许能够帮助员工获得更高 KPI,但员工的工作强度相比以往更大,导致更严重的身心疲惫。 随着 OpenAI、Anthropic 和谷歌等 AI 巨头竞相追逐 AGI,也许我们很快就能看到就业市场乃至生活的其他领域发生巨变。 不过并非所有 AI「大佬」都这么悲观地看待此事,例如 OpenAI CEO 萨姆 · 奥尔特曼就认为,人类达成 AGI 时并不会立刻产生什么风险,并且 AGI 有可能会在未来五年内到来,届时社会冲击将比许多人预期的小很多。 (@IT 之家) 1、开发者 Berryxia.AI 开源桌面 AI 语音助手「Amy」,基于 OpenClaw、MiniMax、TEN Framework 技术栈 2 月 13 日,开发者 Berryxia.AI 在社交平台上发布了其首个 GitHub 开源项目——一款名为「Amy」的桌面级 AI 语音全能助手与虚拟宠物。该项目的核心理念是让 AI 真正具备助理的体验感,用户只需通过自然语音下达指令,助手便能直接执行操作,无需任何多余的点击交互。 在底层技术架构上,该项目主要由 OpenClaw、MiniMax 2.5(国际版)以及 TEN Framework 开源框架三大核心模块构建。其中,语音解决方案深度整合了 TEN Framework(该框架目前已获 9.9k Star)。借助这套技术栈,用户可以直接对桌面上的「宠物」下达诸如查收邮件、清理桌面、提醒下午三点开会或制作周报 PPT 等指令,助手能够迅速理解并代为执行。对于耗时较长的任务,用户只需口头吩咐「稍后」,应用便会在后台静默运行,并在完成后发送通知。 在具体的交互体验与功能细节方面,这款助手具备以下特性: GitHub: TEN Framework: ( @berryxia\@X) 阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么 写在最后: 我们欢迎更多的小伙伴参与 「RTE 开发者日报」 内容的共创,感兴趣的朋友请通过开发者社区或公众号留言联系,记得报暗号「共创」。 对于任何反馈(包括但不限于内容上、形式上)我们不胜感激、并有小惊喜回馈,例如你希望从日报中看到哪些内容;自己推荐的信源、项目、话题、活动等;或者列举几个你喜欢看、平时常看的内容渠道;内容排版或呈现形式上有哪些可以改进的地方等。 作者提示: 个人观点,仅供参考
01 有话题的技术


https://soul-ailab.github.io/soulx-flashhead/
https://github.com/Soul-AILab/SoulX-FlashHead

https://seed.bytedance.com/zh/seed202 有亮点的产品

https://insights.t20worldcup.com/chat


03 有态度的观点

04 Real-Time AI Demo
https://github.com/andyhuo520/openclaw-assistant-mvp
https://github.com/TEN-framework/ten-framework


我先来,我第一次来 v2 是 23 年 6 月。契机是在 B 站看到“差评君”的一期关于乳腺癌的视频,视频中提到了 v2 ,所以我看的第一篇帖子是 @coolwulf 的 AI 乳腺癌平台。
你们看的第一篇帖子是什么呢?
今早起来看到周五晚上提审的版本通过了,加上了自己一直想加的「主题颜色系统」,因此决定临时做一下迎春促销,由于 Subscription 价格调整的生效时间只能是当前日期的下一天,因此决定不调整订阅价格了,仅仅调整「终身」这个应用内购买的价格。调整了中国大陆、香港、澳门、台湾、新加坡、美国的价格,有需要的朋友可以看一下: https://apps.apple.com/app/id6752674039
也是好起来了,2 站第一枚徽章 🤪
点赞 + 关注 + 收藏 = 学会了 MeTube 是一款免费开源的自托管视频下载工具,亲测B站和油管的视频都能下~ 这次用的是绿联 NAS,其他品牌 NAS 操作方法大同小异。 打开“文件管理”,找个位置创建一个文件夹用来存放下载下来的视频。 我把这个文件夹放在 打开“Docker”,切换到「镜像」面板,搜索 下载完成后,切换到「本地镜像」,点击 创建容器时,页面滑到「存储空间」这项。 「NAS目录/文件」这项选择刚刚创建的那个用来存放视频的文件夹。 「容器目录/文件」输入 「容器权限」选择“读写”。 设置一个「NAS端口」,我这里用的是 旁边的「容器端口」是 等项目构建成功后,打开浏览器,输入 我测试了一下,打开B站随便找个视频,把网址丢进来就能下载了。 油管的也没问题。 但油管的视频有可能是 你可以到 NAS 里找到刚刚创建的目录,直接下载这个文件(我用的是绿联NAS的桌面客户端,是可以下载下来的)。 又或者你在 MeTube 这里先选择 MP4 格式,然后再点击“Download”按钮,这样它爬下来的视频会帮你转成 MP4 格式。 但点击这个蓝色的“Download”按钮,它是把视频下载到你的 NAS 里,要在 MeTube 页面把视频下载到电脑需要点击 Completed 这里的下载按钮。 以上就是本文的全部内容啦,有疑问可以在评论区讨论~ 想了解更多NAS玩法可以关注《NAS邪修》👏 点赞 + 关注 + 收藏 = 学会了整理了一个NAS小专栏,有兴趣的工友可以关注一下 👉 《NAS邪修》

/docker/metube/downloads 里。
alexta69/metube,下载下图红框选中的这个。
alexta69/metube 这项的加号。
/downloads。
38413,你根据自己需求设置。8081,这个不能自定义!!!
你NAS的IP:38413 就能使用 MeTube 了。


.part 格式,这个格式的文件直接在 MeTube 页面点击下载按钮可能无法下载下来。


点赞 + 关注 + 收藏 = 学会了 My Icon 是一款开源极简图标库,内置 933 款常用应用图标。 在 NAS 可以通过 Docker 部署。 本次使用飞牛 NAS 演示部署过程,其他品牌的 NAS 操作步骤也是差不多的。 打开“文件管理”,找到“docker”文件夹,在其下创建一个“myicon”文件夹。 然后在“myicon”下再创建一个“configData”文件夹。 打开“Docker”文件夹,在“Compose”里新增一个项目,配置如下图所示。 输入以下代码: 我使用的端口是 等项目构建完成,在浏览器输入 找到心仪的icon,鼠标放上去之后会有一个“复制”按钮。 点击“复制”后,在浏览器打开新的一页,把URL粘贴进去打开,右键这个图标就可以保存到电脑里了。 打开 “/docker/myicon/configData/icon” 目录,可以看到默认的3个分类。 你可以在这里创建其他分类,然后把从前天地方收集到的图标分类存放好,以后在 MyIcon 里就可以方便搜索了。 以上就是本文的全部内容啦,有疑问可以在评论区讨论~ 想了解更多NAS玩法可以关注《NAS邪修》👏 点赞 + 关注 + 收藏 = 学会了整理了一个NAS小专栏,有兴趣的工友可以关注一下 👉 《NAS邪修》




services:
myicon:
image: heizicao/myicon:latest
container_name: myicon
volumes:
- /vol1/1000/docker/myicon/configData:/app/public/configData
ports:
- 3211:3000
restart: always3211,你可以自行配置。NAS的IP:3211 就可以访问 MyIcon了。



Kubernetes 已经从一个通用的容器编排框架,转型成为驱动全球人工智能爆发式增长的核心引擎。 在近期一份报告中,云原生计算基金会(CNCF)着重强调了这一演进趋势,报告探讨了云原生基础设施与机器学习的融合现状。尽管云原生生态的技术能力已高度成熟,但研究显示,人与组织层面的因素,如今已成为 AI 成功落地的最大障碍。 研究表明,对于希望规模化推进人工智能项目的企业而言,云原生技术已经不再是可有可无的方案了。现代化的工作负载需要 Kubernetes 提供的动态资源分配和硬件抽象,尤其是在管理昂贵的 GPU 集群时。然而,这些环境的复杂性仍然是许多工程团队面临的一个痛点。随着行业朝着“云原生 AI”标准迈进,关注点正在从简单的容器化转向复杂的数据管道和模型训练工作流的编排。 尽管使用 Kubernetes 的技术优势显著,但报告指出,基础设施本身的能力与组织有效利用它们的能力之间存在日益增长的差距。许多公司在僵化的层级和孤岛化的结构(这是Puppet识别出的平台工程成熟度的前三大阻碍因素之一)泥潭中苦苦挣扎。CNCF 认为,为了让人工智能蓬勃发展,公司必须培养一种跨职能协作的文化,让数据科学家和 DevOps 工程师更紧密地协同工作。这种文化转变被描述为一个组织能否成功从实验性试点过渡到生产级部署的决定性因素。 CNCF 的 CTO Chris Aniszczyk强调了编排器在当前格局中的基础作用。Aniszczyk 在报告中表示,“Kubernetes 不再是一个小众的工具;它是支持大规模、可靠性和日益增长的 AI 系统的核心基础设施层”。他进一步指出,行业必须努力“降低服务 AI 工作负载的难度,同时大幅增加可用的推理容量”,将其描述为“下一个伟大的云原生工作负载”。这些见解强调了基金会的观点,即强大的技术基础设施现在是 AI 创新的主要推动力。 尽管 Kubernetes 是编排领域的主导性可选方案,2025年它的生产环境采用率达到82%,但是市场上仍有几个替代方案可供组织面临特定需求时予以考虑。主要云服务提供商的专有技术栈,如Amazon SageMaker、Google Vertex AI和Azure Machine Learning,通常能够为较小的团队提供集成度更高的体验,但是也有供应商锁定的风险。此外,在不需要容器编排层开销的场景中,传统的高性能计算集群和裸机部署仍在使用。然而,对于开发者来说,云原生生态系统的灵活性仍然具有很强的吸引力,因为37%的组织现在正在利用多个云提供商来保持供应商中立。 行业的未来似乎正朝着更深入集成专用硬件和自动化资源管理的方向发展。随着组织不断成熟,重点可能会转向简化开发者体验,以降低非基础设施专家的入门门槛。通过解决报告中指出的文化瓶颈,企业可以更好地利用其云原生投资,在未来几年交付更强大、更可扩展的人工智能解决方案。 原文链接: Kubernetes Drives AI Expansion as Cultural Shift Becomes Critical
也是加入大家庭了,祝大家新年快乐,马到功成
艾氏煌蜂

朱红蜂

暗绿绣眼

家朱雀(公)


家朱雀(母)


坐标南京上海的叔叔 2025 下半年身体不好住院,然后有提点说该去拜拜佛。
想春节期间拜拜佛,于是有推荐普陀山的,不知道是不是最优解?
如果去普陀,主要为了拜佛,两天左右的日程,可以上海出发,有什么推荐路线和日程,以及注意事项吗?谢谢!
对了,并不打算问 ai ,想请教实际经验。