标签「KV Cache」下的文章

腾讯发布了首个 Diffusion 大语言模型 WeDLM-8B

在数学推理任务中,相比经 vLLM 优化的 Qwen3-8B,速度提升 3–6 倍在大多数基准测试中,性能超越原始的 Qwen3-8B-Instruct原生支持 KV Cache(兼容 FlashAttention、PagedAttention、CUDA Graphs)…