标签 IQuest-Coder-V1 下的文章

1 月 1 日 至知创新研究院(IQuest Research)发布全新一代开源代码大模型 IQuest-Coder-V1 系列 。当时宣传性能强劲,在自主性软件工程、竞赛编程等关键维度上,成为了当下开源模型 SOTA。当时的介绍在这里:
九坤投资创始团队成立至知创新研究院,发布开源国产代码大模型 IQuest-Coder-V1,声称开源模型 SOTA,只需 40B 就能秒杀部份闭源模型 - 前沿快讯 - LINUX DO

很快有社区用户(@xeophon)发现在 SWE-bench 测试中,官方配置有无,模型输出中错误引用了 未来日期的 Git commit,相当于考试直接看到答案,大概 24% 的内容都受到了影响,此次测试无效。

好在官方态度比较积极,修复问题后进行了重新评估:

这就是原帖楼下那位发现官方修改评分表现的原因。

之后@HaohaoHenr56041对 Loop-Instruct 版模型做了部署,他的评价是:

・前端设计:与 M2.1 或 GLM4.7 等最新型号相比,差距显著。

・速度:极其缓慢。在两台 A100 80G 处理器上,处理速度仅约为 15 t/s(批处理大小为 1)。

随后 Uncheatable Eval LLM Compression Leaderboard 榜单更新了 base 版模型的评分,可以看到其能力和 Qwen3-14B 相当


(分数越低越好,图源,也是文章资料来源

需要注意,这里测评的是 base 版模型,而不是得分最高的 loop 版本。


📌 转载信息
原作者:
11111111111ge1
转载时间:
2026/1/3 11:49:42

2025 年跨年之际,国内量化私募巨头九坤投资(Ubiquant)创始团队发起的 AI 研究机构 —— 至知研究院(IQuest Research)正式发布其首代开源代码大模型系列 IQuest-Coder-V1。该系列模型在多项权威编程评测中表现强劲,尤其在反映真实软件工程能力的 SWE-bench 指标上,以 81.4% 的成绩刷新了开源模型纪录。

至知研究院由九坤投资创始团队设立,是一个独立于量化交易业务的研究平台。继幻方量化旗下的 DeepSeek 在全球 AI 领域声名鹊起后,九坤背景的至知研究院此番动作被市场视为量化圈在 AGI 领域的又一次 “降维打击”。至知研究院表示,其目标是致力于原创性 AI 技术研究,加速 AI 在垂直领域的工业化落地。

技术突破:从 “静态代码” 到 “动态流”
IQuest-Coder-V1 放弃了传统的静态代码训练模式,转而采用创新的 Code-Flow 训练范式。该模型通过学习代码库的历史演变和 Commit 记录,掌握了软件开发的动态逻辑。此外,研究院同步推出了 “Thinking” 推理模型“Loop” 循环架构 模型,前者通过强化学习模拟人类程序员的思考过程,后者则在有限的参数规模下实现了性能的跨越式提升。

目前,IQuest-Coder-V1 已在 GitHub 和 Hugging Face 平台全面开源,涵盖从 7B 到 40B 不同参数规模的版本。技术社区普遍认为,IQuest-Coder-V1 的发布将直接挑战 DeepSeek-Coder 在开源代码界的统治地位,为开发者提供更具竞争力的自主编程助手。

介绍页 demo

模型仓库


📌 转载信息
原作者:
HCPTangHY
转载时间:
2026/1/1 16:10:14

1 月 1 日消息,至知创新研究院(IQuest Research)发布全新一代开源代码大模型 IQuest-Coder-V1 系列。据介绍,模型在自主性软件工程、竞赛编程等关键维度上,成为了当下开源模型 SOTA。据悉,至知研究院当前在医疗、LLM、数学、生物、电力等多个方向展开研究和布局,未来还将携手业界开展面向实际场景的技术研发与投资合作,加快技术成果的产业化进程。

据了解,至知创新研究院由九坤投资创始团队发起设立,是独立于量化投研体系的全新平台。至知研究院网页显示,其定位为一个加速 AI 应用落地的研究型组织,致力于为前沿 AI 技术研究做出原创性贡献,加速 AI 在更多垂直领域的应用。

  • 最先进的性能:在 SWE-Bench Verified(81.4%)、BigCodeBench(49.9%)、LiveCodeBench v6(81.1%)及其他主要编程基准测试中取得领先成绩,在代理式软件工程、竞技编程以及复杂工具使用方面均超越同类模型。
  • Code-Flow 训练范式:超越静态代码表示,我们的模型从代码库的演化模式、提交变更和动态代码转换中学习,以理解真实世界的软件开发流程。
  • 双重专业化路径:后训练被分为两条专门化路径 ——Thinking 型(采用以推理为驱动的强化学习,擅长复杂问题求解)和 Instruct 型(为通用编码助手与指令遵循优化)。
  • 高效架构:IQuest-Coder-V1-Loop 变体引入循环机制,优化模型容量与部署开销之间的权衡。
  • 原生长上下文:所有模型原生支持最多 128K Token 的上下文,无需额外的扩展技术。

限制

  • 推理与效率的权衡:Thinking 型模型具备更强的推理能力,但通常生成较长的响应;Instruct 型模型在处理简单任务时更加高效。
  • 代码执行:模型可以生成代码,但不会执行代码;务必在沙箱环境中验证输出。
  • 领域特异性:尽管模型在多样化代码库上训练,但在高度专业化或专有框架上的表现可能有所不同。
  • 事实性:模型可能生成看似合理但不正确的代码;对关键实现进行彻底验证。

Source: 九坤创始团队成立至知创新研究院 开源模型发布_网易科技


📌 转载信息
原作者:
BunnHack
转载时间:
2026/1/1 15:26:22