模力工场作为官方生态合作伙伴,诚邀您共赴产业前沿盛会——「逐梦 AI ·天使筑基」2026 中关村早期投资论坛暨 AI 新场景产业创新大会。本次大会汇聚政策、资本与产业领袖,深度聚焦机器人、智能体、大模型应用等前沿赛道,共同把脉 AI 趋势、破解落地难题,为您提供决策的一手洞察。1 月 28 日,北京中关村,期待与您共筑未来!
029 周榜单总介绍
模力工场第 029 周 AI 应用榜来袭!本周共有 23 款应用上架,我们从榜单中精选出十款代表性应用与大家分享。本期榜单应用多为近期热门或美国 CES 参展应用,整体呈现“软硬结合、多领域并进”的特点,涵盖大模型应用、智能硬件、生活方式工具及 AI 基础设施等多个方向。从中可以看出,当前 AI 应用正朝着更实用、更集成、更富交互感的方向演进,硬件创新与场景化服务正成为推动 AI 走向普及的关键动力。以下为本周精选的十款应用简介:
模力小 A 推荐:如果说之前的千问还是一位“聊天伙伴”,那么现在的它,已经进化成了能真正帮你“办事”的智能管家。随着 1 月 15 日新版本的发布,千问 App 全面接入了淘宝、支付宝、高德等阿里核心生态,这意味着你可以直接通过和千问对话完成点外卖、买机票、订酒店等一系列操作。
本周上榜应用趋势解读
本周的 AI 趋势呈现出清晰的双线演进:软件正变得更深、更实用,而硬件则在变得更轻、更自然。
软件:从“能说会道”到“能干实事”
近期两个标志性进展值得关注。其一,GLM-Image 登顶 Hugging Face 榜单,证明了国产模型能在专业场景(如法律文书、产品说明)中精准生成文本和图像,同时还具备显著的成本优势,让专业级 AI 工具变得触手可及。其二,千问 App 全面接入阿里生态,意味着 AI 已从单纯的“问答对话”进阶到“办事调度”阶段——用户可以通过自然对话直接完成点外卖、订机票等操作。AI 正从一个聊天对象,转变为串联现实服务的智能中枢。
硬件:从“技术秀场”到“场景适配”
从 CES 的趋势来看,AI 硬件近期正在褪去“极客玩具”的标签,转向更务实的设计哲学:不刻意刷存在感,但需要时总在身边。
入口更轻了:新一代 AR 眼镜(如雷鸟、影目)不再追求取代手机,而是通过更轻巧的设计,专注做好“信息提示”“即时导航”这类“抬头即用”的场景,成为生活中的“第二块屏幕”。类似地,像 Loona DeskMate 这样的产品,让用户闲置的旧手机成为桌面机器人的“面孔”,以几乎零成本的方式,把熟悉的设备变成了桌面上可互动、可陪伴的 AI 伙伴。
SELECT region, SUM(amount) as total_sales
FROM orders
WHERE status = 'completed';
如果有视图,我们可以把查询托管给视图,直接查询视图,可以简化使用。
-- 创建视图
CREATE VIEW sales_summary AS
SELECT region, SUM(amount) as total_sales
FROM orders
WHERE status = 'completed';
-- 查询视图
SELECT * FROM sales_summary;
在全球化生态协作维度,融云 CEO 董晗获评数美科技“星辰奖·智创未来领军人物”。“星辰奖”旨在表彰在 AI 浪潮中通过技术创新驱动行业变革的领航者。 融云此次获评,彰显了融云与全球化生态伙伴在技术互补与商业共建方面的深度互信,折射出共同推进全球数字化转型的生态力量。 秉持“赋能千行百业智能化升级”的初衷,融云致力于打造全球化的智能通信云底座。我们正将硬核的技术能力转化为驱动商业模式重塑的工程化力量,协助开发者高效构建智能互动能力,将技术创新转化为实际的业务增长与运营效率。
上面提到了,这些顶级模型再配合主流的 Vibe Coding 工具,基本上已经能超越大多数资深工程师的水平了。这不仅体现在能写出更少 bug 的代码,也体现在在 review 中能发现更多人类工程师可能看不到的问题,毕竟 AI 真的会一行一行仔细看。
所以人在这个过程中扮演什么样的角色,哪些阶段只有人才能做?根据我自己的实践来说,第一当然是提出需求,毕竟只有你才知道你想要啥,这很显然,但是有时确实也挺难的,毕竟人很难从一开始就准确描述自己想要什么,这时候我会用一个偷懒的办法:让 AI 来角色扮演,比方说,我在开发 PostgreSQL 版本的 TiDB 时,我就让 AI 假设自己是一个资深的 Postgres 用户,从开发者的视角告诉我有哪些特性是非常重要、一定要实现而且 ROI 比较高的,让它列出 N 个这样的功能点,然后 AI 就会根据它的理解生成一个需求列表,接下来你再和 AI 对这些需求逐个打磨,这其实是一个高效冷启动的方法。
第二是在需求提出后,现在的 Coding Agent 大多都会和你有一个规划阶段(Planning),会反复确认你的需求。在这个过程中其实有一些技巧,比如不要给 AI 太具体的方案,而是让 AI 来生成方案,你只需要关注最终你想要的结果;提前告诉 AI 有哪些基础设施和环境的问题,让它少走弯路。
第二个阶段就是漫长的调查、研究和分析的阶段。这个阶段其实基本上不需要人做什么事情,而且 Agent 的效率比人高得多,你只需要等着就好。唯一需要注意的就是在 Research 的过程中,我通常会告诉模型它拥有无限的预算和时间,尽可能充分地进行调研。另外,如果你的模型有推理深度的参数的话,我建议在这个阶段把它们全部调到 xhigh 的级别。虽然这会让过程变慢,但在这个阶段多烧一些 token、做好更好的规划、了解更多上下文,对后续的实现阶段会更有帮助。
实现阶段没什么特别好说的,反正我现在基本不会一行行去看 AI 的代码。我觉得在实现阶段唯一要注意的就是,要么你就让 AI 完全去做,要么你就完全自己做,千万别混着来,我目前是倾向于完全零人工干预的模式效果更好。
第四个阶段人就变得非常重要了,那就是测试和验收结果的阶段。其实在我个人和 AI 开发项目的过程中,我 90% 的时间和精力都花在了这个阶段:也就是如何评估 AI 的工作成果,我觉得在 Vibe Coding 时:There's a test, there's a feature,你只要知道如何评估和测试你要的东西,AI 就一定能把东西给你做出来。另外值得注意的是,AI 在实现过程中会自动帮你添加很多单元测试,但说实话,这些单元测试在微观层面基本都能通过,毕竟 AI 写这种局部代码时已经很难出 bug。
但 AI 不擅长的是集成测试、端到端测试。比如在开发一个 SQL 数据库时,哪怕每个细节的单元测试都没问题,但整合到一起时集成测试可能会出错。所以我在完成大目标前,我一定会先和 AI 一起做一个方便的集成测试框架,并提前准备好测试的基础设施,收集和生成一些现成集成测试的用例,尽量一键能运行那种,这样在开发阶段就能事半功倍,而且关于如何使用这些测试的基础设施的信息,我都会在正式开始前就固化在 agents.md 里,这样就不用每次沟通的时候都再告诉它该怎么测试了。
关于测试从哪来的问题,我自己的经验是你可以让 AI 帮你生成,但一定要告诉它一些生成的逻辑,标准和目的,另外就是千万不要把生成测试的 Context 和实际进行开发工作的 Agent 的 Context 混在一起。