2026年3月

先放链接:

- 🌐 Demo: https://ai-tools-hub-xi.vercel.app
- 📦 GitHub: https://github.com/finvfamily/ai-tools-hub

---

## 做这个的起因

自己平时要调研 AI 工具,发现 futurepedia 之类的导航站信息太杂、更新不及时,而且大多数是英文站,作为开发者用起来不够顺手。

于是想自己做一个,同时也当作一个「完整产品的模板」开源出来——很多人想做独立产品但不知道从何下手,希望这个项目能提供一个可以直接参考的真实案例。

---

## 功能

**工具导航部分**
- 按分类浏览(写作、图像、代码、视频等 10 个分类)
- 支持社区提交工具,人工审核后上线
- 每个工具有截图、标签、定价、官网直链
- 自动通过 Microlink API 抓取网站截图

**社区部分(这次新加的)**
- 类 V2EX 的讨论版,7 个节点(展示台、创意工坊、工具讨论等)
- GitHub OAuth 登录,一键注册
- 支持 Markdown 编辑器发帖(@uiw/react-md-editor )
- 帖子按最后活跃时间排序,回复会「顶」帖子
- 个人主页可编辑 bio

---

## 技术栈

```
前端:Next.js 15 (App Router) + TypeScript + Tailwind CSS + shadcn/ui
动效:Motion (Framer Motion v12)
数据库:Supabase (PostgreSQL + Row Level Security)
认证:Supabase Auth (管理员 email/password + 社区 GitHub OAuth )
截图:Microlink API
部署:Vercel
```

整体走的是「尽量少的技术债」思路——没有自建后端,全部用 Supabase + Vercel 的 Serverless ,个人开发者免费额度内基本够跑。

---

## 视觉风格

深色背景 + 渐变光晕 + 玻璃卡片,参考了一些海外 AI 产品的设计语言。

动效用了 Motion ,主要是卡片 hover 的微交互和列表的 stagger 入场,不是为了炫技,是为了让页面有点「活」的感觉。

---

## 自部署很简单

```bash
git clone https://github.com/finvfamily/ai-tools-hub
cd ai-tools-hub
npm install

# 配置 .env.local ( Supabase URL/Key 就够跑起来)
cp .env.example .env.local

# 在 Supabase SQL Editor 跑两个文件
# supabase/schema.sql
# supabase/community.sql

npm run dev
```

README 里有完整的自部署指南和环境变量说明。

---

## 后续计划

- [ ] 工具详情页 SEO 优化( OG 图、sitemap 已做)
- [ ] Google AdSense 接入(广告位已预留)
- [ ] 社区帖子点赞、收藏功能
- [ ] 开源一批「 AI 工具示例」放在独立 repo ,用来启发大家把 idea 落地

---

## 一点想法

做这个项目的初衷不只是「做一个导航站」,而是想证明**一个人在业余时间用现代工具栈可以做出多完整的东西**。

从立项到现在大概两周,数据库设计、前端、部署、OAuth 、社区功能都有,代码量不算少,但每一块都能在 GitHub 上找到对应的实现。

如果你正在学 Next.js + Supabase ,或者想做一个类似的导航/社区产品,欢迎直接 fork 当脚手架用。有问题可以在这里回复,或者开 issue 。

---

*附:如果你在用 AI 做有意思的东西,也欢迎来站里的社区聊聊: https://ai-tools-hub-xi.vercel.app/community *

上海自如口碑一直较差,以前看 diygod 在家睡觉被破门而入,没想到今天也轮到我了。

上午自如管家突然说让我 2 天内补交尾款,否则冻结门锁。我赶紧看合同,3 个月总金额 1.6w ,7k 定金已交,本来尾款约定 15 天内对公打款,入住第 8 天,开始用冻结门锁威胁我在第 11 天必须打款。我让他提供冻结门锁的合同依据,给不出来。

我是企业租房,知道他想借此施压让我去催公司付款流程。确实被恶心到了,更不可能帮他催流程。

后面准备安装阻门器+录音+摄像头,防止整别的死出。

大家用自如租房得注意避坑,租客没违约的情况下,管家是没有权利以冻结门锁提要求的,合同上也没写这种条款。自如很多贴牌房,很不正规,看房某自如寓,对公转账+开发票,要求租客补 3%税点。企业租房整体成本比链家这种收半个月中介费更高。

最讨厌被威胁,有机会的话,我要推动部门换掉自如😡。

https://s41.ax1x.com/2026/03/04/pe9MxAI.jpg

二手东现在买三次两次是这样的,然后说退 6 元,把我逗笑了,回复全是和机器人聊天发发❤️🌹。

贝尔金自营真的活该完蛋,溢价这么高服务还这么敷衍。JD 全价买还这样,体验真不如鱼。

10 年用户直接祛除,懒得扯皮,也不退了,一肚子🔥。

昨天买了三颗 anker 包装就干干净净,不如支持国产。

之前在支付宝买了不少基金,会给一些比较实用的福利,像每个月 100 块加油卡,8.88 话费红包,一杯星巴克这些,还有每年两次的免费接送机也挺不错。
结果 2026 年支付宝改版,福利大缩水,现在搞成每个月送 V 钻,然后自己去兑换福利,结果每个月送的 V 钻够兑的只有 8.88 的红包了,想兑 100 块的油卡得攒大半年。要想保持原来的福利得放 600 万,这我是万万拿不出来的,当然即使能拿出来我也不会拿,这种背刺用户的行为实在太恶心了。
本来年初这个改版已经被喷得不行了,当时还想着支付宝会不会注意到用户的声音,给改回去,但过了两个月一点动静都没有。所以现在理财不打算继续放支付宝了,想换个平台。

目前已经调研的平台:

  1. 券商场内:手续费较低,买卖更灵活。但这对我来说是缺点:因为我会忍不住盯盘,然后不停微操做 T,一是浪费时间,二是容易赚小亏大,所以 pass
  2. 腾讯理财通:每个月送腾讯的全家桶服务,但我腾讯的服务用得极少,另外理财通取出来手续费贼高,所以 pass
  3. 京东金融:每个月有 16 块话费红包,plus 会员免申购费,缺点是 app 做得很烂,各种诱导的牛皮癣弹窗,个人很讨厌这种,一点都不像是理财 app,像是一帮高 KPI 压力的人做出来的缝合怪
  4. 天天基金:每个月有大概几十块钱的基金购买优惠券,免申购费

目前初步意向是天天基金了,不知道兄弟们还有没有其它不错的理财平台推荐?

如果你负责一整套项目图纸,几十张甚至上百张 DWG 文件,

需要统一转换成低版本归档或发给施工方,

一张一张手动转换,不仅枯燥,还极其浪费时间。

浩辰 CAD 看图王的批量版本转换功能,就是为解决这类痛点而生。

它支持一次性选中多张、甚至整个文件夹的图纸,

统一设置转换后的版本格式,一键批量处理。

优势非常明显:

批量转换,省时省力

转换稳定,不崩溃、不丢图

保留原图层、原样式、原标注

支持后台处理,不影响其他工作

转换后可直接用于打印、交底、归档

特别适合这些场景:

设计院项目出图前统一版本

施工单位图纸交底、下发

资料员整理竣工图纸

甲方、监理审核前格式统一

过去几小时的工作量,现在几分钟就能完成。

批量 CAD 版本转换,用浩辰 CAD 看图王,让效率飞升。

论文名称:Watching, Reasoning, and Searching: A Video Deep Research Benchmark on Open Web for Agentic Video Reasoning
作者团队:兰州大学、香港科技大学
Github地址:https://github.com/QuantaAlpha/VideoDR-Benchmark
论文链接:https://arxiv.org/pdf/2601.06943
Lab4AI链接:https://www.lab4ai.cn/paper/detail/reproductionPaper?utm_sour...

论文简介

该论文聚焦于开放网络环境下的视频深度推理任务,针对现有多模态评估中视频推理能力薄弱、深度研究基准多以文本为核心、缺乏对视频线索与开放网络证据联合推理评估的研究缺口,提出了首个视频深度研究基准VideoDR。
VideoDR以视频条件下的开放域事实性问答为核心,要求模型完成跨帧视觉锚点提取、交互式网络检索及视频-网络联合证据的多跳推理,通过严格的人工标注与质量控制(含视频-网络依赖测试、人工盲测等),构建了涵盖日常生活、经济、技术、文化、历史、地理六大语义领域的100个高质量样本,样本在视频时长、问题难度上呈现多样化分布。
研究选取主流闭源(如GPT-4o、Gemini-3-pro-preview)与开源(如MiniCPM-V 4.5、InternVL3.5-14B)多模态大语言模型,在Workflow(两阶段:视频线索提取为文本+后续推理检索)和Agentic(端到端:原始视频+问题直接输入,自主完成全流程)两种范式下开展评估,从难度、视频时长、语义领域三个维度进行分层分析。
该研究首次定义了视频深度研究任务,构建的VideoDR基准为开放网络视频推理代理的研究提供了系统评估工具,揭示的关键挑战为下一代模型优化指明了方向。

论文核心内容总结

1. 研究背景

  • 现有多模态评估中,视频推理仍是薄弱环节,既需跨时间线索跟踪与时空建模,又受限于封闭证据设置,模型无需结合开放网络证据进行推理。
  • 深度研究代理已推动问答向开放网络主动证据探索发展,但相关基准多以文本查询为起点,视觉内容仅被视为静态辅助信息,未作为需精准跟踪的关键证据。
  • 现实场景中,视频常承载决定性线索,用户针对视频的开放域事实性问题需结合跨帧视觉线索与开放网络证据解答,而现有基准无法覆盖该需求。

2. 研究目的

  • 定义视频深度研究任务,将视频理解从封闭语境感知转向以视频线索为锚点的开放网络主动多跳搜索与推理。
  • 构建高质量视频深度研究基准VideoDR,系统评估模型结合视频跨帧视觉线索与开放网络证据进行多跳推理的能力。
  • 明确Workflow和Agentic两种范式下主流多模态大语言模型的能力边界,揭示下一代视频深度研究代理的核心瓶颈。

3. 本文核心贡献

  • 首次定义视频深度研究任务,实现从封闭视频理解到开放网络视频线索驱动推理的范式转变。
  • 构建首个视频深度研究基准VideoDR,通过严格人工标注与质量控制,确保样本对视频跨帧线索和网络证据的双重依赖。
  • 系统评估两种范式下的主流模型,明确Goal Drift(目标偏移)和Long-horizon Consistency(长时一致性)是核心瓶颈,为模型优化提供方向。

4. 研究方法

  • 数据构建:通过候选视频池构建、初步筛选、问题设计三步标注流程,结合视频-网络依赖测试和人工测试双重质量控制,最终形成100个覆盖6个语义领域的样本。
  • 实验设计:选取封闭源(如GPT-4o、Gemini-3-pro-preview)和开源(如MiniCPM-V 4.5、InternVL3.5-14B)主流多模态模型,在Workflow和Agentic两种范式下开展实验。
  • 评估维度:从难度、视频时长、语义领域三个维度进行分层分析,采用LLM-as-judge协议(DeepSeek-V3-0324)评估答案语义一致性。

5. 研究结果

  • 模型性能呈现明显分层,Gemini-3-pro-preview在两种范式下均表现最优(Agentic范式下平均准确率76%),开源模型整体表现较弱。
  • Agentic范式并非始终优于Workflow,其效果依赖模型在多轮搜索推理中维持初始视频线索的能力,强模型在中高难度、中长时长视频任务中更易体现优势,弱模型则易出现目标偏移。
  • 不同语义领域中两种范式各有优劣,数值可靠性是当前所有模型的共性薄弱点。

6. 总结与展望

总结

  • 视频深度研究基准VideoDR有效填补了现有评估空白,明确了主流多模态模型在视频线索与开放网络结合推理任务中的能力边界,证实目标偏移和长时一致性是核心制约因素。

局限性

  • 样本的中间搜索查询和推理路径源于专家标注者的主观搜索行为,未覆盖现实中多样化的用户搜索策略。

未来方向

  • 收集更多样化的人类搜索日志,更好地建模用户-代理交互的多样性,进一步优化基准的泛化性。
  • 针对目标偏移和长时一致性瓶颈,探索更有效的模型架构设计或训练策略,提升视频线索的持续利用能力。

如今企业在数字化转型过程中,服务器等IT设备放哪儿、怎么管,确实是个需要仔细考量的问题。越来越多的企业选择将设备托管到专业的IDC机柜中心,这不仅能保障数据安全,还能让企业更专注于自身业务发展。

IDC机柜托管本质上是一种"专业代管"服务。企业把自有服务器、存储和网络设备放在专业数据中心里,由服务商提供稳定的电力、网络环境和专业运维。这就像把贵重物品存放在专业的保险库,既安全又省心。

选择机柜托管,企业看重的首先是专业保障。像极云科技的IDC中心,都采用Tier III+设计标准,配备2N冗余供电系统,从市电到UPS再到柴油发电机都是双备份,网络采用BGP多线接入,确保业务持续在线。这些基础设施的可靠性,企业自建机房很难达到同样水平。

安全防护也是重要考量。专业IDC中心不仅配备门禁系统、视频监控、红外报警等物理安防,在网络安全层面还部署了下一代防火墙、DDoS防护和入侵检测系统。极云科技还会对托管设备进行安全基线检查,定期做漏洞扫描,这些系统化的安全措施远超普通企业的自建标准。

运维团队的专业性同样关键。IDC中心提供7×24小时现场运维,包括硬件巡检、故障排查和设备维护。极云科技的工程师都经过专业认证,能快速定位和解决各类技术问题,这种专业支持对企业来说价值很大。

扩展灵活性也很重要。随着业务发展,企业可能需要增加机柜空间或升级带宽。在极云科技,客户可以根据业务需求随时调整资源配置,从单个U位到整柜租用都很灵活,既不会因为资源不足制约发展,也不会为闲置容量浪费预算。

总的来说,IDC机柜托管让企业既能完全掌控自己的硬件设备,又能享受专业机房的环境和运维支持。这种模式特别适合对数据安全、业务连续性要求较高的企业。

如果你正在为服务器运行环境寻找可靠的解决方案,欢迎了解极云科技的IDC机柜托管服务。我们在全国多个核心城市拥有高标准数据中心,提供从机柜租用到整机房定制的全套方案,专业团队、标准流程,为你的业务数据提供安全可靠的家。

一、 实时协作的挑战:幻觉与真相

在 Web Excel 这种高频交互的应用中,用户感受到的“实时”其实是一种技术构建出来的“幻觉”。

由于网络延迟的物理存在,用户 A 的修改传到服务器需要时间,服务器再广播给用户 B 也需要时间。在这个“时间差”里,用户 B 可能也进行了一次修改。如果系统只是简单地按照“谁最后到达服务器谁就生效”的规则(Last Write Wins),那么先到达的数据就会被覆盖,用户的工作成果会无故丢失。

在这里插入图片描述

更糟糕的是,如果两人操作的是位置相关的逻辑(例如:Alice 在第 5 行插入数据,而 Bob 删除了第 2 行),如果不进行逻辑转换,Alice 的数据最终可能会出现在错误的位置。

OT 算法的核心使命,就是让每个客户端在接收到远程指令时,能够根据自己当前的上下文环境,对该指令进行“二次加工(转换)”,从而达成全局一致。

二、 解剖操作意图:什么是 Op (Operation)?

在 SpreadJS 的协同世界里,所有的变更都被抽象为 Op(操作)。Op 是对文档状态单次修改的严谨描述。

1.客户端 Op:纯粹的操作描述

当你在 SpreadJS 单元格输入“Hello”时,客户端会产生一个简单的 Op:

// 示例:在文档位置 1 插入文本 'hello'
sharedDoc.submitOp({ pos: 1, text: 'hello' })

2.服务端 Op:带有元数据的“身份牌”

当这个 Op 到达协同服务器后,js-collaboration-ot 模块会为其添加元数据,使其具备可追溯性和唯一性:

  • src (Source Identifier): 标识是哪个用户提交的。
  • seq (Sequence Number): 该用户提交操作的序号。
  • v (Version): 该操作对应的文档版本号。

通过 srcseq 的组合,服务器可以检测网络不稳定导致的重复提交;通过 v 版本号,服务器可以判断该操作是否已经过时,是否需要进行转换。

在这里插入图片描述

三、 OT 算法的实战:从“xyz”到“xaybz”的冲突之旅

为了通俗易懂地解释 OT,我们参考 SpreadJS 产品文档中的经典案例:

初始状态: 共享文档中只有三个字符 "xyz"并发场景:

  • 用户 A: 意图在位置 1(x 和 y 之间)插入字符 "a",期望结果:"xayz"
  • 用户 B: 意图在位置 2(y 和 z 之间)插入字符 "b",期望结果:"xybz"

场景 1:如果没有 OT(导致数据不一致)

  1. 服务器先收到 A 的操作,应用后文档变为 "xayz",并广播给 B。
  2. 服务器接着收到 B 的操作(位置 2,插入 "b")。服务器在 "xayz" 的位置 2 插入 "b",结果变为 "xabyz"
  3. 冲突发生: 当 B 的原始操作(位置 2,插入 "b")传给 A 时,A 当前的文档是 "xayz"。如果在位置 2 插入 "b",A 的屏幕上会显示 "xabyz"
  4. 而当 A 的操作传给 B 时,B 当前的文档是其本地修改后的 "xybz"。如果在位置 1 插入 "a",B 的结果变成了 "xaybz"

结果: A 看到的是 "xabyz",B 看到的是 "xaybz"。两边数据不一致,系统崩溃。

场景 2:有了 OT 的优雅转换

OT 的精髓在于 transform 函数。当 B 的操作到达 A 时,A 并不直接执行它,而是先问一下系统:“在我已经执行了 A 操作的前提下,B 操作应该怎么变?”

  1. 转换逻辑: 既然 A 已经在位置 1 插入了一个长度为 1 的字符 "a",那么原来在位置 2 的操作意图,现在应该“自动往后挪一位”,变成在位置 3 插入。
  2. 执行结果: A 执行转换后的 B 操作(位置 3 插入 "b"),得到 "xaybz"
  3. 对称同步: 同理,B 在接收 A 的操作时,判定 A 的插入位置(pos 1)在自己操作位置(pos 2)之前,因此 A 的操作位置不需要变。B 执行 A 操作后,结果也是 "xaybz"

最终: 全局一致,冲突消失。

在这里插入图片描述

四、 SpreadJS 协同框架中的 OT 实现

在 SpreadJS 协同插件中,开发者无需手动编写复杂的转换逻辑,js-collaboration-ot 已经封装好了核心底座。

1.OT 类型的定义

通过 OT_Type 接口,系统定义了如何创建快照、如何转换操作以及如何应用操作。

codeTypeScript

export interface OT_Type<S = unknown, T = unknown> {
  uri: string; // 类型唯一标识
  transform(op1: T, op2: T, side: 'left' | 'right'): T; // 核心转换函数
  apply(snapshot: S, op: T): S; // 应用操作
}

其中的 side 参数('left' 或 'right')非常巧妙,它用于处理“平局”情况:如果两个用户同时在同一个位置插入字符,系统通过 side 约定谁的字符排在前面,确保无论在哪个客户端,转换结果都绝对统一。

2.注册与绑定

开发者只需要在客户端和服务端通过 TypesManager.register(type) 注册相同的 OT 类型,SpreadJS 就会自动接管后续的冲突处理。

对于 SpreadJS 的专用表格协同,spread-sheets-collaboration-addon 已经内置了符合 Excel 逻辑的复杂 OT 类型。它不仅能处理简单的字符串,还能处理单元格属性、行列增减、公式重新计算等复杂的表格逻辑。

五、 意图同步 vs 结果同步:为什么 OT 更适合企业级 Excel?

有些简单的同步方案采用的是“全量结果同步”,即每次修改都把整个单元格甚至整个表格发给后端。这在企业场景下是不可接受的:

  1. 性能开销: 巨型 Excel 文件动辄几十 MB,全量传输会瞬间拖垮网络。
  2. 语义丢失: 结果同步无法表达“插入一行”这种语义。如果两个人同时插入行,结果同步会导致其中一个人的插入被完全抹除;而 OT 能够理解“插入”的意图,最终结果是增加了两行。

SpreadJS 采用 OT 算法,实现了真正的“意图同步”。 它传输的是轻量级的指令流,这使得它在处理超大型文档和高并发协作时,依然能保持极低的延迟和极高的准确度。

六、 总结:严谨,是协同的第一要素

对于金融、财务、生产制造等企业级应用来说,数据的准确性高于一切。SpreadJS 协同插件通过底层的 js-collaboration-ot 模块,将深奥的操作转换理论转化为开箱即用的能力。

OT 算法不仅仅是解决冲突,更是对用户劳动成果的尊重。 它确保了每一处修改都能被正确地理解、转换并应用,让多人在线协作从“敢看不敢改”变成了真正的“放心协作”。

在了解了冲突解决的底层逻辑后,你可能会好奇:在视觉上,我们如何知道其他用户正在做什么?如何避免两个人在完全不知道对方存在的情况下修改同一个格子?

下一篇文章,我们将聊聊协同中的“上帝视角”——Presence 插件与实时状态共享。敬请期待。

技术要点回顾:

  • Op 是协作的最小单元,包含操作位置、内容及版本元数据。
  • Transform (转换) 是 OT 的核心,通过调整 Op 的位置偏移处理并发冲突。
  • 一致性:OT 确保了所有客户端在处理完相同序列的 Op 后,文档状态绝对相等。
  • SpreadJS 优势:内置针对 Excel 逻辑优化的 OT 类型,支持复杂表格操作。

扩展链接

可嵌入您系统的在线Excel

就是说现在的 vibe coding 就是在 coding ,无法进行实际调试的吧?
wordpress 主题要看到效果,得安装到 wordpress 网站上才行,我用的这个 glm5 模型,我让他生成,憋了半天憋不出来。
你们猜猜,如果让它写一些简单的 html 页面,然后截一张图在文件夹里面,能做到么?

如题
我都用无忧行不插国内卡,esim 数量限制还是太麻烦了
淘宝京东问客服入库时间(apple store 淘宝店大概率会 ota ,分销商我估计不会,所以入库时间 11 月前应该还是 26.0)就是一句随机发货
我会买 ac+
我都可以接受美版有锁但是 ac+保修存疑

两家谈了男方出彩礼包含订婚酒水香烟黄金约 50W ,女方陪嫁未知,说是不能问,目前是谈完了,毕竟涉及到金钱谈的过程中有拉扯环节,但是女友因为这个,觉得我爸爸不好相处,一开始我以为是玩笑,元宵节前喊了好几次来家里吃饭(加上我女友就四个人)一直说看看,结果元宵节确实没来,告知我是这个原因,搞得我挺不舒服的。

家庭情况,我家是普通城市家庭房车都有,女友农村家庭,我工作年收入 10w 出头,女友估计比我少点也差不太多。

PS: 订婚我这儿是没有什么要求的,就是两家人吃饭,但是她们那边要办酒男方出钱。

困扰: 感觉是女友周围的人跟她说了什么,她很听闺蜜的话,导致这个问题。我内心想法是我父母掏了这么多钱,还得被蛐蛐,有点不想结婚了

哎,发发牢骚

如何写提示词?

现在这么 AI 大模型这么流行。不论是写代码,还是文生图,文生视频,用的人都非常多了已经。那么各位大佬,我想问一个问题:
如何写提示词? 或者说,如何快速写一个简单且直接的提示词?大家也可以分享一下,自己写提示词时的方式技巧,共同学习。

这里是 「RTE 开发者日报」,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real-Time Engagement) 领域内「有话题的技术」、「有亮点的产品」、「有思考的文章」、「有态度的观点」、「有看点的活动」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。

本期编辑:@瓒an、@鲍勃

01 有话题的技术
1、亚马逊公布新款自研 AI 芯片 Trainium 3

日前,亚马逊云科技 CEO Matt Garman 在 re:Invent 2025 活动上,正式公布了亚马逊自研 AI 芯片 Trainium 系列的最新进展。

会上,Amazon Trainium 3 UltraServers 正式发布。

据介绍,这是亚马逊云科技首款搭载 3 纳米工艺 AI 芯片的服务器,相较 Amazon Trainium 2,不仅计算能力提升 4.4 倍、内存带宽提升 3.9 倍,每兆瓦算力可处理的 AI token 数量更实现了 5 倍增长。

服务器最高配置 144 个芯片,提供惊人的 362 petaflops FP8 计算能力。在运行 OpenAI 的 GPT-OSS-120B 模型时,每兆瓦输出 token 数是 Amazon Trainium 2 的 5 倍以上,实现超高能耗比。

同时,Matt Garman 还首次披露了 Amazon Trainium 4 芯片,并承诺将实现较 Amazon Trainium 3 六倍的 FP4 计算性能、四倍内存带宽和两倍高内存容量。

据悉,亚马逊云科技目前已完成超 100 万个 Trainium 2 芯片的规模化部署,为 Amazon Bedrock 中大部分推理工作提供核心算力支持,包括 Claude 最新一代模型的高效运行。

( @APPSO)

2、Meta Reality Labs 挖角苹果交互设计负责人 Alan Dye

今天凌晨,彭博社记者 Mark Gurman 发文透露,苹果人机交互设计副总裁 Alan Dye 被 Meta 挖角。

据悉,Dye 自 2015 年以来,一直担任苹果的用户界面设计团队的负责人。 而本次被挖角后,苹果将用长期设计师 Stephen Lemay 顶替 Dye 的岗位。

值得一提的是,Dye 曾负责监督 iOS 26、液态玻璃界面、Vision Pro 界面、watchOS,以及各种系统交互层面内容(如空间计算交互、灵动岛)。

报道指出,Dye 在乔布斯离开后,一直担任着重要角色:帮助公司定义了最新操作系统、App 以及设备的外观。另外,Dye 在苹果的团队也帮助开发一系列新的智能家居设备。

Meta 方面,随着 Dye 加入,该公司正在创立一个新的设计工作室,并且有 Dye 负责硬件、软件和 AI 集成方面的界面设计。

Dye 将向负责现实实验室的首席技术官 Andrew Bosworth 汇报工作,而现实实验室负责开发可穿戴设备,如智能眼镜和虚拟现实头戴式设备。Gurman 透露,Dye 将于 12 月 31 日正式开始担任团队首席设计官。

而且 Dye 还不是一个人走的,他还带走了苹果设计部门的高级总监 Billy Sorrentino。后者从 2016 年起就在苹果,主要负责 VisionOS 的用户界面设计。

( @APPSO)

3、小米卢伟冰:AI 与物理世界的深度结合是智能科技的下一站

12 月 3 日,@卢伟冰 在社媒发布卢伟冰答网友问第十二期,在回答「罗福莉加入了小米,未来在 AI 上会有什么新的战略」时表示:

其实我们在前几个季度就已经开始了在 AI 上的压强式投入,虽然不能透露太多,我们在 AI 大模型和应用方面的进展远超预期,我们认为 AI 与物理世界的深度结合是智能科技的下一站,小米也非常渴望人才尊重人才,也希望能够给优秀的人才提供好的发展平台。

95 后罗福莉出生于四川,父亲是一名电工,母亲是教师。她本人曾就读于四川宜宾市第一中学校 「清北班」,并以优异成绩考入北京师范大学,后被保送至北京大学深造。

在北大读硕士期间,她于 2019 年在人工智能领域顶级国际会议 ACL 上发表了 8 篇论文,其中 2 篇为第一作者。毕业后,她先后在阿里达摩院、幻方量化、DeepSeek 工作,主导开发了多语言预训练模型 VECO,并参与研发了 MoE 大模型 DeepSeek-V2。

11 月 12 日,罗福莉在朋友圈发文,正式宣布自己已经加入小米。

11 月 19 日消息,小米公司今日官宣,12 月 17 日,小米将在北京·国家会议中心举办「人车家全生态」合作伙伴大会。主论坛时间为上午 10:00-12:15,全程开放线上直播。

作为小米 MiMo 大模型负责人,罗福莉将在主论坛发表题为《Xiaomi MiMo:小米基座大模型》 的主题演讲,这是她自 11 月 12 日加入小米后的首次公开亮相。

(@荆楚网)

02 有亮点的产品
1、Peopleboxai 推出 Nova:首款「人性化」AI 面试官,优化招聘流程

Peopleboxai 发布了其 AI 产品「Nova」,号称是「人性化」的 AI 面试官。Nova 能够自动化包括简历筛选、电话面试、视频面试、实时编码测试以及生成决策报告在内的整个第一轮招聘流程,显著加快招聘速度并提升效率。

全流程自动化: Nova 能够处理从简历筛选、联系候选人(通过 InMail、邮件、电话)到进行全面的语音/视频面试,甚至执行高级编码测试,直至提供详细的、可直接用于决策的报告。
高度「人性化」体验: Nova 被设计成「最佳招聘官和面试官的数字孪生」,能够模拟自然的暂停、语气和「嗯」等语用标记,提供友好的、类似真人的互动体验,候选人对其评价很高。
定制化与智能化: 用户可以根据自己的需求定制 Nova 的面试风格,包括技能深度、难度、面试类型、语调和结构。Nova 还能从公司过往的招聘数据(职位描述、面试记录、ATS 笔记等)中学习,提升其判断能力。
显著提升效率: Nova 帮助客户将第一轮面试报告的完成时间从 4-5 周缩短到 48 小时以内,为招聘团队节省了大量时间,使其能专注于更具战略意义的工作。
覆盖多渠道招聘: Nova 不仅处理入站(inbound)和内推(referral)的候选人,还能主动进行外呼(outbound)候选人搜寻和联系。
Nova 产品已上线,用户可通过 Peopleboxai 官网了解更多信息并申请试用。

(@Y Combinator Launches)

2、理想汽车发布首款 AI 眼镜 Livis:标配蔡司镜片 补贴后售价 1699 元起

12 月 3 日,理想汽车举办线上发布会,正式推出其首款 AI 智能眼镜 Livis。售价 1999 元起,12 月 31 日前下订可享受 15% 政府补贴,补贴后价格仅为 1699 元起。

「一款以钢铁侠 AI 管家「贾维斯」为灵感命名的智能眼镜,试图将「理想同学」的 AI 能力从驾驶空间延伸至用户日常生活的每个角落。」

Livis 名称源于理想汽车与钢铁侠 AI 管家「Jarvis」的组合。

整机重量控制在 36 克,提供经典黑、科技灰和橄榄绿三种颜色,并可选亮光或磨砂材质。

Livis 全系产品标配蔡司镜片,涵盖近视镜片、光致变色镜片与墨镜片等多种类型,满足用户在不同场景下的视觉需求。

理想宣称 Livis 在研发过程中实现了五项关键突破,构成了产品核心竞争力的重要组成部分。

典型续航时间达 18.8 小时。Livis 标配类似 AirPods 的无线充电盒,便于随身携带和补能。同时,眼镜支持与理想汽车的车机系统无线快充,上车后放置在专属充电位进行充电。

在硬件配置上,Livis 搭载恒玄 BES2800 主控芯片和独立的 ISP 成像芯片,采用 SONY IMX681 摄像头,拥有 1200 万像素、支持 4K 照片以及电子防抖拍摄。

汽车联动场景是 Livis 最独特的卖点。通过蓝牙和 5G 网络,眼镜可无缝连接车辆,实现语音远程控车。用户可在百米范围内,通过语音指令操控电动侧滑门启闭、提前开启空调及座椅加热,甚至检查车辆续航和充电状态。

(@极客公园、@快科技)

3、豆包手机助手无法登录微信,双方回应

日前,字节跳动豆包团队与中兴合作发布了豆包手机助手技术预览版后,有试用 Nubia M153 工程样机的用户反馈,出现无法正常登陆微信的情况。

对于相关情况,豆包团队方面昨晚发文并做出回应。

豆包方面表示,其后续已下线了手机助手操作微信的能力。 目前,nubia M153 上被禁止登录的微信账号正陆续解封。

而微信相关人士也通过澎湃新闻回应,豆包手机助手无法正常登陆微信的微信并没有什么特别动作,「可能是中了本来就有的安全风控措施。」

针对此前曾有科技公司爆料「豆包手机助手存在侵犯用户隐私」的问题,团队方面强调,豆包手机助手不存在任何黑客行为。

据悉,此前上述公司曾表示豆包手机助手在努比亚手机上拥有 INJECT\_EVENTS 权限,该权限在安卓权限定义中属于操作系统高危权限,并且拿到该权限,要面临刑事责任。

豆包方面表示,INJECT\_EVENTS 确实是系统级权限,但拥有了该权限许可,相关产品才能跨屏、跨应用来模拟点击事件,完成用户操作手机的任务需求。

团队还强调,豆包手机助手需要用户主动授权,才可以调用该权限,使用操作手机功能。该权限的使用,豆包方面也在权限清单中进行了明确的披露。据了解,目前行业的 AI 助手,均需要使用该权限(或与其类似的无障碍权限)才能提供操作手机的服务。

豆包方面强烈表示,豆包手机助手也不会代替用户进行相关授权和敏感操作。

同时,豆包方面也对读取屏幕的隐私问题进行了回应。其表示,助手操作手机时需要读取屏幕(否则无法完成任务),但屏幕和操作过程都不会在服务器端留下存储,且所有的相关内容也都不会进入模型训练,确保用户隐私安全。

( @APPSO)

4、健康追踪应用 Healthify Ria 升级 AI 助手:支持实时语音与摄像头交互

健康追踪初创公司 Healthify 推出了其 AI 助手 Ria 的新版本,该版本支持通过语音和摄像头进行实时对话,并能理解超过 50 种语言(包括 14 种印度语言)以及混合语言输入。此举旨在通过更自然的交互方式,提升用户健康习惯养成的效率和用户粘性。

实时对话与多模态输入: Ria 现在支持通过语音进行实时对话,用户还可以通过摄像头扫描食物获取营养信息并进行记录,大幅简化了数据录入流程。
多语言与混合语言支持: Ria 能够理解超过 50 种语言,并支持 Hinglish、Spanglish 等混合语言输入,服务全球用户。
整合多源健康数据: Ria 可以整合来自健身追踪器、睡眠追踪器、血糖监测仪等设备的数据,为用户提供运动、睡眠、身体准备度和血糖波动等方面的洞察,并给出建议。
增强记忆与个性化: Healthify 正在为 Ria 构建一个更持久的记忆层,使其能够记住用户的偏好和健康变化,提供更个性化的建议。
教练与营养师辅助: Ria 将被整合到用户与教练、营养师的沟通中,协助双方快速调取数据、回答问题,并可转录通话内容,提取关键信息。
(@TechCrunch)

03 有态度的观点
1、《阿凡达》导演:对 AI 没意见,但要尊敬演员们

近日,导演詹姆斯·卡梅隆在《阿凡达 3》世界首映礼上称该片没有使用 AI 生成,随后他对 ComicBookcom 发表了自己对于生成式 AI 的应用看法。

卡梅隆表示,自己对生成式 AI 没有意见,但他强调:「我们拍《阿凡达》电影不使用它,我们尊敬并赞颂演员们,我们不用 AI 代替演员。」

同时,卡梅隆也表示,「这件事(生成式 AI)自会有方向,我想好莱坞会进行自我监管,但我们作为艺术家要找到出路,前提是我们得能存在。所以,比起别的东西,来自『大 AI』的生存威胁是最让我担忧的。」

值得一提的是,卡梅隆所提到的「大 AI」,是指人类利用 AI 的状况和其产生的问题,对应的「小 AI」是指更细节、技术性的层面,比如用 AI 生成内容。

在卡梅隆看来,AI 和人类未来有深切的担忧和存在危机,他认为「小 AI」各行业会找到应对和利用之法,但「大 AI」问题就不好说了。

卡梅隆还提到,若了解 AI,就会知道「校准」是个重大问题。「AI 必须被训练、教导,必须被约束去只做对人类好的事情。」其强调,「只有我们人类达成了共识,你才能对 AI 进行校准。」实打weibo.com/ttarticle/p/show?id=2309405272554650075378 weibo.com/ttarticle/p/show?id=2309405272554926637115 weibo.com/ttarticle/p/show?id=2309405272555299930327 weibo.com/ttarticle/p/show?id=2309405272555576754234 weibo.com/ttarticle/p/show?id=2309405272555849384103 weibo.com/ttarticle/p/show?id=2309405272556126208014 weibo.com/ttarticle/p/show?id=2309405272556398837827 weibo.com/ttarticle/p/show?id=2309405272556679856154 weibo.com/ttarticle/p/show?id=2309405272556956680201 实

如果您想确保 iPhone 数据的安全,可以将 iPhone 备份到 Mac。当系统出现故障、设备丢失或 iOS 设备恢复出厂设置时,您可以轻松地使用备份恢复内容。本指南提供了 5 种有效的备份方法,您可以按照步骤将 iPhone 备份到 Mac。

图片

比较以下5种备份方法:

图片

第一部分:如何使用 Finder 将 iPhone 备份到 Mac

自 macOS Catalina 起,Finder 已成为本地备份的主要工具,取代了传统的 iTunes。因此,您可以使用 Finder 通过 USB 将 iPhone 备份到 Mac。

以下是步骤:


使用 USB-C 数据线将 iPhone 连接到 MacBook。打开 Finder,然后在侧边栏的“位置”下选择您的 iPhone。


如果出现提示,请在 iPhone 上轻点“信任”,然后输入您的密码。在“通用”标签页中,选择“将 iPhone 上的所有数据备份到此 Mac ”。


选择“加密本地备份”以包含密码和健康数据(如果需要)。然后单击“立即备份”。

图片

第二部分:如何使用 iReaShare iPhone Manager 将 iPhone 备份到 MacBook

对于觉得 Finder 功能过于局限的用户来说,iReaShare iPhone Manager这款灵活的工具会更合适,它支持“选择性备份”的方式。您可以在界面上预览 iPhone 数据,从而有选择地将联系人、信息、照片、视频、音乐、书籍、备忘录、日历等内容从 iOS 设备备份到 MacBook。

iReaShare iPhone Manager 的主要功能:

  • 无需 Finder 或 iTunes,即可通过 USB 将 iPhone 一次性备份到 Mac。
  • 使您能够查看和选择性地将 iPhone 文件传输到您的计算机。
  • 支持传输短信、书签、电影、语音备忘录、歌曲、文档等。
  • 轻松将 Mac 上的数据恢复到 iOS 设备。
  • 允许您访问计算机上的备份数据。
  • 兼容 iOS 5.0 或更高版本,包括 iOS 26。

请在电脑上下载这款iPhone备份软件。

下载 Mac 版下载 Win 版

以下是如何使用 iReaShare iPhone Manager 将 iPhone 备份到 MacBook:


在您的Mac电脑上下载并安装此备份软件的Mac版本。然后打开软件,并使用USB数据线将您的iPhone连接到电脑。


在 iPhone 上点击“信任”,程序就会识别你的设备。要一次性备份多种数据类型,你可以点击“超级工具包”>“ iTunes 备份和恢复”。

图片


选择“备份”功能,然后选择您的 iPhone 设备。接下来,您可以选择一个文件夹来保存备份数据。最后,点击“确定”开始备份过程。


第三部分:如何使用隔空投送将 iPhone 备份到 MacBook

如果你只想将几个文件备份到 MacBook,可以使用隔空投送 (AirDrop)。它可以在没有互联网连接的情况下将文件从 iPhone 发送到 Mac。

以下是指南:


请在 iPhone 和 Mac 设备上启用“蓝牙”和“ Wi-Fi ”。然后打开“访达”>“隔空投送”,并将“允许以下用户发现我”设置为“所有人”或“仅限通讯录”。


在 iPhone 上,前往“设置” ,轻点“通用”>“隔空投送”,然后选择“所有人,10 分钟”。接下来,找到您想要备份的文件。

图片


在 iPhone 上选择文件,然后点击“共享”>“隔空投送”。接着选择 Mac 的名称。然后在 Mac 上点击“接受”>“保存到下载”。

图片

第四部分:如何使用 Google 云端硬盘将 iPhone 备份到 MacBook

对于不想使用 iCloud 的 iPhone 用户来说,Google 云端硬盘提供了一种替代的云端备份服务。虽然它不像 iCloud 那样备份所有内容,但它可以存储照片、视频、联系人和文档。此外,上传后您还可以将文件下载到 Mac 上。

以下是如何通过 Google 云端硬盘将 iPhone 备份到 MacBook 的方法:


在 iPhone 上打开 Google 云端硬盘应用。登录或注册一个帐户。然后点击“菜单”图标 > “设置” > “备份”。


选择要备份的内容,然后单击“开始备份”。

图片


完成后,您可以通过访问 Google 云端硬盘网站或使用桌面应用程序在 MacBook 上访问这些文件。

图片

第五部分:如何通过图像捕捉将 iPhone 备份到 MacBook

如果您只想备份 iPhone 中的视频和照片,可以使用 macOS 内置的应用程序“图像捕捉”。

通过“图像捕捉”将 iPhone 备份到 MacBook:


使用 USB 数据线将 iPhone 连接到 Mac。


在 Mac 上打开“图像捕捉” (位于“应用程序”文件夹中)。然后从设备列表中选择您的 iPhone。


选择要保存照片和视频的文件夹。然后在底部的“导入到”下拉菜单中选择目标文件夹,然后点击“全部下载”。

图片

第六部分:关于在 Mac 上备份 iPhone 的问答

问题1:将iPhone备份到iCloud还是电脑更好?

这取决于您的优先级。iCloud 更方便,因为它可以通过 Wi-Fi 自动备份。但是,电脑备份(Finder)恢复大量数据速度更快,而且不需要每月订阅费。

Q2:为什么我的 iPhone 无法备份到我的 Mac?

iPhone 无法备份到 Mac 可能有以下几个原因:

连接问题:请确保您的 iPhone 通过有线或无线网络正确连接到 Mac。
软件版本过旧:请确保您的 macOS 和 iOS 系统均为最新版本。
存储空间不足:您的 Mac 可能没有足够的空间进行备份。
信任设置:检查您的 iPhone 是否信任 Mac,并输入正确的密码。

Q3:Mac 上的 iPhone 备份是否包含所有内容?

差不多。Finder 备份几乎包含您设备上的所有数据和设置。但是,出于安全考虑,它不包含已同步到云端的内容(例如 iCloud 照片或 Apple Music)或 Face ID/Touch ID 设置。另外,备份内容还取决于您选择的 iPhone 备份方式。

结论

将 iPhone 备份到 Mac 电脑很简单,对吧?使用上述方法,您可以通过 USB 或无线方式备份 iPhone 数据。如果您需要更全面、更精细的文件管理功能,可以试试iReaShare iPhone Manager 。这款工具支持一键备份和恢复,以及选择性文件传输。您可以将 iPhone 备份到 Mac,而不会丢失任何数据。

这里是 「RTE 开发者日报」,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real-Time Engagement) 领域内「有话题的技术」、「有亮点的产品」、「有思考的文章」、「有态度的观点」、「有看点的活动」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。

本期编辑:@瓒an、@鲍勃

01 有话题的技术
1、亚马逊公布新款自研 AI 芯片 Trainium 3

日前,亚马逊云科技 CEO Matt Garman 在 re:Invent 2025 活动上,正式公布了亚马逊自研 AI 芯片 Trainium 系列的最新进展。

会上,Amazon Trainium 3 UltraServers 正式发布。

据介绍,这是亚马逊云科技首款搭载 3 纳米工艺 AI 芯片的服务器,相较 Amazon Trainium 2,不仅计算能力提升 4.4 倍、内存带宽提升 3.9 倍,每兆瓦算力可处理的 AI token 数量更实现了 5 倍增长。

服务器最高配置 144 个芯片,提供惊人的 362 petaflops FP8 计算能力。在运行 OpenAI 的 GPT-OSS-120B 模型时,每兆瓦输出 token 数是 Amazon Trainium 2 的 5 倍以上,实现超高能耗比。

同时,Matt Garman 还首次披露了 Amazon Trainium 4 芯片,并承诺将实现较 Amazon Trainium 3 六倍的 FP4 计算性能、四倍内存带宽和两倍高内存容量。

据悉,亚马逊云科技目前已完成超 100 万个 Trainium 2 芯片的规模化部署,为 Amazon Bedrock 中大部分推理工作提供核心算力支持,包括 Claude 最新一代模型的高效运行。

( @APPSO)

2、Meta Reality Labs 挖角苹果交互设计负责人 Alan Dye

今天凌晨,彭博社记者 Mark Gurman 发文透露,苹果人机交互设计副总裁 Alan Dye 被 Meta 挖角。

据悉,Dye 自 2015 年以来,一直担任苹果的用户界面设计团队的负责人。 而本次被挖角后,苹果将用长期设计师 Stephen Lemay 顶替 Dye 的岗位。

值得一提的是,Dye 曾负责监督 iOS 26、液态玻璃界面、Vision Pro 界面、watchOS,以及各种系统交互层面内容(如空间计算交互、灵动岛)。

报道指出,Dye 在乔布斯离开后,一直担任着重要角色:帮助公司定义了最新操作系统、App 以及设备的外观。另外,Dye 在苹果的团队也帮助开发一系列新的智能家居设备。

Meta 方面,随着 Dye 加入,该公司正在创立一个新的设计工作室,并且有 Dye 负责硬件、软件和 AI 集成方面的界面设计。

Dye 将向负责现实实验室的首席技术官 Andrew Bosworth 汇报工作,而现实实验室负责开发可穿戴设备,如智能眼镜和虚拟现实头戴式设备。Gurman 透露,Dye 将于 12 月 31 日正式开始担任团队首席设计官。

而且 Dye 还不是一个人走的,他还带走了苹果设计部门的高级总监 Billy Sorrentino。后者从 2016 年起就在苹果,主要负责 VisionOS 的用户界面设计。

( @APPSO)

3、小米卢伟冰:AI 与物理世界的深度结合是智能科技的下一站

12 月 3 日,@卢伟冰 在社媒发布卢伟冰答网友问第十二期,在回答「罗福莉加入了小米,未来在 AI 上会有什么新的战略」时表示:

其实我们在前几个季度就已经开始了在 AI 上的压强式投入,虽然不能透露太多,我们在 AI 大模型和应用方面的进展远超预期,我们认为 AI 与物理世界的深度结合是智能科技的下一站,小米也非常渴望人才尊重人才,也希望能够给优秀的人才提供好的发展平台。

95 后罗福莉出生于四川,父亲是一名电工,母亲是教师。她本人曾就读于四川宜宾市第一中学校 「清北班」,并以优异成绩考入北京师范大学,后被保送至北京大学深造。

在北大读硕士期间,她于 2019 年在人工智能领域顶级国际会议 ACL 上发表了 8 篇论文,其中 2 篇为第一作者。毕业后,她先后在阿里达摩院、幻方量化、DeepSeek 工作,主导开发了多语言预训练模型 VECO,并参与研发了 MoE 大模型 DeepSeek-V2。

11 月 12 日,罗福莉在朋友圈发文,正式宣布自己已经加入小米。

11 月 19 日消息,小米公司今日官宣,12 月 17 日,小米将在北京·国家会议中心举办「人车家全生态」合作伙伴大会。主论坛时间为上午 10:00-12:15,全程开放线上直播。

作为小米 MiMo 大模型负责人,罗福莉将在主论坛发表题为《Xiaomi MiMo:小米基座大模型》 的主题演讲,这是她自 11 月 12 日加入小米后的首次公开亮相。

(@荆楚网)

02 有亮点的产品
1、Peopleboxai 推出 Nova:首款「人性化」AI 面试官,优化招聘流程

Peopleboxai 发布了其 AI 产品「Nova」,号称是「人性化」的 AI 面试官。Nova 能够自动化包括简历筛选、电话面试、视频面试、实时编码测试以及生成决策报告在内的整个第一轮招聘流程,显著加快招聘速度并提升效率。

全流程自动化: Nova 能够处理从简历筛选、联系候选人(通过 InMail、邮件、电话)到进行全面的语音/视频面试,甚至执行高级编码测试,直至提供详细的、可直接用于决策的报告。
高度「人性化」体验: Nova 被设计成「最佳招聘官和面试官的数字孪生」,能够模拟自然的暂停、语气和「嗯」等语用标记,提供友好的、类似真人的互动体验,候选人对其评价很高。
定制化与智能化: 用户可以根据自己的需求定制 Nova 的面试风格,包括技能深度、难度、面试类型、语调和结构。Nova 还能从公司过往的招聘数据(职位描述、面试记录、ATS 笔记等)中学习,提升其判断能力。
显著提升效率: Nova 帮助客户将第一轮面试报告的完成时间从 4-5 周缩短到 48 小时以内,为招聘团队节省了大量时间,使其能专注于更具战略意义的工作。
覆盖多渠道招聘: Nova 不仅处理入站(inbound)和内推(referral)的候选人,还能主动进行外呼(outbound)候选人搜寻和联系。
Nova 产品已上线,用户可通过 Peopleboxai 官网了解更多信息并申请试用。

(@Y Combinator Launches)

2、理想汽车发布首款 AI 眼镜 Livis:标配蔡司镜片 补贴后售价 1699 元起

12 月 3 日,理想汽车举办线上发布会,正式推出其首款 AI 智能眼镜 Livis。售价 1999 元起,12 月 31 日前下订可享受 15% 政府补贴,补贴后价格仅为 1699 元起。

「一款以钢铁侠 AI 管家「贾维斯」为灵感命名的智能眼镜,试图将「理想同学」的 AI 能力从驾驶空间延伸至用户日常生活的每个角落。」

Livis 名称源于理想汽车与钢铁侠 AI 管家「Jarvis」的组合。

整机重量控制在 36 克,提供经典黑、科技灰和橄榄绿三种颜色,并可选亮光或磨砂材质。

Livis 全系产品标配蔡司镜片,涵盖近视镜片、光致变色镜片与墨镜片等多种类型,满足用户在不同场景下的视觉需求。

理想宣称 Livis 在研发过程中实现了五项关键突破,构成了产品核心竞争力的重要组成部分。

典型续航时间达 18.8 小时。Livis 标配类似 AirPods 的无线充电盒,便于随身携带和补能。同时,眼镜支持与理想汽车的车机系统无线快充,上车后放置在专属充电位进行充电。

在硬件配置上,Livis 搭载恒玄 BES2800 主控芯片和独立的 ISP 成像芯片,采用 SONY IMX681 摄像头,拥有 1200 万像素、支持 4K 照片以及电子防抖拍摄。

汽车联动场景是 Livis 最独特的卖点。通过蓝牙和 5G 网络,眼镜可无缝连接车辆,实现语音远程控车。用户可在百米范围内,通过语音指令操控电动侧滑门启闭、提前开启空调及座椅加热,甚至检查车辆续航和充电状态。

(@极客公园、@快科技)

3、豆包手机助手无法登录微信,双方回应

日前,字节跳动豆包团队与中兴合作发布了豆包手机助手技术预览版后,有试用 Nubia M153 工程样机的用户反馈,出现无法正常登陆微信的情况。

对于相关情况,豆包团队方面昨晚发文并做出回应。

豆包方面表示,其后续已下线了手机助手操作微信的能力。 目前,nubia M153 上被禁止登录的微信账号正陆续解封。

而微信相关人士也通过澎湃新闻回应,豆包手机助手无法正常登陆微信的微信并没有什么特别动作,「可能是中了本来就有的安全风控措施。」

针对此前曾有科技公司爆料「豆包手机助手存在侵犯用户隐私」的问题,团队方面强调,豆包手机助手不存在任何黑客行为。

据悉,此前上述公司曾表示豆包手机助手在努比亚手机上拥有 INJECT\_EVENTS 权限,该权限在安卓权限定义中属于操作系统高危权限,并且拿到该权限,要面临刑事责任。

豆包方面表示,INJECT\_EVENTS 确实是系统级权限,但拥有了该权限许可,相关产品才能跨屏、跨应用来模拟点击事件,完成用户操作手机的任务需求。

团队还强调,豆包手机助手需要用户主动授权,才可以调用该权限,使用操作手机功能。该权限的使用,豆包方面也在权限清单中进行了明确的披露。据了解,目前行业的 AI 助手,均需要使用该权限(或与其类似的无障碍权限)才能提供操作手机的服务。

豆包方面强烈表示,豆包手机助手也不会代替用户进行相关授权和敏感操作。

同时,豆包方面也对读取屏幕的隐私问题进行了回应。其表示,助手操作手机时需要读取屏幕(否则无法完成任务),但屏幕和操作过程都不会在服务器端留下存储,且所有的相关内容也都不会进入模型训练,确保用户隐私安全。

( @APPSO)

4、健康追踪应用 Healthify Ria 升级 AI 助手:支持实时语音与摄像头交互

健康追踪初创公司 Healthify 推出了其 AI 助手 Ria 的新版本,该版本支持通过语音和摄像头进行实时对话,并能理解超过 50 种语言(包括 14 种印度语言)以及混合语言输入。此举旨在通过更自然的交互方式,提升用户健康习惯养成的效率和用户粘性。

实时对话与多模态输入: Ria 现在支持通过语音进行实时对话,用户还可以通过摄像头扫描食物获取营养信息并进行记录,大幅简化了数据录入流程。
多语言与混合语言支持: Ria 能够理解超过 50 种语言,并支持 Hinglish、Spanglish 等混合语言输入,服务全球用户。
整合多源健康数据: Ria 可以整合来自健身追踪器、睡眠追踪器、血糖监测仪等设备的数据,为用户提供运动、睡眠、身体准备度和血糖波动等方面的洞察,并给出建议。
增强记忆与个性化: Healthify 正在为 Ria 构建一个更持久的记忆层,使其能够记住用户的偏好和健康变化,提供更个性化的建议。
教练与营养师辅助: Ria 将被整合到用户与教练、营养师的沟通中,协助双方快速调取数据、回答问题,并可转录通话内容,提取关键信息。
(@TechCrunch)

03 有态度的观点
1、《阿凡达》导演:对 AI 没意见,但要尊敬演员们

近日,导演詹姆斯·卡梅隆在《阿凡达 3》世界首映礼上称该片没有使用 AI 生成,随后他对 ComicBookcom 发表了自己对于生成式 AI 的应用看法。

卡梅隆表示,自己对生成式 AI 没有意见,但他强调:「我们拍《阿凡达》电影不使用它,我们尊敬并赞颂演员们,我们不用 AI 代替演员。」

同时,卡梅隆也表示,「这件事(生成式 AI)自会有方向,我想好莱坞会进行自我监管,但我们作为艺术家要找到出路,前提是我们得能存在。所以,比起别的东西,来自『大 AI』的生存威胁是最让我担忧的。」

值得一提的是,卡梅隆所提到的「大 AI」,是指人类利用 AI 的状况和其产生的问题,对应的「小 AI」是指更细节、技术性的层面,比如用 AI 生成内容。

在卡梅隆看来,AI 和人类未来有深切的担忧和存在危机,他认为「小 AI」各行业会找到应对和利用之法,但「大 AI」问题就不好说了。

卡梅隆还提到,若了解 AI,就会知道「校准」是个重大问题。「AI 必须被训练、教导,必须被约束去只做对人类好的事情。」其强调,「只有我们人类达成了共识,你才能对 AI 进行校准。」实打weibo.com/ttarticle/p/show?id=2309405272562488967231 weibo.com/ttarticle/p/show?id=2309405272562770247704 weibo.com/ttarticle/p/show?id=2309405272563055198284 weibo.com/ttarticle/p/show?id=2309405272563336478746 weibo.com/ttarticle/p/show?id=2309405272563617497132 weibo.com/ttarticle/p/show?id=2309405272563999178832 weibo.com/ttarticle/p/show?id=2309405272564288323635 weibo.com/ttarticle/p/show?id=2309405272564577730593 weibo.com/ttarticle/p/show?id=2309405272564858748989 实

论文名称:DataFlow: An LLM-Driven Framework for Unified Data Preparation and Workflow Automation in the Era of Data-Centric AI
论文作者:Hao Liang, Xiaochen Ma, Zhou Liu, Zhen Hao Wong, Zhengyang Zhao, Zimo Meng, Runming He, Chengyu Shen, Qifeng Cai, Zhaoyang Han, Meiyi Qiang, Yalin Feng, Tianyi Bai, Zewei Pan, Ziyi Guo
Github地址:https://github.com/OpenDCAI/DataFlow
论文链接:https://www.lab4ai.cn/paper/detail/reproductionPaper?utm_sour...

论文简介

该论文提出LLM驱动的统一数据准备框架DataFlow,旨在解决当前LLM数据准备碎片化、标准化缺失的问题。框架含近200个可复用算子与6类领域通用流水线,采用类PyTorch编程接口,支持模块化、可调试的数据处理。通过DataFlow-Agent,可将自然语言指令自动转化为可执行流水线。实验表明,其在文本、数学推理、代码等任务上表现优异,Text-to-SQL执行准确率提升3%,代码基准平均提升7%,10K样本数据集性能超越1M规模数据集,为数据中心型AI发展提供系统级基础。

DataFlow论文核心内容总结

1. 研究背景

大语言模型(LLMs)的发展高度依赖高质量、大规模数据,但当前LLM数据准备存在碎片化、标准化缺失的问题。现有实践多依赖临时脚本和松散工作流,缺乏统一抽象与可复用组件,难以支持模型在环的生成式工作流,且数据合成与语义精修等核心需求未得到充分满足,制约了LLM性能提升与跨任务泛化能力。

2. 研究目的

针对LLM数据准备的碎片化与低效问题,提出一套统一、可扩展的LLM驱动数据准备框架,实现模块化、可复用、可调试的数据处理流程。同时支持自然语言指令到可执行流水线的自动转换,提升数据准备的效率、质量与可重复性,为数据中心型AI发展提供系统级基础。

3. 本文核心贡献

  • 提出统一的LLM驱动数据准备框架DataFlow,基于可组合抽象与LLM优先的算子执行模型构建。
  • 构建包含近200个可复用算子和6个领域通用流水线的生态系统,覆盖文本、数学推理、代码等多任务场景。
  • 设计类PyTorch的编程模型、IDE原生工具与插件式扩展机制,支持可复现实验与社区贡献。
  • 引入DataFlow-Agent智能编排层,实现自然语言意图到可执行流水线的自动转换,降低使用门槛。
  • 通过大规模实验验证框架有效性,公开高质量多领域数据集,为相关研究提供基准支持。

4. 研究方法

  • 框架设计:采用全局存储抽象、分层编程接口(LLM服务、算子、提示模板、流水线)、多维度算子分类及扩展机制构建核心架构。
  • 流水线构建:基于“生成-评估-过滤-精修”范式,设计多领域专用流水线,支持模块化组合与自定义扩展。
  • 智能编排:通过LangGraph构建多智能体系统,实现意图分解、算子合成、流水线组装与验证的自动化。
  • 实验设计:在文本、数学、代码等6类任务上,对比现有主流数据集与方法,采用Qwen2.5系列等模型进行预训练与微调验证,评估数据质量与效率。
  • 数据处理:整合公开数据集与合成数据,通过统一存储接口实现多格式数据的标准化处理与流转。

5. 研究结果

  • 各领域流水线性能优于现有基准,Text-to-SQL任务执行准确率较SynSQL提升3%,代码基准平均提升7%,数学推理任务在MATH等数据集上获得1-3个百分点增益。
  • 仅10K样本的DataFlow-Instruct-10K数据集,训练效果超越1M规模Infinity-Instruct数据集,展现出极高的数据效率。
  • DataFlow-Agent可有效将自然语言指令转换为可执行流水线,文本规格对齐评分达0.80,支持多难度场景下的自动化流水线构建。
  • 跨任务统一数据准备策略表现稳定,在数学、代码、通用知识任务中均实现性能提升,且未出现跨领域训练的负迁移问题。

6. 总结与展望

总结

DataFlow框架通过统一抽象、可复用组件与智能编排,解决了LLM数据准备的碎片化问题,实现了高效、高质量、可重复的数据处理流程。其多领域流水线与算子生态系统,为数据中心型AI提供了强大的技术支撑,验证了高质量合成数据在提升LLM性能与数据效率上的核心价值。

展望

未来将拓展多模态支持(表格、图形、多模态数据),开发面向特定领域的变体(如DataFlow-AI4S、DataFlow-Industry);进一步完善生态系统,强化社区贡献机制;优化智能编排能力,提升复杂任务下的流水线自动构建精度,推动LLM数据准备向标准化、自动化方向发展。

如果说两年前,AI 编程还只是“智能补全几个函数”;那么今天,它正在彻底掀翻整个软件工程的牌桌。

在最新的一期播客中,软件行业的传奇老兵、拥有 40 年编程经验的 Steve Yegge 分享了一个极其疯狂的日常:他刚刚在自己的机器上,关掉了 320 个 Claude Code 实例。

这意味着什么?这意味着他不再是一个“敲代码的程序员”,而是一个同时指挥着 320 个“数字实习生”的将军。有人在写代码、有人在修 Bug、有人在发起合并请求(PR),它们互相等待、互相打断,甚至偶尔还会失控搞砸一切。

在这场深度的技术访谈中,Steve Yegge 抛出了一个极其炸裂的预判:“到今年(2026)年底,人们开发软件将不再是敲代码,而是像玩即时战略(RTS)或模拟经营游戏一样。” 与此同时,他也给出了一个关乎所有软件公司生死的“未来生存公式”。

一、 个人开发者遭遇“团队级复杂度”:多智能体协作的失控与救赎

随着大模型能力从 GPT-3.5 的“步履蹒跚”进化到 Claude 4.5 的“狂飙突进”,开发者对 AI 的信任度与日俱增。

但一个致命的悖论出现了:信任度越高,耐心越低,唤醒的智能体就越多。过去,你可能只开一个 Claude 窗口帮你写段脚本;现在,你会习惯性地把一个大项目拆成十几个任务,同时扔给十几个智能体并行处理。

当规模达到这种程度时,个人开发者突然撞上了一堵墙——他们遭遇了以往只有大型工程团队才会遇到的管理难题:状态同步、代码合并冲突、上下文遗忘。大模型是“顾头不顾尾”的,它们只关注眼前的任务,根本记不住三小时前做过的架构决策。

为了解决这个问题,Steve Yegge 开发了两个重量级工具:

  1. Beads:一种基于图结构和 Git 原生数据库(Dolt)的“共享记忆系统”。它把所有智能体的任务、决策、状态全部记录在案,让 AI 拥有了不被篡改且可追溯的“长期记忆”。
  2. Gas Town:一个多智能体编排系统。它把智能体分门别类,有的当“镇长(发号施令)”,有的当“工兵(干脏活累活)”,让它们在一定的规则下自行运转。
【笔者观点:从“代码搬砖”到“架构调度”的职能跃迁】
我们正在见证程序员职业生涯中最伟大的一次职能跃迁。当 320 个 AI 在替你写代码时,你如果还把精力花在纠结某个 JS 语法上,那就是严重的失职。
未来的顶尖工程师,本质上是一个“数字包工头”或“Prompt 架构师”。你需要具备强大的宏观系统思维能力,把大问题拆解给 AI,然后像玩《星际争霸》一样去调度这几百个单位,最后负责最核心的“验收与兜底”。写代码不再是壁垒,“把问题说清楚、把上下文喂对”才是真正的护城河。

二、 AI 时代的极限拉扯:精简上下文 vs 填鸭式喂养

在指挥 AI 大军时,怎么给它们下达指令成了最玄学的问题。Steve 透露,即使在 Anthropic(Claude 母公司)内部,也存在极大的路线分歧:

  • 最小化派:认为应该尽量减少上下文。把任务拆得极细,一次只让 AI 专注解决一个明确的小问题(用完即弃)。这样能大幅节省 Token 成本,且运行速度最快。
  • 最大化派:认为应该把所有的背景信息、架构文档、历史决策全部塞进上下文窗口。因为只有“喂饱了”信息,大模型才能像资深架构师一样,做出真正符合全局利益的战略设计。

Steve 认为,这两种模式在实战中缺一不可。他甚至为 AI 发明了一条名为“飞机降落(Land the Plane)”的终极提示词——当项目进入收尾、AI 开始迷失在海量细节中时,这句提示词能强行唤醒大模型的“强迫症”,逼迫它放下一切发散思维,严格按照验收标准逐项核对,完成最终交付。

【笔者观点:驯服 AI 的艺术,在于理解它的“拟人性”】
我们过去写代码是“面向机器编程”,有着严格的编译逻辑;现在用大模型,更像是“面向人学编程”。大模型有常识、懂战略,但它同时也很“懒”、容易“分心”、甚至会“敷衍了事”。
所谓的“飞机降落”提示词,本质上就是对数字员工的“职场极限施压”。谁能掌握这种和 AI 沟通的心智博弈技巧,谁就能榨干它最大的生产力。

三、 颠覆认知:阅读别人的代码,将成为历史?

当 AI 开始疯狂输出代码时,代码的海洋将彻底淹没人类的阅读能力。

过去,接手别人的 30 万行代码是一场灾难;未来,即使是自己麾下 AI 昨晚刚写的 30 万行代码,你可能也完全看不懂了。

面对这种代码爆炸,Steve 给出了一个极度硬核但也有些无奈的解法:你必须强迫自己定期去审查那些从未见过的代码片段,通过向大模型提问(比如“不好意思,我们的插件系统到底是怎么跑的?”),在脑海中重新构建出整个系统的心理模型。因为只有你,才是那个能拍板“这东西到底对不对”的最终防线。

【笔者观点:代码即垃圾,意图即资产】
我们必须接受一个残酷的现实:在 AI 时代,由人类亲手一行行阅读、审核每一行代码的古典敏捷开发模式,已经彻底破产了。
当 AI 每秒能生成几千行代码时,代码本身变得极度廉价。未来的软件工程不再是“Show me the code(给我看代码)”,而是“Show me the prompt & Spec(给我看你的提示词和系统规范)”。人类只需要掌控意图和测试闭环,至于中间那几百万行冗长、枯燥的实现逻辑,就让 AI 自己去折腾吧。

四、 终极预判:软件的“热力学”生存法则

在播客的最后,Steve 抛出了一个决定未来所有软件公司生死的“万能公式”。

在很多人担忧“AI 将吞噬一切软件(比如各种 SaaS、IDE、刷题工具都在死掉)”时,什么样的产品能活下来?

Steve 给出的答案是:“热力学定律”——谁能帮大模型节省 Token 和计算能量,谁就能活下去。

大模型是非常“懒”的,它永远倾向于走最短、最省力的路径。如果你的工具(比如数据库、消息队列、索引系统、API)能够让 AI 以极低的 Token 消耗,快速拿到精准的数据和结果,那么 AI 就会把你纳入它的“默认工具箱”。

反之,任何可以通过大模型自身的“矩阵乘法”和“推理”来完成的工作(比如简单的计算器、文本处理工具、粗糙的增删改查 SaaS),都会被大模型无情地绕过并吞噬。

【总结陈词:成为 AI 的“基础设施”,或者被 AI 摧毁】
这是一个极具压迫感但也极度清醒的论断。
未来的两年内,我们手机和电脑里的 App 可能会消失 80%。你不再需要各种花哨的独立软件,你只需要一个类似 Claude 或 ChatGPT 的超级入口,它会帮你搞定一切。

在这场大洗牌中,留给创业者和开发者的路只有两条:
要么,你去做大模型本身(属于巨头的游戏);
要么,你去做那些大模型嫌麻烦、算不准、或者没权限碰的基础设施和数据源(成为 AI 的基建)。

属于手工敲代码的古典时代已经结束了。准备好迎接这场疯狂的“即时战略游戏”吧,无论你是期待还是恐惧,它都已经开始了。


👇 欢迎关注我的公众号

在 AI 爆发的深水区,我们一起探索真正能穿越周期的技术价值。
微信搜索 【睿见新世界】 或扫描下方二维码,获取每周硬核技术推文:

微信图片_20260301232734_225_35.jpg

欢迎关注【睿见新世界】!

你说需求,我来做 App —— 个人开发者接需求,感兴趣的免费做

最近想找一些有意思的需求练手,也顺便帮有想法但不会开发的朋友把 idea 变成现实。

关于我

  • Flutter 开发者,可同时交付 iOS / Android 双端
  • 有独立完成项目的经验,从 UI 到逻辑都能搞定
  • 不是接外包赚钱,是真的想做有意思的东西

我在找什么样的需求

  • 有明确使用场景,解决真实问题的 App
  • 想法清晰,能说清楚"这个 App 是给谁用的、解决什么问题"
  • 需求范围合理,不是"做个微信"那种量级

合作方式

感兴趣的需求我会免费做,不收费,不要股份,就是想做好玩的东西,同时也能给自己创造价值。

你只需要:

  • 描述你的需求(越具体越好)
  • 配合沟通细节
  • App 做出来你可以后,你会可以永久免费使用

怎么联系我

帖子下面留言描述你的需求,我看到感兴趣的会主动找你聊。


说明:免费不代表随便接,我会挑自己觉得有价值或有趣的需求,请见谅。