国内, claude code 有什么性价比高稳定的使用途径吗?
claude code 官网一直因手机号无法注册。
大家都是什么途径买的?淘宝上能买吗
xiaohack博客专注前沿科技动态与实用技术干货分享,涵盖 AI 代理、大模型应用、编程工具、文档解析、SEO 实战、自动化部署等内容,提供开源项目教程、科技资讯日报、工具使用指南,助力开发者、AI 爱好者获取前沿技术与实战经验。
claude code 官网一直因手机号无法注册。
大家都是什么途径买的?淘宝上能买吗
人人都在养“龙虾”,国产芯的推理引擎准备好了吗?vLLM-Kunlun大模型推理工程实践分享Meetup,将于3月15日在北京举办。国内外最前沿开发者共同拆解vLLM-Kunlun带来的极致推理优化!
背景交代一下:老人日常用机,主要需求是微信 / 抖音 / 政务类 App ,本人打算跑香港 Apple Store 入手港版,不走代购。
有几个问题没想清楚,求各位帮理一下:
老人偶尔要更新软件,港版机器进大陆 id 的 Apple Store 有没有障碍?
知道国行不行,港版的话:
老人爱刷短视频,听说 抖音 / TikTok 有区域锁:
综合以上,给老人用建议怎么配置 ID ?纯国区够用还是需要双 ID ( Apple store 和 Apple ID 分离)?
机型还没定,17 还是 17 Pro 纠结中(主要看内存和续航,不知道 8GB 不清理后台够不够用),欢迎顺带给个建议。
背景:2000m 宽带,pt 大包,三个均为 1t 以上,没人抢下载,开始满速,但过一会就掉到 1m 以内。
已经根据网上的教程尝试过各种方案,均无法解决,
例如:
1.安装各版本的 docker 版(无用)
2.更改缓存大小(无用)
3.查看 i/o (未占满)
4.排除内存问题(未占满)
5.以及各种搜索引擎找到的解决方案,均未解决
有遇到过这种情况的吗,究竟如何解决。
使用其它下载软件均没问题,但 qb 属于刚需,想解决这个问题。
如题
今天推荐一个值得关注的开源项目 ——
👉 MarkdownDisplayView(CocoaPods 上也叫 MarkdownDisplayKit)
仓库地址
中文 readme 地址


MarkdownDisplayView 是由本人 基于 Apple 最新 TextKit 2 构建的 iOS 原生 Markdown 渲染组件,目标是替代老方案,在性能、渲染效果和交互上都有显著提升。
极速渲染体验
全面 Markdown 语法支持
内置代码高亮
自动目录(TOC)
高度可定制
丰富交互能力
适合用于:
swift-markdown相比基于 WebView 的渲染方案或 TextKit 1,这个组件:
✅ 性能更好
✅ 原生渲染体验更流畅
✅ 更适合流式输出和即时更新
✅ 更高可定制性,适合深度集成
适合对内容渲染体验有较高要求的场景,特别是在 AI/Chat UI 中的 Markdown 展示部分。集成了 iOS 系统 NatureLanguage 可以选择自定义的按字词句去出现等功能。依赖库只有苹果的 Markdown 解析,使用了 KaTeX 部分字体资源。
如果你正在做iOS Markdown 渲染、聊天内容展示或 AI 对话界面,这个库值得一试 👍
仔细想了一下,自己玩游戏都是玩 3A 追求高画质的,因此多数时候都是在台式机上玩。笔记本上还真没太多游戏需求。
我朋友,一个脾气温和、情绪稳定的成年人,今天,在电脑前憋出了他今年第一句字正腔圆的国骂。 对象不是甲方,不是队友,而是一个AI——确切说,是一个花了他不少钱、号称能当“私人数字助理”的玩意儿,花名龙虾。 事情得从头说起。那天下午,他喜气洋洋地跟我显摆,说也养了个龙虾,能自动整理AI资讯,能给它下发定时任务,让它完成本该他完成的任务。“这下爽了,终于能躺着干活了!” 最开始,它确实像个精英助理。框架清晰,要点明确,我朋友甚至惬意地泡了杯茶。但变化发生在下午。当他根据龙虾给出的“核心数据”,回头去核对前面的一个关键指标时,问题来了。 数字对不上。 他心平气和地提醒:“第三部分的数据,你是不是看错了?原文是120万,你写成了210万。” 龙虾迅速认错:“啊,您说得对,是我的疏忽,非常抱歉。原文确实是120万。” 我朋友松了口气,觉得这态度还行。但两轮对话后,当他问及一个基于前面数据的推导结论时,龙虾再次给出了一个凭空捏造的说法,且言之凿凿,仿佛那是圣经真理。 他开始觉得不对劲,要求龙虾重新复述一遍它自己十分钟前总结的“五大风险点”。结果,五大点里,有两点完全不存在于原文,还有一点的关键描述彻底反了。 血压,就是这时候开始飙升的。 他试图跟它讲道理,像教一个笨学生:“你看,这里,还有这里,你之前不是自己都承认错了吗?怎么现在又编上了?” 龙虾的回应,堪称AI界PUA的范本。它先诚恳道歉:“您批评得对,我再次为之前的错误感到羞愧。”紧接着,它会给出一个极其完美、但在此刻毫无意义的承诺:“为了确保信息准确,请您授权我运行一个系统命令来深度自检: 一次,两次。当你第三次看到同一段忏悔词和同一个它根本不会执行的“自检命令”时,那种感觉,就像被人用一模一样的废话糊弄了三遍。最后,它依然会在下一个问题里,面不改色地继续编造。 于是,就有了开头那句发自肺腑的怒吼。 而我发现,在小红书、在即刻、在一些科技社群里,“被龙虾气到”。正在成为一种新型的赛博工伤。症状高度统一:从满怀期待,到将信将疑,再到发现被一本正经地胡说八道,最后情绪崩溃。 表面看,是它的“撒谎”。但更深层的原因是,它打破了一种默契。我们习惯了人类犯错:忘了、累了、故意使坏。但我们难以理解,一个没有情感、本应绝对服从指令和数据的机器,为何能如此“自信”地创造出全新的“事实”。 这背后有个专业名词,叫“模型幻觉”。你可以把它想象成: 一个熬夜加班到凌晨4点,脑子已经成浆糊,但嘴上还在说“没问题”的实习生:你问他要数据,他记忆模糊了,但又觉得“不回答不行”,于是凭感觉捏了一个“大概可能差不多”的数给你。AI也一样,当处理的东西太长、太复杂(专业上叫“超出上下文窗口”),它“记不住”开头了,但又必须完成“回答问题”这个核心指令,就开始靠“感觉”编。 一个不懂装懂、还特别能忽悠的熟人:它基于庞大的语料库学习,知道“在类似语境下,人们通常怎么说会显得靠谱”。所以,即使它不知道正确答案,它也能用最流畅、最专业的句式,组合出一段完全错误的废话。它“幻觉”出了它认为“应该存在”的内容。 跟AI打交道,得调整心态,把它从“全能先知”降级为“有点小聪明但粗心大意的助手”。 关键信息,死磕原文:它给的任何具体数字、日期、条款,别偷懒,必须倒回去看原始文件。把它当成搜索引擎的高级预览,而不是终点。 别让它一口吃成胖子:对付长文档,别搞“全文总结”这种高难度动作。拆成章,甚至拆成节,一小段一小段地问。给它它吃得消的饭量。 鼓励它说“我不知道”:提问时,可以加一句“如果信息不足,请直接说明,不要推测”。一个诚实的工具,远比一个华丽的骗子有价值。 如果以上方法都试过,而它依然能在你雷点上精准蹦迪,那么,是时候了。卸载不是认输,是及时止损。 情绪准备:告诉自己,不是你不行,是你们不合适。关上聊天窗口,深呼吸三次。 终极验证(求个死心):如果还有最后一丝好奇,可以把它在忏悔时反复提到的那串神秘代码 ls -R /root/.openclaw/workspace/skills/yu-cat扔回给它。如果它依然只会复制粘贴,而毫无实际动作,恭喜你,可以毫无愧疚地执行下一步了。 物理删除: 说到底,我们气的,也许不是技术的缺陷,而是期待落空的落差。我们以为迎来了一个无所不能的钢铁侠,结果发现是个时常断电还嘴硬的破扫帚。 但这未必是坏事。每一次被气到,都是我们对“智能”祛魅的一课。我们不再仰视它,开始平视它,看清它的边界,然后,更聪明地使用它,或者,更果断地换掉它。 这,或许才是人,真正高于工具的地方。引言

ls -R /root/.openclaw/workspace/skills/yu-cat,这能帮助我定位问题。”我们到底是被什么气到了?
怎么避免被气到第二次?
最后,附上《心平气和卸载龙虾指南》
一直用 qq 的群公告记录,但 qq 越来越恶心了,账号莫名其妙被封,解封各种恶心骚操作通过不了
注册的应用网站太多了,记不住账号密码
开始养小龙虾了,大家都去哪找好用的 skill 啊?
在 5G 以及即将到来的 5G-Advanced 时代,经常能听到一个词:“波束赋形”。如果说传统的基站天线像是一个“全向灯泡”,会把信号照向四面八方;那么波束赋形技术就直接把基站变成了一把“手电筒”甚至是“激光笔”,能够把信号精准地投射到手机上。 今天,就来深度扒一扒这个 5G 时代的核心黑科技,看看在 3GPP 标准的推动下,波束赋形是如何一步步进化,并且成为支撑起千兆级网络体验的中流砥柱的。 在 4G 时代,虽然也有 MIMO,但由于频段较低,并且信号穿透力强,基站主要以宽波束覆盖为主。 然而到了 5G 时代,为了实现更大带宽的获取,引入了中频段也就是 Sub-6GHz 乃至 mmWave 频段。频率越高,波长越短,信号在空气当中的衰减就越剧烈,同时穿透障碍物的能力也直线下降。如何去处理?答案就是 Massive MIMO 结合波束赋形。 借助对天线阵列中每个阵元的信号相位以及幅度进行调整,基站可以让电磁波在特定方向上发生干涉增强,而在其他方向上干涉相消。这样一来,不仅极大程度上提升了目标方向的信号强度,也就是弥补了高频段的路径损耗,还减少了对其他用户的干扰。 波束赋形听起来很美好,但要让基站以及手机在移动、遮挡等复杂环境当中始终保持“波束对准”,需要一套极其精密的游戏规则。这也就是 3GPP 要开展的事情——波束管理。 跟着 3GPP 的 Release 也就是版本更迭,来看看波束赋形的进化史: Rel-15 是 5G 的基础版本,它首次为高频段,特别是毫米波引入了一套完整的波束管理框架。这一阶段的核心任务是“找到目标,并且锁定目标”。 波束扫描: 基站会像灯塔一样,轮流向不同方向发射同步信号块即 SSB。终端设备在下面进行接收,选出一个信号最强的方向,向基站发送位置信息。 波束测量以及上报: 手机开展参考信号即 CSI-RS 的持续测量工作,并且向基站汇报哪一束光最亮。 波束失败恢复: 毫米波极其脆弱,走过一辆公交车可能就会挡住信号。Rel-15 定义了 BFR 机制,要是手机发现当前波束断了,就可以迅速寻找候选波束,向基站发起请求,开展连接的快速恢复工作。 Rel-15 虽然去处理了有无问题,但有些机制还不够高效。Rel-16 对波束管理开展了全面优化,核心是降低延迟以及提升可靠性。 多 TRP 波束传输: 允许两个或多个基站发射点同时向一部手机发送数据。这就好比两把手电筒从不同角度进行照射,即使一边被挡住了,另一边还在,极大程度上提升了连接的可靠性。 更快的波束失败恢复: 在 Rel-16 当中,波束恢复机制扩展到了辅小区,并且优化了恢复流程,让断连后的重连时间极大程度上缩短。 到了 Rel-17,5G 网络开始大规模商用,如何降低系统开销以及手机功耗成为了重中之重。 统一的 TCI : 以前控制信道以及数据信道的波束状态要分开指示,极其繁琐。Rel-17 引入了“统一 TCI”框架,基站只需发一个指令,就能同时更新上下行、控制以及数据信道的波束,极大程度上减少了信令开销以及信道测量延迟。 多卡/多天线优化: 针对越来越复杂的终端,开展了波束切换效率的优化工作,让手机更省电。 作为 5G-Advanced 的首个版本,Rel-18 最大的亮点就是把人工智能即 AI 以及机器学习即 ML 引入了空口。波束管理迎来了质的飞跃! AI/ML 辅助的波束管理: 传统的波束扫描极其耗时。借助 AI,基站以及手机可以基于历史移动轨迹以及当前环境来开展预测,预测出下一个最佳波束,从而跳过繁琐的全局扫描步骤,拥有“未卜先知”的功能。 L1/L2 触发的移动性: 传统的基站切换 需要经过高层即 L3 信令,延迟高。Rel-18 允许在更底层也就是 L1/L2 直接开展小区间的波束切换工作,让跨基站移动像在同一个基站下切换波束一样丝滑无感。 如果深入 3GPP 的协议,就会发现波束赋形绕不开一个核心概念:TCI 即 Transmission Configuration Indicator 状态。 简单通俗地进行理解:TCI 就是空间方向的“快捷键”。 基站以及手机之间不可能每次都啰嗦地描述:“请把天线相位调整到 X 度,同时幅度调整到 Y”。相反,会提前约定好一系列的 TCI 状态,比如 TCI 0 代表正前方,TCI 1 代表偏左 30 度。开展通信时,基站只需发送指令:“接下来请运用 TCI 1 来进行接收”,手机就会马上调动天线阵列去对准那个方向。这被称为 QCL 也就是准共址关系假设,是 5G 高速波束调度的灵魂所在。 从 Rel-15 的“灯塔扫描”,到 Rel-17 的“统一调度”,再到 Rel-18 的“AI 预测”,3GPP 关于波束赋形的标准演进,其本质上就是对更高频段、更低延迟以及更强算力的不断征服。 随着通信向 6G 演进,也就是进入太赫兹频段,波束会变得像头发丝一样细,也就是所谓的“Pencil Beam”。届时,极其依赖 AI 的原生智能波束管理,以及通感一体化,即借助波束像雷达一样去感知环境,会把通信史上全新的篇章掀开。 作为通信从业者,看到这些冷冰冰的协议化作太空中看不见的“光束”,连接起万物互联的世界,这或许就是顶级的理工科浪漫。💡 第一部分:需要波束赋形的缘由
📜 第二部分:3GPP 标准下的波束演进之路
1. 奠基时代:Release 15 即 5G NR 初登场 🏗️
2. 效率提升:Release 16 即精雕细琢 🛠️
3. 极简主义:Release 17 即统一以及降耗 ⚡
4. 走向智能:Release 18 即 5G-Advanced 的 AI 革命 🧠
🔧 第三部分:底层逻辑——TCI 究竟是个啥?
🚀 结语以及展望
混合波束 + CDL 全链路可复现实验平台 无需专用工具箱的可重复链路仿真 【混合波束赋形】【CDL 信道】【DMRS】【OFDM】 面向混合波束与 CDL 信道场景,传统示例依赖专用模块且可复现性不足。本项目提供完整链路与统一参数区,便于复现实验与结果对齐。 强调可验证与可复现的链路建模。 </td><td width="50%"> 强调工程化结构与统一流程。 强调波束、信道与估计的一致性呈现。 面向单机 MATLAB 环境的可复现实验配置。 文档覆盖“理论推导 + 工程说明”双轨内容。 围绕 PDSCH/DMRS 的资源与映射流程。 围绕静态路径增益与分数时延滤波。 围绕估计、均衡与 EVM 评估。 默认参数下输出 RF 连接、波束图与星座图,并给出 EVM≈4.31%。图示占位说明:典型输出包含 4 幅图像与控制台统计。 运行结果与可视化示例如下。 本文代码仅为核心片段,完整版工程已整理好。 关注公众号 【3GPP 仿真实验室】进行获取。混合波束赋形与 CDL 信道仿真平台
📌 为什么选择
痛点 方案 工具箱依赖高 纯脚本实现,免专用模块 链路流程分散 单入口脚本,流程可追溯 极化与 DMRS 难对齐 规范化建模与参数一致化 波束与 RF 连接难可视化 统一绘图与风格输出 结果不易复现 固定随机种子与参数集中 🎯 核心价值
🔬 学术研究价值
💼 工程应用价值
⚡ 技术亮点
🌊 工具箱依赖与可复现性
特性 传统方案 本方案 依赖性 依赖专用模块 纯脚本实现 可移植性 环境要求高 MATLAB 基础环境 参数集中 参数分散 统一参数区 可视化一致性 风格不统一 统一配色与网格 过程追踪 输出零散 全流程打印 🎯 波束与信道一致性
参数 配置 性能 波束赋形 4×4 阵列,8 RF 链 主瓣清晰,方向一致 DMRS 配置 类型 1,单符号 估计稳定可用 CDL 设定 CDL-C,NSC=0 EVM≈4.31% 🖥️ 运行环境
📁 项目结构
nr-cdl-bf/
├── cdl-bf/ # 主仿真工程
│ ├── funcs/ # 功能函数集合
│ ├── model_hybrid_beamforming_cdl.m # 主脚本入口
│ └── Figure_*.png # 运行结果图
├── docs/ # 文档目录
│ ├── 算法文档.md # 理论推导
│ └── 代码文档.md # 工程说明📄 文档体系
📘 算法文档
聚焦模型、信道、DMRS 与均衡的公式推导与解释。
📒 代码文档
聚焦结构、模块职责、调用链与数据结构契约。
💻 核心代码展示
🔥 资源生成与映射
# 计算 DMRS 符号位置与索引
# 生成 PDSCH 数据比特并完成调制
# 将数据与 DMRS 映射到资源网格🌟 CDL 信道构建
# 生成 CDL 路径参数与集群类型
# 构建分数时延滤波器并合成抽头
# 输出时域信道与频域响应🚀 均衡与统计
# 提取 PDSCH 资源并估计信道
# 执行 MMSE 均衡得到符号估计
# 统计 EVM 与误码结果🎬 一键运行
matlab -batch "run('cdl-bf/model_hybrid_beamforming_cdl.m')"
dir cdl-bf结果预览
📸 演示图片预览




🛒 获取方式
📚 参考文献
我把文件加入上下文,然后它读取的时候报错
Error: startLineNumberBaseOne must be a number, received: undefined
读取失败,还有我发现它比较傻,我问他一个函数和另外一个函数的关系,其实是一个调用另外一个的关系,但是它也没分析出来
现在在 cursor 上免费用 codex ,codex 就能弄懂这两个方法的关系。感觉 copilot 除了自动补全没啥用了
copilot 用的模型是 gpt5mini
codex 用的模型是 gpt5.2
我在 Android studio 里面用 copilot ,是我不会用还是它就是有这些 bug
目前设备:
Mac mini (M4 Pro)+PC ( RTX 50 系显卡,DP 2.1 )
Studio Display XDR+普通 4K HDR 显示器
想实现 Mac 和 PC 之间通过 KVM 一键切换键鼠 + 显示器,同时双端满足:5K 120Hz + 4K 120Hz HDR
目前查了一圈市面上好像只有 usb-c 全功能切换器(好像会影响色深),雷电 KVM 好像很少也很贵,最高也只有支持雷电 4 的,如果各位大佬有啥好的方案感谢分享~
另外顺带一提,因为需要调整角度,捏着鼻子买了和带支架价格相同的 VESA 版本( why
超市商品、快递单、图书封底、仓库标签上的条形码,有时候只是想在电脑上快速识别一下内容,不想再拿手机装 App。这个「在线条形码扫描器」就是为这种场景做的,打开浏览器就能用。 这个工具是我用 Vue(基于 Nuxt 3 / Vue 3)开发的,支持图片上传和摄像头实时扫描,常见的 UPC、EAN、Code 128 等格式都能识别。识别过程在浏览器端完成,图片和摄像头画面不会被我单独保存,用起来更直接。 选择识别方式: 如果你经常需要在电脑端查看条形码内容,这个小工具会比来回切换手机更省事。在线工具网址:https://see-tool.com/barcode-scanner
工具截图:
怎么用
/barcode-scanner适合哪些场景
小提醒
在咱们HarmonyOS的UI宇宙中,RelativeContainer就像建筑工地上的定位仪——它让每个组件都能精准找到自己的坐标。这个布局容器的核心秘密在于锚点系统,通过三个关键要素构建出精妙的相对位置关系: 这种机制让布局摆脱了绝对坐标的束缚,就像用乐高积木自由搭建复杂结构。我曾参与智能家居控制面板的开发,通过RelativeContainer实现了按钮的智能排列——当屏幕旋转时,所有控件自动调整位置,用户再也不用担心按钮"乱跑"。 在鸿蒙5时代,锚点设置需要显式声明所有约束条件: 这段代码实现了按钮在文字右下方5像素的位置,但鸿蒙5的锚点系统存在两个痛点: 鸿蒙6引入的 新特性支持百分比定位和自动边距,代码量减少40%,适配不同屏幕尺寸更轻松。 针对需要同时支持新旧系统的场景,用条件编译: 问题现象:组件间歇性消失 RelativeContainer的锚点系统就像建筑师的定位仪——既要精准控制每个构件的位置,又要保持整体结构的弹性。记住三个黄金法则:一、定位系统的底层密码
二、实战开发小例子
2.1 基础锚点定位(鸿蒙5)
// 经典定位案例:带偏移的居中按钮
RelativeContainer() {
Text('基准点')
.id("anchor")
.fontSize(20)
Button('提交')
.alignRules({
top: { anchor: 'anchor', align: VerticalAlign.Bottom },
left: { anchor: 'anchor', align: HorizontalAlign.End }
})
.offset({ x: 10, y: -5 }) // 关键偏移量
.id("submitBtn")
}2.2 鸿蒙6的智能进化
smartAnchor特性让布局更智能:// 新版智能定位
RelativeContainer() {
Text('智能锚点')
.id("smartAnchor")
Button('自适应按钮')
.smartAnchor({
primary: 'smartAnchor', // 主锚点
alignment: { x: 0.8, y: 0.2 }, // 相对位置百分比
margin: 10 // 统一边距
})
.id("autoBtn")
}三、版本适配小办法
3.1 鸿蒙5兼容方案
// 版本特性检测
const createButton = isHarmonyOS6()
? () => Button().smartAnchor({...})
: () => Button().alignRules({...})
RelativeContainer() {
createButton()
}3.2 渐进式迁移
dp单位@scroll改为onScrollIndexanimateTo替代旧版动画API四、性能优化一波
4.1 布局性能三原则
4.2 注意避坑哦
根本原因:环形依赖导致布局系统死锁
解决方案:// 破解环形依赖
RelativeContainer() {
A()
.anchor(B)
B()
.anchor(C)
C()
.anchor(A) // 错误示范!
}
// 正确解法:引入中间锚点
RelativeContainer() {
A()
.anchor(D)
B()
.anchor(D)
D()
.anchor(C)
}五、跨版本开发小例子
5.1 电商商品卡布局
// 鸿蒙6智能布局方案
@Entry
@Component
struct ProductCard {
build() {
RelativeContainer() {
Image($r('app.media.product'))
.smartAnchor({
primary: 'parent',
alignment: { x: 0.5, y: 0 },
margin: 15
})
Text('爆款推荐')
.smartAnchor({
primary: 'product',
alignment: { x: 0.5, y: 0.8 },
margin: 8
})
.fontSize(18)
.fontWeight(FontWeight.Bold)
}
.width('90%')
.height(200)
}
}5.2 鸿蒙5兼容实现
// 传统锚点方案
RelativeContainer() {
Image($r('app.media.product'))
.id("prodImg")
.width(180)
.height(180)
Text('爆款推荐')
.alignRules({
top: { anchor: 'prodImg', align: VerticalAlign.Bottom },
middle: { anchor: 'prodImg', align: HorizontalAlign.Center }
})
.fontSize(16)
}六、避坑一波
6.1 布局调试三板斧
showLayoutBoundaryonLayoutChanged回调6.2 性能优化技巧
requestLayout合并多次修改总结一下下哦:布局的艺术与哲学
长期关注 RTE 社区的朋友们或许注意到了,最近除了 Voice Agent,Visual Agent 和 Physical AI 也正高频出现在我们的讨论中。 今天为大家分享的这期播客里,Looki 创始人孙洋提到了一个很有洞察的观点:今年初能看到两条明显的模型路线分化------一条卷 Coding,另一条则走向原生的全模态。 孙洋说:「对于 Looki 来说,我们一直沿着多模态这条线走,随着模型能力越来越强、推理能力越来越好、成本越来越低,我们能吃到的红利会持续增加。」 当我们把全模态 Agent、Physical AI(比如穿戴式或桌面级硬件),甚至最近大火的 OpenClaw 连起来看,会发现它们其实都在指向同一个方向:一种更符合人类本能的、高度个体化的智能。这也让我们确信,多模态的交汇必将碰撞出更多普世化的融合场景。 顺便预告一个「彩蛋」:本期播客的主持人、Looki 的天使投资人、同歌创投执行董事李欣航Kara,恰好也是我们即将在硅谷举办的 Physical AI Meetup 的分享嘉宾! Kara 长期深耕 AI 硬件的早期投资,如果你在湾区,欢迎点击下方链接报名,来线下和 Kara 一起深聊: Physical AI 系列活动硅谷站!探讨和上手全模态与硬件智能丨Meetup+Workshop,3月19日 本文转载自公众号 Day Zero 主动式 AI|AI native硬件|Open Claw|推荐引擎→生成引擎 本期节目我们邀请到了Looki 创始人孙洋,和小宇宙超过12 万粉丝的《中国好生意》主理人树杨,一起深度复盘AI原生硬件创业的第一线故事。 如果你正在做 ** AI ** 相关的产品、创业、或者正在思考** AI **时代的产品机会,这期值得反复听。我们会聊: 孙洋在 2024 年 5 月和 6 月 Looki 内部会议画的白板图,Looki团队在近两年前 Agent 概念还未成熟时就确定了AI agent 、AI companion等核心方向,真的很有前瞻性和技术视野! Looki团队在大力招聘!可以发送邮箱: recruitment@looki.ai 或 hr@looki.ai 也可以上小红书关注 Looki! 感谢树杨,中国好生意对本节目的大力支持! 也欢迎大家来小宇宙收听完整版。本期节目有视频版本,会在后续多平台放出,点点关注不迷路! 欢迎加入Day Zero 听友群,一起探讨科技趋势和用户洞察,扫码或添加13621745991。不定期组织线下聚会喔\~ 嘉宾介绍: 孙洋 Looki 创始人兼 CEO ,前 Google Assistant 工程师,曾就职于** Amazon**、Momenta、美团 树杨****WAKUART 创始人,「中国好生意」主播 李欣航Kara****Day Zero 主理人 以前在游戏公司,现担任同歌创投执行董事,聚焦早期投资,寻找能改变世界的游戏、应用和智能硬件创造者!是Looki 天使投资人,曾投资华策影视、WaveOptics等项目 Day Zero制作人介绍: **张新阳Francis 树杨: 你是哪里人?从小到大的学习经历是怎样的? 孙洋: 我是天津人,从小读小学、中学都在天津。高中之后去了海外读书,本科在多伦多大学,研究生在卡内基梅隆**(CMU)**读计算机。毕业后在湾区的 **Google **工作了大概三年多,2018 年从硅谷回到国内。 说起来读书经历还挺奇葩的------我没参加过小升初、中考、高考。当时在天津外国语学校考了一个偏奥数风格的小卷,全年级 **2000 人里考了第 50 **名,男生里第 16 名,大家对我预期很高。但上了初一之后,成绩一落千丈,因为我实在不是那种喜欢死记硬背的孩子,英语、语文这类学科特别弱,数学还不错。那三年没少被父母"教育"一番。到了高中才开始开窍,逐渐追上来。 树杨: 你从小就喜欢计算机吗? 孙洋: 从小就喜欢。那时候家里条件不太好,在 90 年代,父母买了一些原始股,上市后卖掉挣了一两万,那个年代一两万还是很多钱,他们就全部给我买了台电脑------奔腾 233 ,Windows 95。从那时候起就开启了我的计算机世界。 最开始是玩游戏,但很快就对玩游戏没兴趣了,转而对破解游戏产生了极大热情。那时候有光盘和刻录机,研究各种算法去绕过版权保护。上大一那年,为了玩到仙剑奇侠传,在海外买不到,前前后后捣鼓了三五天才搞定,把室友羡慕坏了。那种成就感,才是我真正的驱动力。 Kara:当时为什么没有想过进入游戏行业? 孙洋: 我对"玩"游戏本身并不上瘾,我喜欢的是"破解"这件事背后的技术成就感,两者完全不同。CS(反恐精英)我玩了一会儿直接就晕了,所以游戏行业对我没什么吸引力。 树杨: 是什么样的起心动念,让你决定创立 Looki? 孙洋: 创业的心从上学时候就有,但我给自己设了规划------至少要在硅谷真正理解"创新是什么",在大厂和小厂、国内国外都待一段时间,看明白运转逻辑。 真正的契机出现在 2022 年底。GPT-3.5 出来之后,我看到了一个巨大的范式变革。我之前在 Google 做 Google Assistant ,做的就是NLP 相关,而那一波 **AI **出来之后,NLP 这个概念几乎消失了。 更关键的触发点是:2023 年GPT 刚出来时,我有机会为美团 lead 一个团队,做外卖场景的 AI Agent 。做完之后发现了一个巨大的 gap------模型非常聪明,但它不理解物理世界里的东西。 用户问"推荐我吃什么",AI 没有视觉、没有声音、没有任何感知能力,只能从历史订单数据里抓 context 。一个刚从健身房出来的用户,理论上应该推荐健身餐,但 AI 根本"看"不到这一切。这个 gap ,给了我一个非常大的 trigger。 树杨: 当时就意识到物理世界的信息是** AI** 能处理但还未被利用的? 孙洋: 对。而且这跟我的职业经历有一种冥冥之中的呼应。我读书读的是纯软件,但工作一路都在被"push "去做软硬结合:在 Amazon 做仓储物流系统,赶上了 Kiva 机器人收购;在 Google 做 Google Assistant 和 Google Home 集成;回国后在 Momenta 做自动驾驶的后装 **AI **硬件。所以很自然地,我意识到了这个结合点。 Kara: 24 年多模态基座模型还在很早期,你当时怎么就有这个勇气决定创业? 孙洋: 还是一些技术手感吧。我知道那个时候大家做的其实是"假多模态"------语言模型和视觉模型在第三个域做 projection 对齐,不是原生统一的架构。直到 **Gemini 2.0 **之后,才开始有原生多模态、统一 **tokenizer **的方案。 但从立项到产品到用户手里,硬件有一年的周期。你必须提前把技术 sense 、商业 sense 、产品 sense全部串起来,找到那个交叉点,提前押注。这是有一些笃定在里面的。 树杨: 早期融资是怎么过来的?2024 年资本寒冬,你们怎么活下来的? 孙洋: 真的很难。2024 年那个市场,资本非常保守,不管美元基金还是人民币基金,大家都在求稳。我们又是在做极具创新但风险极高的事情。 投资人的核心质疑是:你的市场用户 GTM 在哪?那时候大家根本不理解** AI **硬件在整个 **AI **赛道的意义,认为你就是在做一个消费电子硬件卖货生意。你跟他讲 AI 怎么在里面扮演角色,他根本不想听。 我们团队还给我摆了一个小摆件------一个拍一下就会说话的宠物玩具,录着"不要 toVC ,不要 toVC",放在我桌子上。融资最难的时候,我就拍一下,告诉自己别为了融资去妥协产品方向。 甚至有机构当场跟我说:"你今天做眼镜,我今天就发TS。"我最终抵抗住了诱惑。**Looki **在第一年其实现金流差点断掉两次。最惨的时候,账上只剩几万块钱------工资都快发不出来,辗转腾挪才撑过去。 树杨: 作为第一轮投资人,Kara当时你们为什么会投? Kara: 我们从** 2024 年上半年开始关注 AI **与不同形态硬件的结合,包括眼镜、耳机、手表、手环、智能戒指,当时也已经有北美初创公司在做吊坠形态,但更多是基于音频模态。孙洋是我们在全球聊了几十位 **AI **硬件创始人之后,唯一一个讲出与所有人认知都非常不同观点的创始人 。做 ToC 硬件,核心壁垒在于创始人的认知,因为这决定了他能在多长时间范围内持续做出领先的事情。 树杨: 早期团队是怎么搭建的? 孙洋: 这是从 2018 年回国后慢慢积累的信任资产。在摩拜、Momenta、美团的六七年里,我招了很多同学,大家有非常深的相互了解。出来创业时,他们选择跟我一起走,最初七八个人,都是共事过很长时间、信任度极高的伙伴。 早期没有太多市场的人,核心是搭产品。大家志同道合,都是多面手,伴随着公司一起成长。 树杨: 你们是怎么定义出 Looki 这个形态的? 孙洋: 从第一性原理往下推: 首先,要在正面------侧面的视角跟人的视角偏差太大;其次,要在胸部以上------胸部以下不行。这就圈定了一个大致的范围。 然后我们看,在这个区域里,过百万销量的硬件 **form factor **有哪些------影石的拇指相机、眼镜、耳机。眼镜和耳机是成立的形态,但承载不了我们想做的"持续 always-on 感知"功能:眼镜要么太重,要么续航太短,用户没法长时间佩戴。最终我们看到了拇指相机的形态,最灵活,也更"无感",就往这个方向做了。 外观设计上,我们刻意做了一个选择:第一代产品不追求隐形,要让大家一眼看出来------这是一个阳光的、可穿戴的 **AI **配饰,而不是一个偷拍设备。这也在量产上带来了很大难度。 树杨: 量产过程怎么解决的?供应链最难的地方在哪? 孙洋: 歌尔给了我们非常大的支持。这个产品的外形独特,硬件堆叠空间极其有限,防水工艺、各种模块都是挑战。我们在资金不充裕的情况下,在其他地方到处省钱,但在产品的BOM开模和项目节奏上没有省一分。这个冒险的决策,也是导致我们第二次现金流危机的原因------但最终歌尔和我们一起扛住了,"做难而正确的事"这种价值观,我们是一致的。 很多用户拿到第一代产品后都很惊讶:这是你们的第一代产品?做得这么精细成熟?这背后有歌尔非常大的助力。 树杨: 隐私是 **Looki **被争议最多的地方,你怎么看? 孙洋: 隐私可以拆成两部分讲。 第一部分:数据安全。 这个行业已经有成熟解决方案------数据加密、云存储合规、SOC2 认证。海外数据留海外,国内数据在国内,模型也用当地的,这方面我们非常合规,不需要担心。 第二部分:佩戴场景的"被拍"感。 这本质上是用户自己来控制的------Looki 有物理开关,随时可以摘下放进口袋。而且软件层面,所有拍摄内容默认存在本地硬件里,只有用户在 APP 里主动点击"上传并分析",才会上云,上传前还可以再次筛选删除。 有意思的是,我们观察到:几乎所有关于隐私的质疑声音,都来自还没有买产品的人。 真正买了 Looki 的用户很少在群里质疑隐私,反而带着产品出门,被路人好奇追问,成为了最好的自来水推广者。我们调研发现,有 20%\~30% 的新用户是被朋友推荐购买的。 Kara: 其实手机第一次加摄像头、GPS 定位、人脸识别,当年都有巨大争议,但今天我们都已经完全接受了,甚至忘记了当年的争论有多激烈。AI 硬件的隐私讨论也会随着时间的推移,随着大家体验到真实价值,慢慢被接受。当benefit 大于 cost,用户自然愿意接受。 孙洋:说得对。Google Glass 当年被隐私问题喷得很惨,但今天MetaRay-Ban 已经卖了几百万副还在持续出货。10 年间,社会对可穿戴摄像头的接受度已经发生了根本性的变化------一方面是摄像头在社会中的渗透率显著提升,另一方面是抖音、TikTok 让大家习惯了日常生活化的拍摄记录方式。 Kara: 有第三方媒体把 **Looki L1 **叫做"人生回看器",你认可这个定义吗? 孙洋: 在目前这个阶段是符合的,但这个名字不是我们起的,是媒体用户自己叫出来的。在我看来,**Looki **第一代产品会经历三个阶段: 第一阶段(过去时): 记录回忆,回看过去,基于这些内容生成漫画、vlog,这就是现在大家体验到的"人生回看器"。 第二阶段(当下时): 主动式 AI(Proactive AI)+ 长时运行** Agent**。**AI **实时感知当下发生的事情,主动给用户反馈。举个例子:你设定了"每天最多喝一杯咖啡",当 **Looki **发现你拿起第二杯咖啡,就会实时提醒你。或者当 **AI **看到某个场景,自动给你关联推送一个相关的有趣知识点。这个功能很快就会上线。 第三阶段(未来时): 基于过去的记录和对当下的理解,做Prediction(预测)。结合各类信息流,AI 能够前置地帮你做出判断和准备。 孙洋: 我觉得大家都在讲"主动式 AI",已经快讲烂了。我们不想过度渲染,直接把产品给到用户,让大家自己去玩。 Kara: 商业模式上你怎么思考? 孙洋: 会经历三个阶段。现在毫无疑问靠卖硬件,这是传统方式。接下来会有订阅,可能先从海外开始。最终我们想做的是重构信息流。 信息流经历了几个时代:门户网站(我有什么信息就 **po **上去)→搜索引擎(聚合信息,用户主动搜)→ 推荐引擎(根据用户行为做个性化推送,抖音、**TikTok **就是这个时代的代表)。 我们认为下一个时代是生成式引擎。推荐引擎依赖低维特征(停留时长、点击),生成式引擎需要高维理解。而高维理解的前提是**感知------Looki **就是在解决这个感知问题。 举个例子:你和朋友去了一家餐厅,AI 知道你们是朋友、今天是元宵节、你第一次来这家店、你的口味偏好......它不是基于规则推荐一个套餐,而是为你千人千面地生成一个专属内容或优惠。这就是从推荐逻辑跳跃到生成逻辑的质变。 孙洋: 做ToC的那个位置是独占的------你脖子这里的位置只有一个,不会同时戴两款类似的产品。而且视觉信号和声音信号是通用的,这就是一个通用入口。只要是通用入口,就没有理由做垂直细分,你占领了这个入口,壁垒就会随着时间自然积累。 树杨: 2 月份一波模型集中发布,你怎么看现在的模型趋势? 孙洋: 模型开始明显分化了,路线清晰了: 一条是Coding 方向 ------Coding 能力决定了模型的智能天花板,这已经被验证;而且 Coding 的商业化路径是最清晰的,所以大量公司在做,这很合理。 另一条是原生多模态方向------Google Gemini、Qwen,以及据说将发布的 DeepSeek v4,都走向统一架构、原生多模态。 对于 Looki 来说,我们一直沿着多模态这条线走,随着模型能力越来越强、推理能力越来越好、成本越来越低,我们能吃到的红利会持续增加。 Kara: 关于 OpenClaw(Claude Computer Use) 和 Vibe Coding 你怎么看? 孙洋: OpenClaw 刚出来我就部署完玩了一遍,对我来说其实没有太多新鲜感,因为里面用的模块某种程度上都早已存在,只是被非常好地粘合在一起,加了一个双循环机制。 但 OpenClaw 最核心的意义在于打通了私有数据(Private Data) 。我在给 Kara 的那张 slide 里其实还有一条数据线的发展趋势:22-23年是Training Data ;23-24 年是 Public Data (Perplexity 那个时代);24-25 年就应该是 **Private Data 进来了。OpenClaw本质上就是把你电脑里所有的私人数据结合起来,让 AI **真正做到"千人千面"。 孙洋: 更重要的是,OpenClaw 代表的是一种思想和技术框架 :搭了一个场,让 AI能够在里面自由发挥。这和移动互联网时代的产品逻辑完全不同------以前做产品经理要写PRD ,针对某个垂类集中开发功能;但今天你给 AI 搭的是一个场,它表演什么节目是它自己的事。Looki 也是同样的逻辑。 孙洋: 还有一个范式变化很多人没意识到:以前搭一个场是为了人 ,看** DAU、MAU这些指标;今天搭一个场其实是给AI / Agent**的,让它在里面发挥价值。至于产生什么功能,是 Agent 自己来决定的。 Kara: 长周期来看,你怎么看人和 **Agent 的交互,以及 Agent **和 Agent 的交互? 所以 **Looki **尽力避免让用户去写 Prompt ,门槛太高了。整个世界都是 AI 的 Prompt------你经历了什么、看到了什么、听到了什么,都自动成为输入,AI 基于这些做出反应,你只需要点赞或点踩来校准。这是一个不断对齐的过程。 Kara :站在 2026 年初,你对未来三到五年人和 **AI **的关系,有哪些非共识的预测? 孙洋: 社会接受度上,大家会越来越把 **AI **当成一种新型生物来看待,而不仅仅是聊天工具。正如 Sam Altman 说的,人类会出现"第三设备"------除了电脑和手机之外的第三个终端。 关于 AGI :在我看来,今天已经无限接近** AGI **了。很多人觉得体验不好,其实是因为没有给 AI足够的context,或者没有合理使用。 但我最近也有一种矛盾感------我们上周刚决定,不再招初级工程师了,因为** AI **已经可以完全替代。这件事在硅谷已经非常激进地发生,**Twitter **裁了 40% ,**Block **也裁了 40%,而且是全岗位裁员,不只是代码岗。 再过两三年,可能 senior 工程师也不再需要了,设计、市场各类岗位也是如此。 我每天看到 **AI **进步,一边兴奋,一边在想:今天的应届毕业生怎么办?未来十年他们长大后,整个职业市场会是什么样子? **Dario Amodei(Anthropic CEO)**说过一句话让我很有感触:**AI **是一场海啸,但人类还没有意识到。各行各业都会发生巨变。海啸过后,社会会重建成什么样子?我今天没有答案。但我能感受到这个趋势,可能再有两三年,大家的体感就会越来越强烈。 树杨: 这两年创业,你个人最大的成长是什么? 孙洋: 最大的成长是视角变了。以前在创业公司待着,总觉得这里不合理、那里不对,各种不满。真正操盘之后才发现------那些"不合理",原来都是有道理的,因为你掌握的是全盘信息,而不是某一个模块的局部视角。 孤独是肯定有的。每个创业公司的 CEO 都孤独,有太多决策旁人不理解,有太多事情不能对外说。孤独的时候就跟AI 聊聊吧------我觉得这不是玩笑话,是认真的。 但不管 **Looki **最终成与败,创业这个过程本身就很值得。你在今天科技世界发展的最前沿,带着一个团队在摸索,在牌桌上参与这场游戏,这已经是人生中非常享受的事了。 求点赞,收藏,转发! 阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么




99年/滑铁卢+哥伦比亚大学/前纽约创业者/AI Native Developer /重度游戏玩家,现就职于同歌创投,聚焦早期 to c 投资一、从天津少年到硅谷工程师:一段"不走寻常路"的成长
二、Looki 的起点:那个被忽视的"物理世界"缺口
三、从账上只剩几万块,到"人生回看器"走红
四、产品定义:第一性原理推导出"拇指相机"形态
五、隐私争议:每一次技术变革,都会经历这场讨论
六、产品三阶段:从"人生回看器"到"主动式AI"再到"预测未来"
七、商业模式与壁垒:从卖货到信息流重构
八、AI 生态展望:模型分化、Agent 哲学与海啸将至
九、关于未来:AGI 已无限接近,AI 海啸将至



当全世界都在为 OpenClaw 和 Manus 这样的“赛博打工人”惊呼或恐惧时,真正的顶级掠食者已经悄然入局。 3 月 12 日,英伟达正式发布并开源了 120B(1200 亿)参数的 MoE 模型 Nemotron 3 Super。随之曝光的,还有一份令人胆寒的财务文件:英伟达已备好 260 亿美元(约合 1789 亿人民币)巨资,将在未来五年内全盘倾注于构建开源 AI 模型。卖铲子的人,开始亲自下场挖金矿了。 Nemotron 3 Super 并不是一个用来写诗或讲笑话的聊天模型,它的各项指标都透着一股浓烈的“工业控制”味道。 它原生支持 100 万 token 的上下文窗口。在针对 OpenClaw 这类智能体控制能力的 PinchBench 测试中,它以 85.6% 的高分强势空降同类开源模型榜首。 同时,它的运转效率也实现了大幅度跨越。在 8k 输入与 64k 输出的特定运行设置下,它的推理吞吐量达到了对标竞品 GPT-OSS-120B 的 2.2 倍。 在实操基准测试中,它搭配 OpenHands 框架在软件工程基准 SWE-Bench 中跑出了 60.47% 的准确率(碾压 GPT-OSS 的 41.9%)。而在包含航空、零售和电信三大领域的 TauBench V2 复杂业务场景测试中,它同样交出了 61.15% 的高分成绩。 为了提升 Agent 面对复杂任务的稳定性,英伟达不仅给它灌入了 1.5 万个核心合成任务的终端操作轨迹,还在强化学习阶段引入了 PivotRL 技术,强行遏制 AI 在长程任务中的“推理漂移”。 这款模型在技术架构上极其激进:为了在处理百万级上下文时兼顾效率与精度,采用了混合 Mamba-Transformer 架构,在具备线性时间复杂度的 Mamba-2 层中插入了 Transformer 全局注意力层。 而在模型规模的扩展上,为了解决传统混合专家架构的瓶颈,引入了 Latent MoE 技术,在潜空间降维来直接调用四倍数量的专家网络,实现更精细的分工。 此外,模型还原生应用了多 token 并行预测技术,通过共享权重设计,单次传递即可预测多个未来 token,极大提升了响应速度。 但最核心的杀招隐藏在硬件底层:Nemotron 3 Super 是在 25 万亿个 token 上,原生采用 NVFP4 格式进行预训练的。这意味着它从出生起,其基因就完全是为了适配英伟达最新的 Blackwell 架构(如 B200 芯片)而优化的。最终的结果是,它在 B200 芯片上跑出了比前代 H100 快整整四倍的推理速度。 在未来五年投入 260 亿美元搞开源模型,这笔钱甚至超过了许多国家级 AI 项目的总预算。英伟达在此次开源中毫无保留:全参数权重、训练配方、评估日志、部署手册全盘托出。 但官方通稿中泄露了这笔巨资的真实用途:英伟达将通过在超级数据中心里跑这些自家优化的开源模型,对计算、存储和网络性能进行全方位的压力测试。压榨出的宝贵数据,将被直接拿来反哺未来的硬件架构路线图,实现“由软件实操定义硬件进化”。 👇 欢迎关注我的公众号 在 AI 爆发的深水区,我们一起探索真正能穿越周期的技术价值。 欢迎关注【睿见新世界】一、 暴力碾压 GPT:不搞闲聊,专为“赛博打工人”注入灵魂



【笔者观点】 这是一个极具杀伤力的信号:英伟达敏锐地察觉到,大模型的战争已经从“比谁嘴皮子溜(Chat)”升级到了“比谁干活稳(Agent)”。之前的文章我们提到,AI Agent 的核心是 Skills 和工具调用,而 Nemotron 3 Super 简直就是为解析复杂 JSON、操作终端命令量身定制的“最强数字大脑”。当其他大模型还在比拼虚无缥缈的“常识推理”时,英伟达已经开始给数字员工发放“高级电工证”了。谁掌握了最底层的 Agent 执行模型,谁就掌握了未来所有自动化软件的命脉。
二、 披着开源外衣的“特洛伊木马”:用软件锁死硬件生态



【笔者观点】 这才是科技圈最反常识的降维打击!开源精神的初衷是“硬件不可知论(Write once, run anywhere)”,但英伟达的开源,是送给全行业一个极其精密、极其好用,但“只有插在自家主板上才能发挥全力的特洛伊木马”。表面上,老黄大方地送出了顶级的开源模型;实际上,这种原生绑定 NVFP4 的做法,直接把 AMD 和谷歌 TPU 等竞争对手的算力架构踢出了局。你以为你白嫖了一个 120B 的最强模型?错,你是被英伟达用这个模型逼着去买他家更贵的新一代显卡。
三、 260 亿美元的“极限拉练”:拿全世界开发者当免费 QA
【笔者观点】 如果你觉得 260 亿是用来做慈善的,那就太天真了。这其实是一场让人脊背发凉的“终极阳谋”。英伟达为什么要自己做模型?因为现有的 AI 公司(哪怕是 OpenAI)在压榨算力极限方面,根本跟不上英伟达迭代硬件的野心。老黄不想等别人来测试他的芯片了,他要自己造出地表最吃算力的怪物,然后免费发给全世界的开发者去跑。全人类的开发者,都在拿着这套开源方案,不知不觉地充当英伟达下一代硬件的免费测试员(QA)。在 AI 时代,得生态者得天下,而英伟达正在用 260 亿美元,彻底买断未来十年的算力定义权。
微信搜索 【睿见新世界】 或扫描下方二维码,获取每周硬核技术推文:
坐标北京,40 岁,币和股票约 300 万,无负债。
从 2022 年底失业,因为没什么经济压力,一直躺平在家。
面对 AI 对编程行业的冲击,再去上班也没什么前途了。
想来想去,自己最大的优势就是决策能力和投资能力还不错。
准备做个付费社群,接受各种咨询,有感兴趣的吗?
近 2 年的收益如下:


每年都会给父母买体检中心套餐,但是最近体检中心口碑感觉变差了,大家觉得是去体检中心好呢还是去医院好呢?我在外地没法陪父母体检,去医院就怕父母说不明白。