做 OPC 太难了,天天焦虑
做 OPC 太难了,天天烧 token ,眼一睁就烧钱,vibe 出来的东西基本无法赚钱。
有 OPC 赚钱的吗? 分享一下
现在是公司发工资给我 solo 做产品,万一工资停了,只能回去打工了
https://solo-radar.xyz
xiaohack博客专注前沿科技动态与实用技术干货分享,涵盖 AI 代理、大模型应用、编程工具、文档解析、SEO 实战、自动化部署等内容,提供开源项目教程、科技资讯日报、工具使用指南,助力开发者、AI 爱好者获取前沿技术与实战经验。
做 OPC 太难了,天天烧 token ,眼一睁就烧钱,vibe 出来的东西基本无法赚钱。
有 OPC 赚钱的吗? 分享一下
现在是公司发工资给我 solo 做产品,万一工资停了,只能回去打工了
https://solo-radar.xyz
没有更新 skills,今天使用感觉智商不如之前,完成一个功能没有之前严谨,而且发生过好几次删文件的情况


最近看着新能源车很是方便,就想着买一辆,但人在北京,没有北京牌照,似乎不能享受新能源带来的便利。
买个油车好像更切合实际
所以问问有车的 v 友的
最近想买个二手的 model Y ( 2024 款),已知的渠道有:
1.小红书个人
2.特斯拉官网认证二手
3.转转二手特斯拉
看转转上有展示每个车的出险报告和里程数(不知道特斯拉里程能不能改),比较偏向转转,想听听大家有什么经验可以分享的,参考一下。
大家可以玩玩,真的顶,目前生图 No1
如题,今天刚刚开的自用 gpt team 账号,一个 5 个车位,还多出来 1 个,20 元/位置,有需要的联系。质保一个月,掉了按日期退款。
据说适合建站 就是有点贵
要是 3 年付 66$ 就买一个了 ,3 年后不知道硬件啥价格啊
冷静下来,因为过去六个月左右时间里,由于内存/NVMe 价格疯狂上涨,我们过得相当艰难。但与此同时,HostHatch 也取得了不错的增长,收入几乎比上一年翻了一番,而且我们一直在忙于升级现有的服务架构(网络升级、引入新功能的全新控制面板等等)。LET 是我们发展历程中非常重要的一部分,因此我们举办了年度周年庆促销活动。
请查看以下优惠。虽然不如往年的黑色星期五优惠力度大,但鉴于目前的硬件价格,这已经是我们今年能提供的最佳方案了。而且库存极其有限。
2 个 CPU 核心( 0.5 个专用核心,1.5 个公平共享核心)罗马/米兰
4 GB 内存
50 GB NVMe 存储
5 TB 带宽(亚太地区 3 TB ,首尔 1.5 TB )
价格: 每年 35 美元,三年 95 美元
(三年付款可享双倍内存、存储和带宽)
4 个 CPU 核心( 1 个专用核心,3 个公平共享核心)罗马/米兰
8 GB 内存
100 GB NVMe 存储
10 TB 带宽(亚太地区 6 TB ,首尔 3 TB )
价格: 每年 65 美元,三年 170 美元
(三年付款可享双倍内存、存储和带宽)
4 个 CPU 核心( 2 个专用核心,2 个公平共享核心)罗马/米兰
16 GB 内存
200 GB NVMe 存储
25 TB 带宽(亚太地区 12 TB ,首尔 6 TB )
价格: 每年 130 美元,三年 350 美元
(三年付款可享双倍内存、存储和带宽)
双核 CPU
2 GB 内存
20 GB NVMe 固态硬盘 + 2 TB RAID-10 硬盘阵列
10 TB 带宽(亚太地区为 3 TB )
价格: 三年 130 美元
4 个 CPU 核心
4 GB 内存
40 GB NVMe 硬盘 + 5 TB RAID-10 硬盘
35 TB 带宽(亚太地区为 10 TB )
价格: 每年 140 美元,三年 400 美元
*(三年分期付款升级,内存提升 1.5 倍,带宽提升 2 倍


你们怎么处理
并不是每个人都在大厂、头部企业
你们如何为以后打算,到时你们怎么做一个“合适的人”
把责任推卸给时代,推卸给世界,你的处境不会有任何改变。
现实就是现实,你要观察和理解现状,好好分析,实现中一定蕴含了人走到今天这一步的原因,
你能发现其中的现象和道理,再采取行动就可以了
说了那么多,我就是现实那个笨蛋
我看有人晒的做的小程序还有 banana ,不过不知道是真的假的,没说小程序名称,也没办法验证。
这种 AI 创作,不管是图片还是文字,是不是要接外部的风控呀?
想询问一下各位,现在写代码,用的都是什么模型,怎么使用的
还有想问一下,现在古法编程,真的还有必要吗??一直在苦苦坚持古法编程的,因为最近安排的活越来越多,越来越多,已经换成 AI,真香啊~~
我妈 53 了,还没做过体检,而且是农村户口只有农保没有社保。
正好公司有体检折扣,想着让我妈做一次,但是听说查出问题的话想再买保险就很难了。
大家有什么建议吗?
另外有没有推荐的老人保险?

在多元算力时代,大模型的性能不仅取决于计算密集型的算子,更取决于那些随处可见的 Element-wise(逐元素)与 Reduction(规约)算子。它们虽然逻辑简单,却往往决定了整个模型的吞吐上限。 在 FlagGems 的日常开发中,我们反复验证一个问题:大部分的性能瓶颈,不出现在计算密度上,而出现在访存组织里。FlagGems 是基于 Triton 的高性能通用算子库,作为 FlagOS 开源生态的核心组件,FlagGems 目前支持超过 400 个算子,基本覆盖大模型需求,82% 以上的算子性能可与 CUDA 原生算子平齐甚至实现超越,成为全球最大的 Triton 单一算子库。更重要的是,它支持多款硬件后端,完成了对 28 种主流 AI 芯片的适配支持,做到“多芯片运行、处处高性能”。 本文将从工程实践角度,拆解 FlagGems 在 Element-wise 和 Reduction 两类基础算子上的优化方法。所有结论均来自真实 Profile 数据和实际的测试结果。 Element-wise 算子(如 add、mul、gelu)是典型的访存密集型(Memory-bound)任务,特点是:计算量小,访存密度高。因此,其性能瓶颈通常不在计算,而在内存带宽。 计算公式:理论带宽上限 = 内存带宽 × (有效负载字节数 / 总传输字节数)。 在实际开发中,开发者常常发现即使逻辑写对了,带宽利用率(DRAM Utilization)也往往只有 30% 左右。那如何判断一个算子是否“足够快”呢?在 FlagGems 的工程实践中,我们通过两个硬指标来衡量: 如果低于任一值,则存在优化空间——不是算力不够,而是数据没送到位。 GPU 的性能核心在于访存合并(Coalesced Access),以 Cache Line(通常是 128 字节)为单位,一次访问会读取整个 Cache Line 的数据。如果你的内存访问是对齐的,一次就能读满数据;但如果是非对齐的,一次访问就会跨两个 Cache Line,需要两次内存事务,数据搬运开销直接翻倍。 在 Triton 中最优的访存模式是用 tl.arange(0, BLOCK_SIZE) 生成连续偏移,这样相邻线程访问相邻地址,GPU 会自动合并访存; 但如果张量本身是非连续的,例如转置后的张量,stride[1] = H,访问就会变成“步长为 H 的跳跃式访问”。这种情况下,GPU 的访存合并机制完全失效,每次加载可能只拿到 1 个元素,这是硬件架构决定的,没有通用的软件优化方法。 FlagGems 的解法不是“优化非连续访问”,而是让 kernel 能够正确支持非连续输入,避免因错误计算地址而出错。在 kernel 中传入每个维度的 stride 参数,计算偏移时使用 stride 而非假设连续。 优化建议:对于非对齐访问的场景,可以用 padding 的方式,把输入数据补到对齐的大小,再去掉 mask,减少额外的内存事务;对于跳跃式访问,可以使用 FlagOS 新语言Triton-TLE 中的 tle.gpu.alloc 分配 SMEM,把数据连续加载到 SMEM 中,再从 SMEM 跳跃式访问,从而提高 GMEM 的访问效率。 Triton 里的 tl.load 支持 mask 参数,用来处理边界外的访问(比如输入大小不是 BLOCK_SIZE 的整数倍),mask 策略的选择,直接影响着算子的性能。 常见的 mask 策略有两种,一是边界检查 mask:直接用 offsets < n 作为 mask,这是最直观的写法,但会导致 Warp 内出现分支,产生 Warp Divergence,同时还会增加额外的指令开销;二是Padding 后无 mask:先把输入数据补到 BLOCK_SIZE 的整数倍,加载的时候不用 mask,计算完再截断。这种方式虽然多了一点数据拷贝的开销,但去掉了分支,整体性能反而更高。 mask = pid * BLOCK_SIZE + offsets < n 是常见写法。但当 n % BLOCK_SIZE ≠ 0 时,末尾 warp 会因 mask 分支导致指令发射效率下降。FlagGems 则改用 padded load + conditional store: Nsight 显示:warp instruction issue slot utilization 从 63% → 89%。在 FlagGems 的测试中,去掉 mask 后的算子,性能大大提升,尤其是在输入大小不固定的场景下,提升非常明显。 现在很多大模型训练会用混合精度(FP16/BF16 做计算,FP32 做累加),很多人在实现算子时,会频繁使用 tl.cast 做类型转换,但处理不好,这部分操作会成为新的性能瓶颈。 Reduction 算子(如 sum、mean、max)将一组数据通过规约运算合并为一个或多个结果。在大模型中,Reduction 出现在 LayerNorm、Softmax、Loss 计算等多个关键路径上。 许多开发者在写Reduction 算子时,会用单阶段实现:让所有线程块同时对全局数据做 Reduction,最后只有一个线程块输出结果。这种写法的问题非常明显,只有最后一个线程块在工作,前面的线程块都在闲置,GPU 的并行度根本没利用起来;多线程块访问全局内存时,会出现写冲突,需要原子操作,性能开销比较大。 FlagGems 默认采用 two-phase + grid-stride loop: 实测结果显示:(2^20,) shape 下,两阶段比单阶段快 1.8×,且 L2 traffic ↓ 44%。 Reduction 算子的 BLOCK_SIZE 选择,直接决定了每个 SM 的 Occupancy(活跃线程块数),而 Occupancy 太低,就会导致 GPU 的算力闲置。 BLOCK_SIZE=1024不一定比512 快。主要原因在于:天数 GPU warp scheduler 最多并发 32 warp / SM;若 kernel register usage 高,1024 可能压到 16 warp/SM,occupancy 仅 50% 。 最佳实践参考: Reduction 算子的实现中,很容易出现 Warp Divergence,尤其是在 Block 内 Reduction 的循环里,如果分支处理不当,同一个 Warp 里的线程会执行不同的路径,导致整个 Warp 的执行效率大幅下降。 优化技巧在于: 讲了诸多理论,不如看一个 FlagGems 的案例。 问题:原始 GELU kernel Profile 显示 sms__inst_executed_op_fadd 占比异常低,而 sms__inst_executed_op_fmul 高达 68% ,推断存在冗余乘法链。 原因:PyTorch 风格 0.5 x (1 + tanh(...)) 引入 3 次标量乘,未利用 tl.math.fma 合并。 优化动作: 结果: 结语:性能优化不是玄学,是有章可循的工程实践 很多人觉得算子优化是“碰运气的玄学”,但 FlagGems 的实践告诉我们:所有高性能算子的背后,都是对硬件原理的深刻理解,和对每一个细节的打磨。 在编写或优化算子时,可以对照以下清单参考: 从判断性能上限,到优化内存访问,再到解决 Reduction 的并行度问题,每一步都有清晰的方法论和可落地的技巧。目前,FlagGems 已完成对英伟达、华为、摩尔线程、海光、天数等 28 种主流 AI 芯片的适配支持,在 40 个主流 AI 模型上的推理任务算子覆盖度达到 90%~100%,为开发者提供了极致的开发体验。 如果你想深入了解 FlagGems 里的更多算子实现,可以前往https://github.com/flagos-ai/FlagGems查看源码,也欢迎大家一起参加“FlagOS 开放计算全球挑战赛”算子开发和优化赛道(https://flagos.io/RaceDetail?id=296flq8k⟨=cn),使用 Triton 语言开发大模型常用算子,深入探索芯片体系结构,挑战算子极致性能! 关于众智FlagOS社区 为解决不同 AI 芯片大规模落地应用,北京智源研究院联合众多科研机构、芯片企业、系统厂商、算法和软件相关单位等国内外机构共同发起并创立了众智 FlagOS 社区。成员单位包括北京智源研究院、中科院计算所、中科加禾、安谋科技、北京大学、北京师范大学、百度飞桨、硅基流动、寒武纪、海光信息、华为、基流科技、摩尔线程、沐曦科技、澎峰科技、清微智能、天数智芯、先进编译实验室、移动研究院、中国矿业大学(北京)等多家在 FlagOS 软件栈研发中做出卓越贡献的单位。 FlagOS 是一款专为异构 AI 芯片打造的开源、统一系统软件栈,支持 AI 模型一次开发即可无缝移植至各类硬件平台,大幅降低迁移与适配成本。它包括大型算子库、统一AI编译器、并行训推框架、统一通信库等核心开源项目,致力于构建「模型-系统-芯片」三层贯通的开放技术生态,通过“一次开发跨芯迁移”释放硬件计算潜力,打破不同芯片软件栈之间生态隔离。 GitHub 项目地址:https://github.com/flagos-ai GitCode 项目地址:https://gitcode.com/flagos-ai SkillHub:https://skillhub.flagos.ioElement-wise 算子的性能上限在哪里?
高效 Element-wise 的关键要素
x = tl.load(ptr, mask=True) # padding to BLOCK_SIZE multiple
y = compute(x)
tl.store(out_ptr, y, mask=offsets < n) # store mask 更轻量x_u32 = tl.load(ptr_u32) # load two FP16 as one u32
x_f16_a, x_f16_b = tl.math.ubf16_to_f32(x_u32) # hardware-accelerated unpackReduction 的效率陷阱与优化
FlagGems 中的工程实践案例

SOLIDWORKS TolAnalyst 插件的使用方法和应用场景 文章来源:卓盛信息(400-696-5950) TolAnalyst 是 SolidWorks Professional 和 Premium 版本中集成的公差分析工具,专门用于研究公差和装配方法对装配体两个特征间尺寸累积(公差层叠)的影响。它能够自动计算尺寸链,帮助工程师在设计阶段预测和解决公差累积问题。 使用前提条件 1. 版本要求:需要SolidWorks Professional或Premium版本网页 2. 插件启用:在插件管理中勾选启用TolAnalyst 3. DimXpert标注:所有参与分析的零件必须使用DimXpert工具进行三维尺寸和公差标注网页 四步使用方法详解 第一步:创建测量 定义需要分析的尺寸,即两个DimXpert特征之间的直线距离 选择装配体中的两个面或特征作为测量起点和终点 例如:分析两个安装孔之间的中心距 第二步:定义装配体顺序 选择参与公差研究的零件,并按实际制造装配顺序排列 所选零件构成"简化装配体" 装配顺序对计算结果有重要影响 第三步:应用装配体约束 定义每个零件如何放置或约束到简化装配体内 约束按顺序应用,应用顺序对结果产生重大影响 模拟实际制造车间的装配约束关系 第四步:分析结果 系统自动计算并显示分析结果 主要输出包括: 典型应用场景 1.非标设备设计验证 在非标设备设计中,公差累积可能导致装配干涉、功能失效或性能下降。TolAnalyst可帮助预测多来源误差累积,包括: 2.复杂装配关系分析 适用于多层级装配、非线性尺寸链、柔性与刚性混合装配等复杂情况,特别是: 3.装配可行性验证 通过计算最坏情况和统计情况,验证零件在公差范围内能否顺利装配。例如:验证螺钉是否能顺利穿过安装孔。 4.公差优化设计 识别对公差累积影响最大的关键特征和公差值,帮助工程师: 与传统手工计算的对比优势 实际应用示例 案例:脚轮轴支撑装配分析 研究目标:验证顶盘安装孔(11mm)与脚轮轴连接螺钉的装配可行性 分析过程: 第四步:分析结果 注意事项 总结 TolAnalyst 是 SolidWorks中强大的公差分析工具,通过自动化的四步流程,能够有效解决传统手工公差分析的局限性。它特别适用于复杂装配体的公差累积分析,帮助工程师在设计阶段发现问题、优化公差分配,从而降低产品成本、提高产品质量。对于需要进行精密装配验证的产品设计,TolAnalyst是不可或缺的分析工具。
摘要: 在过去的实测调研中,我们发现了外贸企业普遍面临的痛点:客户数据被平台裹挟”。 许多CRM系统号称具备私域功能,但实际上是公域CRM。这类公域CRM系统通常由B2B平台控股或投资(例如阿里系的小满OKKI、中国制造网投资的孚盟等)。它们的本质是“平台保姆”,虽然能帮你快捷回复平台询盘,但其致命缺陷在于,企业辛苦获取的客户数据(无论来自平台、展会还是独立站)在沉淀过程中,可能被导入平台的“公域客户池”,导致数据透明化。竞争对手可通过平台的RFQ等机制触达您的客户,引发恶性比价,最终导致“增收不增利”,老客户流失严重。 在本次历时 6 个月的深度实测中,我们走访了 200+ 外贸企业,实操测试了市面上 10 余款主流外贸CRM,最终确立了以下四大核心测评维度: 真正的私域,前提是“数据资产化”,这是外贸CRM选型的首要考量。包括客户数据的归属权是否100%属于企业、系统是否与任何B2B平台有数据打通、是否支持多级权限管理、操作日志追溯、数据备份与灾备。 孤立的外贸CRM 没有价值。优秀的系统必须覆盖“营销获客(EDM/社媒/站内)- 询盘分配 - 智能跟进 - 订单履约 - 售后复购”的全生命周期,并实现跨渠道数据打通。 2026年的外贸CRM 如果没有AI深度植入,就是落后生产力。测评重点包括:AI 智能写邮、多语种实时翻译、买家意图预测、自动打标签以及 AI 销售话术推荐等。 通用型CRM 功能宽泛、外贸场景适配不足,无法适配外贸邮件沟通、多语言往来、海关数据、跨境单据、海外渠道营销等专属需求。专为外贸打造的私域 CRM,完全贴合国内外贸企业业务流程、工作习惯与出海场景,上手快、落地性强。 综合以上四大维度的深度测评,我们得出以下结论:对于绝大多数中国外贸企业而言,选择一款真正独立、功能全面且深度适配本土业务的CRM系统,是构建长期竞争优势的关键。这里的CRM系统既不是通用型CRM,也不是外贸公域CRM,而是外贸私域CRM系统。 基于上述四大维度,本文对2026年主流外贸CRM系统进行了深度实测。以下是各系统的详细测评结果: 综合评分:9.8/10 富通天下是纯私域原生系统,与所有 B2B 平台完全隔离,数据 100% 企业私有化归属,多级权限管控、操作溯源、数据加密、离职资料一键交接,彻底实现数据自主掌控,无任何平台裹挟风险。 综合评分:7.2/10 综合评分:7.0/10 综合评分:7.0-7.5/10 外贸的利润正在被层层盘剥,这是不争的事实。但聪明的企业总能找到破局之道。
随着外贸行业数字化转型进入深水区,私域 CRM已成为企业掌控数据主权、实现全链路增长的核心引擎。然而,市面上的外贸CRM系统良莠不齐,很多外贸企业陷入了“建了私域却无法转化”、“客户数据被平台裹挟”的窘境。本文从数据主权、全链路能力、AI 智能化、行业适配度四大核心维度,对市场上主流外贸CRM系统进行深度测评,解析外贸私域CRM的核心价值,并基于市场实测,呈现一份详尽的选型指南。其中富通天下以绝对优势成为国内外贸私域CRM系统标杆。一、陷入窘境:为什么你的外贸私域“建而不用”?
破局的关键,在于重新定义外贸私域 CRM 的选型标准。二、四大测评维度:如何科学选型
1. 数据主权:数据到底归谁?
2. 全链路能力:能否打通业务断点?
3. AI 智能化:能否替代重复劳动?
4. 行业适配度:是否懂外贸的“坑”?
三、2026年外贸私域CRM系统实测榜单
1.富通天下私域CRM
定位:国内外贸私域CRM系统绝对标杆
富通天下成立于2002年,深耕外贸信息化领域24年,是国内最早提出“外贸私域CRM”理念并落地实践的厂商,累计服务6万多家外贸企业,覆盖外贸工厂、贸易公司、中小出口企业及SOHO等全类型。在2026年的多份权威评测中,富通天下私域CRM在外贸业务适配和数据保护方面均位列榜首。
覆盖全网获客、私域沉淀、客户管理、邮件全流程营销、商机跟进、订单管理、老客复购、团队协同、ERP 无缝对接,全业务链路完整闭环;整合海关、社媒、独立站、展会全渠道流量统一归集,一站式完成从开发客户到长期运维全流程。
自研外贸垂直 AI Agent 大模型,搭载 AiReach 全天候全自动营销系统,实现多渠道智能获客、线索去重清洗、意向智能筛选、客户自动建档、邮件智能自动化触达、客户画像分析、高价值商机精准锁定,AI 深度嵌入全业务流程,24 小时自动化运营。2.小满OKKI(原小满CRM)
小满科技(现名OKKI)是国内知名的外贸CRM系统,被阿里国际站全资收购,是公域CRM的典型代表。OKKI提供一站式解决方案,深度结合外贸业务场景,在邮件管理、客户管理、邮件追踪、PI管理、统计分析等方面功能较为完善。
然而,作为公域CRM,其数据主权存在根本性隐忧。使用小满OKKI的外贸企业,录入的客户信息会自动同步至阿里国际站的公域客户池,客户数据存在被推荐给竞争对手的风险。这导致新客户询盘转化率和老客户复购率可能下降。
适用企业: 主要在阿里国际站投入大量预算的外贸企业,可作为B2B平台的后台工具使用。但精明的外贸企业通常的做法是:一旦客户成交,就将其转入私域CRM系统。3. 孚盟CRM
孚盟软件是中国制造网投资入股的外贸管理软件公司,成立于2010年,也是公域CRM的代表之一。孚盟CRM深耕外贸行业多年,具备获客管理、外贸客户管理、外贸业务管理等多个功能模块,在流程管控、部门协作、长订单跟踪方面有较好的表现。同样,作为公域CRM,孚盟与B2B平台深度绑定,存在数据主权风险。其适用企业主要为需要精细化客户管理、业务流程管理和邮件营销的外贸企业,特别是制造业和跨境电商企业。4. 国际通用型CRM
包括Salesforce CRM、HubSpot CRM、Microsoft Dynamics 365 CRM等国际品牌。这些系统在全球范围内拥有庞大的用户群体和成熟的产品体系,在高可定制性、AI能力、全球化合规等方面各有优势。
Salesforce CRM:全球CRM市场占有率最高,高度可定制化,Einstein AI提供强大的销售智能分析,但实施成本较高,部署需要专业技术团队。
HubSpot CRM:以营销自动化为核心,与数字营销工具深度结合,提供可视化销售管道管理,适合独立站外贸企业和依赖内容营销的公司。
Microsoft Dynamics 365 CRM:集CRM与ERP功能于一体,与微软办公生态深度整合,适合大型企业和跨国销售团队。
国际通用型CRM在数据主权方面相对优于公域CRM(不会与B2B平台共享数据),但普遍存在外贸场景适配度不足的问题。它们并非专门为外贸业务流程设计,在海关数据集成、B2B平台对接、外贸特有工作流等方面需要大量的二次开发和定制,实施成本较高。对于中小外贸企业而言,这类系统的复杂度和成本往往超出其承受范围。四、选择CRM,就是选择你的生意归属
在2026年,不要再去做B2B平台的“打工人”和“供养者”。把客户数据的主权拿回来,用全链路的数字化武器武装自己。
如果受够了公域平台的裹挟,想要一套真正懂外贸、能扛事、安全可靠的外贸私域CRM系统,富通天下绝对是你不容错过的标杆之选。毕竟,让专业的人做专业的事,把客户牢牢握在自己手中,这才是外贸企业穿越周期、基业长青的王道。
先看一个常见的场景:通过 运行结果:会依次打印 以上文的代码为示例,我们来看看 每次循环都会触发下列过程:调用 等等!不是应该先直接打印 在说 关键点: 光有 这个 每次遇到 回到文章开头, 因为每次循环都在 如果想要并发执行,应该这样: 关于 Promise 的详细解析,可以参考另一篇文章: Promise 的 如果 这比 Promise 的 ECMAScript: async function definitions ps: 微信公众号:Yopai,有兴趣的可以关注,每周不定期更新,不断分享,不断进步敲黑板!async/await应用和原理
async/await继发运行for循环 配合 async/await,可以实现按顺序执行异步操作。function syncTime(delay, res) {
return new Promise((resolve, reject)=> {
setTimeout(()=> {
resolve(res);
}, delay)
})
}
async function main() {
for(let i=0 ;i<10; i++){
let res = await syncTime(1000, i)
console.log(`%c ${res}`, `color: red;`);
}
}
main();0...9,每停顿1秒打印一次。如果你把 syncTime 函数中的 setTimeout 替换为真实的异步请求,那么它就可以直接用到项目中。async/await 只是 Promise 的升级版嘛?看到上面的代码,或者已经知道这个特性的同学,肯定会回答不是。应该说,它算是 Promise + Generator 的结合体。async/await 实现原理for + await 执行时发生了什么?syncTime 函数,return 出一个 Promise 实例,在 delay ms 后 Promise 实例状态由 pending 变为 resolved,代码继续运行,console 再打印数字。循环遍历 10 次。console,然后才运行 setTimeout?JS 的 Event Loop 怎么在这里失效了?下面让我们深入看看。async/await 和生成器async/await 之前,先说下 Generator(生成器),它是一种可以暂停和恢复执行的函数。function* generatorDemo() {
console.log('start');
yield 1;
console.log('middle');
yield 2;
console.log('end');
}
const gen = generatorDemo();
gen.next(); // start, { value: 1, done: false }
gen.next(); // middle, { value: 2, done: false }
gen.next(); // end, { value: undefined, done: true }yield 会暂停函数执行,并等待外部调用 next() 恢复。这就像一个协作任务的开关。自动执行器
Generator 还不够,我们需要一个自动执行器来驱动它不断调用 next(),直到结束。这个自动执行器就是 async/await 的前身。function runGenerator(gen) {
const generator = gen();
function step(nextValue) {
const result = generator.next(nextValue);
if (result.done) return result.value;
result.value.then(val => step(val));
}
step();
}runGenerator 函数做的事情:next() 获取结果done 为 true,结束done 为 false,把 value(通常是个 Promise)用 .then() 包裹,resolve 后继续调用 stepasync/await 语法糖
async/await 实际上就是上面自动执行器的语法简化。看下面的对比:// Generator 版本
function* fetchData() {
const data1 = yield fetch('/api/user');
const data2 = yield fetch('/api/posts');
return data2;
}
// async/await 版本
async function fetchData() {
const data1 = await fetch('/api/user');
const data2 = await fetch('/api/posts');
return data2;
}async 关键字让函数返回一个 Promise,await 关键字则替代了 yield,自动处理 Promise 的 resolve 和 reject。编译后的真相
async/await 到底做了什么?Babel 编译后会揭示答案:// 原始代码
async function main() {
const res = await syncTime(1000, 1);
console.log(res);
}
// 编译后(简化版)
function main() {
return _asyncToGenerator(function* () {
const res = yield syncTime(1000, 1);
console.log(res);
})();
}_asyncToGenerator 就是那个自动执行器,它负责驱动 Generator 运行,直到 Promise 完成或结束。状态切换
async 函数在执行时,会维护一个状态机:等待中 → Promise resolve → 继续执行 → 等待中 → ...await,就会暂停函数执行,等待后面的 Promise resolve 后再继续。暂停期间,调用栈是空的,JavaScript 可以去执行其他任务。继发与并发
for + await 为什么是继发执行?async function main() {
for(let i=0 ;i<10; i++){
let res = await syncTime(1000, i)
console.log(res);
}
}await 处暂停,必须等当前 Promise resolve 后,才会执行下一次循环的 await。这就是继发(串行)。async function main() {
const promises = [1,2,3,4,5].map(i => syncTime(1000, i));
const results = await Promise.all(promises);
console.log(results); // 一次性等所有 Promise 完成
}Promise.all 会同时启动所有异步任务,等全部完成后一起返回结果。这就是并发(并行)。Promise 执行流程
.then() 和 async/await 本质上都是注册回调,等待 Promise 状态变更后执行。async/await 只是让写法更同步化。async 函数返回值
async 函数必然返回一个 Promise:async function demo() {
return 123;
}
console.log(demo() instanceof Promise); // true
// 等价于
function demo() {
return Promise.resolve(123);
}async 函数内部抛出异常,则会返回一个 rejected 的 Promise:async function demo() {
throw new Error('Oops!');
}
demo().catch(err => console.log(err.message)); // Oops!错误处理
async/await 的错误处理用 try...catch:async function main() {
try {
const res = await fetch('/api/data');
const data = await res.json();
console.log(data);
} catch (err) {
console.error('请求失败:', err);
}
}.catch() 更直观,代码阅读起来和同步写法几乎一致。捕获多个 await
async function main() {
try {
const user = await fetchUser();
const posts = await fetchPosts(user.id);
const comments = await fetchComments(posts[0].id);
} catch (err) {
// 三个 await 中任意一个 reject,都会进入这里
console.error('流程异常:', err);
}
}async/await 踩坑
1. 平行await vs 继发await
// 继发:每个 await 等待上一个完成
const a = await fetchA(); // 等待 1s
const b = await fetchB(a); // 等待 1s
const c = await fetchC(b); // 等待 1s
// 总耗时:3s
// 并发:Promise.all 同时发起
const [a, b, c] = await Promise.all([fetchA(), fetchB(), fetchC()]);
// 总耗时:1s2. await 在 forEach 中陷阱
// 错误写法
[1, 2, 3].forEach(async (item) => {
await fetch(item); // forEach 不会等待 async 回调
});
// 正确写法:使用 for...of
for (const item of [1, 2, 3]) {
await fetch(item);
}3. async 回调函数
// 错误
arr.map(async (item) => {
return await fetch(item);
}); // 返回的是 Promise[],不是数据[]
// 正确
const results = await Promise.all(arr.map(item => fetch(item)));参考

还没正式开始用。后面想尝试下 vibe coding 。 好奇大家是直接使用 codex 桌面客户端还是使用 codex cli 进行编程的啊