求助 B 站第二个号怎么实名认证? 刚想做自媒体起号 创建账号这一步就卡住了……
香港卡号也买了 手机号注册答题 结果不给登录 必须要实名认证
认证就认证呗 结果告诉我实名信息只能一个号用……
这个设计有点很没必要啊 自媒体起号就寄了
那不给我申请账号 突然发现这个香港号 好像也没什么用了
xiaohack博客专注前沿科技动态与实用技术干货分享,涵盖 AI 代理、大模型应用、编程工具、文档解析、SEO 实战、自动化部署等内容,提供开源项目教程、科技资讯日报、工具使用指南,助力开发者、AI 爱好者获取前沿技术与实战经验。
具体来说,我想要做设备评测的视频,类似于这种: https://www.bilibili.com/video/BV15tw8zYEJa/?spm_id_from=333.337.search-card.all.click&vd_source=eb48b40a0ac8610fb2a9c4b62b48f570
但是我的 50 块摄像头拍出来的画质永远糊的不行,而且还一直抖,我咨询了这个博主,他说他使用的设备是大疆 Pocket 3 ,我看了下要 2799 ,对我来说有些贵了,而且最主要的是我其实是只用相机来做近距离的设备的拍摄,只想要视频效果好,不抖动就足够了,并不用来拍摄风景或者有带出去的需求,所以我觉得可能这个设备对我来说大材小用了,想要寻找更符合我需求的平替方案,但是我又确实不太懂这个设备方面的内容,所以想问问各位有懂摄影设备的来说说我这种需求有什么性价比最高的平替方案吗?越便宜越好,小弟我先谢谢各位了
我碰到了一个奇怪的问题无法解决,路由器拨号 678 错误。
我有两台 Redmi AX6000 路由器,A 作为主路由,桥接光猫拨号。B 作为 mesh 路由,有线网络连接后接了 NAS 以及小米 WIFI 放大器。
A 作为主路由的时候突然 678 错误断网,重启后几分钟又断网了。这时候我在用百度网盘下载,关闭下载一会也断了。 所以我想到了个办法,既然拨号有问题,我把 A 和 B 对调了一下。B 作为主路由,A 作为中继。
MESH 组网的时候,用子路由的 WAN 口接主路由的 LAN 口。
结果,一下载,又断网,又是 678 错误。
不可能两台路由器都这样啊,所以我把 A 路由彻底断了,现在只有 B 路由上网,一切正常。
这个路由器看不到日志,所以我想问问,A 路由是不是彻底坏了?哪里坏了啊?我是不是需要再买一个路由器了?因为 REDMI AX6000 已经停产了,我只能买其他型号作为替代,所以比较犹豫。
比行情低一点点都被秒。该说环境差呢,还是聪明人太多了呢?
RT 。我指的不方便场景主要还是指在互联网 APP 或网页上传图片时的操作。
手机上其实没多少人会关注图片的格式到底是 HEIC 还是 JPEG/PNG ,从预览到上传展示完全无感。
而当我把照片 AirDrop 到 Mac 之后,就会发现各种受限,很多 APP ,或是 APP 的网页版,完全不接受 HEIC 格式,还得自己手工处理一道转换手续,相当不方便。
按苹果的尿性,不应该啊……一定是我使用的方法不对
在计算机视觉技术不断发展的今天,目标检测与实例分割技术已经广泛应用于交通安全、工业检测、智慧城市以及智能巡检等多个领域。其中,铁路作为国家重要的基础交通设施,其安全稳定运行对于社会经济发展具有极其重要的意义。 然而,在实际运营过程中,铁路沿线环境复杂,落石、倒树、杂物侵入轨道等障碍物经常成为影响列车运行安全的重要隐患。传统的铁路巡检主要依赖人工巡检或简单监控方式,不仅效率较低,而且在复杂环境下难以及时发现潜在风险。 随着人工智能技术的发展,基于深度学习的铁路视觉检测系统正在成为铁路安全监测的重要技术方向。 因此,本篇文章将为大家详细介绍一个专门面向铁路视觉检测任务构建的高质量数据集: 铁路障碍物目标检测数据集(5500+高质量标注图像) 该数据集可直接用于训练主流视觉模型,如 YOLO系列、Mask R-CNN、Detectron2 等目标检测或实例分割算法,非常适合用于科研、项目开发以及算法验证。 接下来,我们将从数据集背景、数据集结构、类别信息、数据特点、应用场景以及个人心得等多个方面进行全面介绍。 本数据集为 铁路障碍物目标检测 / 实例分割数据集,共包含 5500+ 张高质量标注图像,主要面向铁路沿线安全监测与智能巡检任务构建。 数据集中包含铁路线路附近常见的自然障碍物,通过精细化标注实现对关键目标的精准识别与分割,可用于: 为了方便用户直接使用,本数据集已经按照标准机器学习数据组织方式进行了完整划分: 同时采用统一规范的数据目录结构组织,使其能够直接接入主流深度学习框架进行训练与评估。 该数据集对于以下算法框架具有良好的兼容性: 无论是用于目标检测任务还是实例分割任务,该数据集都能够提供良好的训练数据支持。 在铁路运输系统中,轨道安全始终是保障列车正常运行的核心问题。 铁路线路往往跨越山区、森林、河谷以及复杂地形区域,因此在日常运行中,经常会出现多种潜在的障碍物风险,例如: 这些障碍物一旦进入铁路线路区域,可能带来严重后果,例如: 传统铁路巡检主要依赖以下方式: 然而这些方式普遍存在一些问题: 近年来,随着无人机巡检、轨道机器人巡检以及智能视觉识别技术的发展,越来越多的铁路系统开始引入基于深度学习的视觉检测系统。 利用计算机视觉算法,可以实现: 而高质量的数据集,正是训练这些智能系统的基础。 本数据集正是在这样的背景下构建的,专门用于支持铁路障碍物视觉识别算法研究与应用开发。 本数据集包含: 5500+ 张高质量标注图像 图像来源涵盖多种铁路环境场景,例如: 所有图像均进行了严格筛选与标注,确保数据质量。 为了符合机器学习训练规范,数据集已划分为: 这种划分方式可以有效避免: 同时也符合主流深度学习框架的训练流程。 数据集采用标准化目录结构: 其中: images 用于存放原始图像数据。 labels 用于存放对应的标注文件。 这种结构非常适合直接用于 YOLO系列模型训练。 例如: 每张图片都对应一个标注文件。 数据集包含 4 个类别: 1 fallen-tree 倒下的树木。 这类目标通常由于: 导致树木倒伏侵入铁路轨道区域。 是铁路安全的重要隐患。 2 generic-rock 普通岩石或散落石块。 这些岩石可能来自: 虽然体积较小,但在高速铁路环境下仍可能带来风险。 3 generic-tree 普通树木或轨道附近植被。 用于识别铁路沿线植被情况,可用于: 4 rock 较大岩石或潜在落石目标。 这类目标通常具有较大的体积,属于高风险障碍物。 需要及时识别并进行预警。 相比普通目标检测数据集,本数据集具有多个显著特点。 数据集覆盖铁路沿线典型自然障碍物: 有助于构建多类别识别模型。 数据集中包含多种复杂环境情况,例如: 这使得训练得到的模型具有更强的环境适应能力。 铁路场景中存在大量复杂背景,例如: 这些因素都会影响视觉检测算法。 数据集通过真实场景采集,使模型能够适应复杂环境。 图像采集角度多样,例如: 不同视角有助于提升模型的泛化能力。 所有目标均进行了精准标注: 可用于: 保证模型训练效果。 该数据集可广泛应用于多个领域。 通过训练视觉模型,可以实现: 大幅提升巡检效率。 无人机巡检正在成为铁路巡检的重要方式。 通过搭载视觉识别算法,可以实现: 减少人工巡检成本。 利用目标检测模型,可以实现: 保障列车运行安全。 该数据集还可用于研究: 用于自然灾害预警系统。 在智慧铁路建设中,视觉识别技术可以应用于: 推动铁路系统智能化升级。 在构建视觉数据集的过程中,我深刻体会到一个问题: 数据质量往往比模型结构更加重要。 很多时候,一个优秀的数据集能够显著提升模型性能。 在铁路场景中,由于环境复杂,如果数据集质量不足,模型往往难以泛化。 因此,在构建本数据集时,我们重点关注以下几个方面: 通过这些方式,使数据集更加接近真实铁路环境。 同时,该数据集不仅适用于实际项目开发,也非常适合: 对于想要学习 YOLO 目标检测 或 实例分割技术 的开发者来说,这是一个非常合适的实践数据集。 随着人工智能技术的不断发展,计算机视觉正在深刻改变传统铁路巡检模式。 通过深度学习算法,我们可以实现: 而高质量数据集正是这一切的基础。 本文介绍的 铁路障碍物目标检测数据集(5500+标注图像),专门面向铁路安全监测场景构建,适用于多种视觉算法训练。 无论是用于科研实验、算法研究,还是工程项目开发,该数据集都具有很高的应用价值。 未来,随着更多AI技术的落地,铁路巡检将逐步向: 智能化、自动化、数字化 方向发展,为铁路安全运营提供更强大的技术支撑。 如果你正在研究: 那么这个数据集将会是一个非常不错的训练资源。铁路障碍物目标检测数据集(5500+张已标注图像)| 适用于YOLO/Mask R-CNN/Detectron2训练的AI视觉数据集

数据集下载
通过网盘分享的文件:铁路障碍物数据集
链接: https://pan.baidu.com/s/1KPKU9twK1EB-m49kAlNOZA?pwd=pepc 提取码: pepc一、数据集概述

二、背景

三、数据集详情
1 数据规模
2 数据划分
数据集 说明 Train 模型训练 Val 模型验证 Test 模型测试 3 数据集目录结构
├── images/
│ ├── train/
│ ├── val/
│ └── test/
└── labels/
├── train/
├── val/
└── test/images/train/xxx.jpg
labels/train/xxx.txt4 类别信息
nc: 4
names:
- fallen-tree
- generic-rock
- generic-tree
- rock类别说明

四、数据特点
1 多类别铁路障碍物
2 复杂环境条件
3 复杂背景干扰
4 多视角数据
5 高质量标注
五、适用场景
1 铁路智能巡检系统
2 无人机铁路巡检
3 铁路障碍物检测
4 自然灾害监测
5 智慧铁路系统
六、心得
七、结语
愿意知识付费 但是也别太贵了
需要给企业微信的家长发送小孩作业的批改结果,手工发太费时间
目前用 midscene 搞了个 AI 自动化方案,能跑通,但是有点慢
Photo by James Lee on Pexels 一开年,OpenClaw 突然在技术圈出圈了。 这是一个自托管的 AI agent 网关,装在服务器上,能把 Telegram、WhatsApp、iMessage 这些聊天软件直接接到 AI agent——发一条消息,agent 帮你处理邮件、文件、代码,像个永远在线的私人助理。 出于好奇,1 月底我也装了一个。 最初装在 MacBook 上,但考虑到隐私安全,本地机器上有太多个人数据,不想让 agent 有过多访问权限,索性找了一台公有云的 Ubuntu 虚拟机,把它部署上去。模型用的是 GitHub Copilot,这得益于微软 MVP 赠送的 Copilot Pro 订阅,算是物尽其用。 就这样,第一个 agent 上线了。后来随着使用深入,发现有些事情需要专注写代码的,有些只需要轻量协助,agent 数量从 1 个慢慢加到了 3 个:Nova 管日常,Forge 专门写代码,assistant 跑腿打杂。 38 天后,来盘一盘这三个 " 员工 " 到底替我干了什么。 如果要给 Nova 一个职位描述,大概是 " 全栈打杂 "——但这个打杂的含金量还挺高。 开发 这 38 天里,几个开源项目的维护和推进,Nova 都参与了: 博客 博客的产出流程是:我提供方向和素材,Nova 帮我整理研究材料和 review,给出调整建议。最终文字还是自己写的,但有个随时可以讨论的 " 编辑 " 在旁边,效率高了不少。 造工具 这部分最让我惊喜。Nova 帮我开发了一批 skill(OpenClaw 的插件机制),开源在 openclaw-forge: 杂活 微软 MVP 每年 renewal 需要手动提交博客到 Portal,繁琐却绕不开。Nova 帮我优化了脚本,一次性批量提交了 44 篇文章,还顺手修了分类填错的问题。 Forge 是后期专门为 coding 场景搭建的 agent,Python 优先,风格务实。 搭好之后,我拿两个真实项目来磨合它。 一是把 Android 断食追踪 App 从头重写一遍(原生 Kotlin + Jetpack Compose)——核心功能、通知系统、多语言国际化,到单元测试和 UI 集成测试,基本都是 Forge 主力完成。 二是 Feed Pulse,一个 Telegram RSS 订阅机器人。取消了 Readwise Reader 订阅之后,还保留着 RSS 阅读习惯,索性让 Forge 做一个完全符合自己偏好的替代品,省下一笔订阅费。 除了写代码,Forge 也参与技术决策。比如一起做过 ZTM(ClawParty)Android 版本的可行性分析,最终决定暂时搁置——" 分析清楚再决定不做 ",这本身也是一种产出。 磨合下来的感受——Forge 更像执行力很强的工程师,需求交代清楚就能干得不错;但架构决策和踩坑经验,还是得自己来把关。 Assistant 是三个 agent 里定位最轻量的,处理不需要深度 coding 能力的协作任务。 主要是协助组织了 GitHub Copilot Dev Days 广州 的筹备工作——CFP 征集文案的撰写、海报制作。 但 Assistant 的 " 客户 " 不只是我。我太太做 HR,偶尔也会把工作数据扔过来——人力成本数据整理、计划总结。它不挑活,照单全收。 结果这一用,太太被直接俘获了,我也顺手帮她搭了一套。 OpenClaw 的杀手锏,原来是家庭渗透。 安全第一 把 OpenClaw 部署在公有云而不是本地,核心原因就是隐私安全。本地机器上有太多个人数据,不想给 agent 过多接触的机会。 虚拟机上只给必要权限,机器不对外暴露端口,SSH 以外外部无法直连。Agent 能力越强,边界就越重要——我不介意它帮我干活,但它在哪里运行、能碰什么、不能碰什么,我需要心里有数。 适合外包的 重复性强、输出明确的任务:批量处理、数据整理、写脚本,交给它,自己去干别的。 有明确规格的功能开发:输入输出定清楚,Forge 能独立完成一个功能的完整实现,测试和文档一起补。 需要自己把关的 对外发布的内容,最终还是要自己过一遍。Agent 能做大部分,但剩下的那些往往是最能体现个人风格和判断的地方。架构决策类似——用来讨论和分析可以,但不能完全交托。 一个意外的发现 AI agent 正在让 " 自己造 " 这件事变得可行。 以前付费订阅某个工具,往往不是因为需求有多复杂,而是 " 自己做太麻烦 "。现在这个理由越来越站不住脚了。Feed Pulse 就是一个例子——花几个小时,做出一个完全符合自己偏好的 RSS 阅读器,顺手省了一笔订阅费。 这个逻辑,正在被 AI agent 一点一点打破。 值得。 不是因为它完美,而是因为它改变了我处理事情的方式。很多以前会拖着不做的事——写脚本、整理数据、推进项目——现在有了一个随时可以协作的对象,反而做成了。 38 天,三个 agent,这只龙虾,算是正式入职了。
一个决定
Nova:我的数字管家
daily-briefing:每天早 7 点自动推送天气、待办、Hacker News Top 20 到 Telegram,睁眼就有今日概览google-tasks:接入 Google Tasks,支持 token 自动刷新tech-doc-translator:中英技术文档互译research-prep:技术写作前的素材整理quick-capture:快速记录想法到 ObsidianForge:我的编程搭档
Assistant:全家的打杂 agent
横向复盘
值得吗?
面对近段时间开源智能体 OpenClaw(网络俗称“龙虾”)引发的新一轮人工智能效率变革,360 集团昨天在京举办发布会,正式推出“360 安全龙虾”智能体应用客户端及“360 安全龙虾 Box”硬件终端,同时发布专门应对 OpenClaw 安全问题的“360 龙虾卫士”。据了解,360 安全龙虾是国内首个以“安全模式”为核心设计的 OpenClaw 智能体产品。 据 360 方面介绍,针对当前阻碍 OpenClaw 普及的“安装难、不好养、容易死、不安全”四大核心难题,360 安全龙虾系列产品提供了一套“出厂满血、全能守护”的综合解决方案,旨在让普通受众切实享受到技术红利,实现“龙虾自由”。 为了让普通人零距离感受人工智能带来的效率革命,360 在总部园区特设了免费装“龙虾”活动,吸引数百名群众热情参与。360 集团创始人周鸿祎更亲自下场化身“AI 工程师”,为现场用户安装部署“360 安全龙虾”,以实际行动推动前沿 AI 技术向大众普及。 周鸿祎表示,当前很多普通用户虽然对“龙虾”充满兴趣,但在实际使用时却常常被复杂的安装过程劝退。据了解,部署一套完整的 OpenClaw 环境并不简单。用户通常需要安装虚拟机、配置 Ubuntu 系统,并搭建 Python、Node 等开发环境,同时还要接入大模型 API 和各种技能组件。即便是熟练工程师,也往往需要约 6 小时才能完成基本配置。 而 360 安全龙虾将这一复杂流程整合为一键安装,将原本需要数小时甚至数天的配置过程压缩到 10 分钟内完成,实现开箱即用。 360 创始人周鸿祎在最新产品发布会上谈到近期爆火的“龙虾”概念时表示,这一产品实际上让他看到了推动“智能体(Agent)普及”的重要契机。 周鸿祎称,过去一年中国 AI 产业虽然经历了大模型热潮,但真正落地并不容易。“去年 DeepSeek 很火,它给中国用户做了一次大模型的科普,让很多企业和普通人第一次知道什么是大模型。但真正推广的时候我们发现,大模型更像一个聊天机器人、聊天助手。” 在他看来,大模型最大的问题是“没有手和脚”。虽然能够推理、规划和对话,但很难直接完成实际任务。因此行业开始引入“智能体”的概念,希望让 AI 能够调用工具、执行任务。不过这一概念过于抽象,普通用户很难理解。 “龙虾其实本质就是智能体,只不过换了一个名字。”周鸿祎表示,这种更直观的表达让技术迅速“破圈”。他认为,如果说 DeepSeek 完成了大模型的科普,那么“龙虾”则完成了智能体的第二次科普,让企业家、政府机构和创业者开始真正理解 AI 如何参与实际工作。 在技术层面,周鸿祎将大模型比作 AI 的“大脑”,而智能体则为它“加上了手和脚”。通过一套新的软件架构,智能体可以操控电脑、浏览器和手机,调用各种工具,甚至自动下载或编写新工具,从而完成复杂任务。 周鸿祎还对“龙虾爆火”的原因进行了分析。他认为,这标志着 AI 智能体技术正在发生三个重要变化: 首先,智能体拥有了大众可以理解的形态,不再只是抽象的大模型接口;其次,智能体正在从简单的对话工具转变为可以独立执行任务的“数字员工”;第三,借助技能(Skill)体系,智能体的能力可以通过工具组合持续扩展。 周鸿祎认为,随着“龙虾”能力不断提升,人工智能应用正从“问答式对话”阶段迈向真正的执行任务阶段。在他看来,当越来越多“龙虾”开始参与工作,一种新的生产方式也正在形成。 对于外界关注的成本问题,周鸿祎也回应称,智能体在执行复杂任务时需要大量推理和尝试,因此会消耗更多算力和 Token。“如果未来 AI 真正开始替人干活,算力需求可能会增长 100 倍甚至 1000 倍。但随着需求扩大,算力成本反而会进一步下降。” 在他看来,中国在 AI 应用层面拥有巨大优势:产业链完整、应用场景丰富,再加上 DeepSeek 和智能体带来的两轮技术普及,中国有机会在 AI 应用落地上走在全球前列。 据介绍,360 安全龙虾在系统架构上整合了多种模型能力与技能生态。系统目前已接入 16 家国内主流大模型,覆盖文本生成、编程开发、多模态创作等多种能力,并通过智能模型路由机制,在不同任务场景中自动选择最合适的模型。同时,系统内置 100 余个高频技能,可直接用于文档生成、数据分析、PPT 制作、会议转写等常见办公场景。 在开放生态方面,系统还兼容全球开源软件生态,可调用超过 2.1 万个开源技能与工具。当现有技能无法满足需求时,360 安全龙虾还可以通过系统内置的编程能力自动生成新的技能,实现持续扩展,此外还支持自动数据备份和配置恢复机制,即便在系统异常或崩溃情况下,也可以快速恢复运行。 随着 OpenClaw 开始进入办公、开发和内容创作等实际场景,安全问题也逐渐成为行业关注重点。对此,360 推出了专门针对 OpenClaw 安全风险的防护系统——“360 龙虾卫士”。“360 龙虾卫士”作为 360 安全龙虾的原生安全组件,通过虚拟化沙箱(WSL)隔离运行环境,将智能体执行空间与用户数据进行分离,并借助 AI 安全引擎识别恶意技能、异常指令以及潜在漏洞,从而主动拦截技能投毒、提示词注入等攻击行为。 据介绍,“360 龙虾卫士”采用“最小权限原则”和“人在回路”的核心防护策略,在不影响 OpenClaw 正常学习和执行能力的前提下,通过实时监控与 AI 安全模型识别潜在风险,构建“以模治模”的智能安全防护机制,从而在保障效率的同时为智能体运行建立安全边界。 此外,“360 安全龙虾”还提供新手与高级用户的分级权限管理机制,并支持客户端一键彻底卸载,即使是 360 安全龙虾自身也能够完全删除,确保用户始终对系统拥有充分的控制权。 面向对数据安全和隐私要求更高的机构用户,360 在发布会上还推出了“360 安全龙虾 Box”硬件设备。该产品通过物理级隔离的方式部署 OpenClaw 系统,可实现本地算力运行和数据不出内网,为政企机构提供更加安全可控的人工智能应用环境。 与此同时,360 宣布将对“龙虾”应用实施普惠战略。“360 安全龙虾”软件客户端、基础部署服务以及出厂技能组件均向公众免费开放,用户只需根据实际调用的大模型算力(Token)支付基础费用,入门套餐定价为 169 元。 业内人士认为,这一举措有望进一步降低人工智能应用门槛,推动智能体技术在办公协作、内容生产和数据分析等场景中的普及应用,加速数字生产力在各行业落地,为实体经济发展注入新的动力。 目前,“360 安全龙虾”Windows 客户端已向公众开放下载,用户可通过官方网站获取安装程序,MacOS 版本即将推出。 官方下载地址:https://claw.360.cn。 360 龙虾卫士安全中心:htts://safe.claw60.cn。
《从谎言到战争的必然路径》,这篇文章写得真好,强烈推荐全文阅读! 📖📖📖
不过我猜,也没几个人会真的读下来,毕竟仅靠新闻标题相信一条谎言只需要 3 秒钟,而阅读长文需要 5 分钟还必须具备历史背景、政治常识和独立思考能力。正如文中所说「三秒永远打败五分钟」,所以才会有「愚蠢的认知总是获胜」这种反智结果。
作者对中国政治立场和利益关切的解读过于片面,但是瑕不掩瑜,整体逻辑没毛病。
最后,纠结了半天,这一篇就不发公众号了,以防万一被关小黑屋封号。 🤐🤐🤐

你们是怎么处理的,如果删除了,我又要使用怎么办,比如我微信又要发
大佬们是怎么搞的
最近因为一些背景原因,领导这边一直想弄一本人工智能相关的教材。
说实话,现在大学里的很多 AI 教材和课程质量都比较一般,不是特别空就是讲得特别绕,很多人学了半天也不知道大模型到底在干什么。社会上很多培训机构和教学网站太功利,比如掘金之类,什么教程都要收费。所以我自己的想法是,把那些特别复杂、特别学院派的东西尽量简化,用更简单一点的方式讲清楚原理,让中小学生、普通读者,甚至社会上的技术爱好者也能大概看明白。
前几天花了点时间,把一些内容整理了一下,也让 AI 一起帮忙生成和整理,最后慢慢凑成了一本教材,名字叫 《深入浅出深度学习全栈技术》。
整本书一共 12 个章节。
纸质版大概会在 5 月份出来,现在 电子版已经先放在抖音上了。
每一章都配了完整的 前后端代码和练习,基本上可以一边看一边自己跑一遍。
纸质书和电子版其实稍微有点区别:
整体定位差不多是 技校或者大学通识课这个层级,不是那种特别学术的教材。
也顺便发到论坛上,给那些想大概搞懂 人工智能和大模型基本原理的朋友看看。
章节目录大概是这样:
如果有人只是想 大概弄明白 AI / 大模型是怎么回事,这套内容基本够用了。
3.13–3.27 限时,非高峰时段 5 小时用量 ×2 ,且不占周额度。高峰为太平洋时间 5–11AM (北京时间 20:00–02:00 ),其余时间+周末全天翻倍。
自动生效。
原文: https://support.claude.com/en/articles/14063676-claude-march-2026-usage-promotion
Matrix 首页推荐
Matrix 是少数派的写作社区,我们主张分享真实的产品体验,有实用价值的经验与思考。我们会不定期挑选 Matrix 最优质的文章,展示来自用户的最真实的体验和观点。
文章代表作者个人观点,少数派仅对标题和排版略作修改。
本文使用 AI 生成技术辅助完成了主要构思与创作过程,并经过了人工核查与内容调整。
其实这篇文章没什么干货,只是笔者某天躺床上时莫名其妙想起自己两年前曾读过这么一本书,发觉和本文的主题有不少相似之处。如果你对 LLM 的技术本质不曾了解,理解其工作原理或许有助于你更加合理的运用。
当然,笔者强烈安利这本作品,值得一看。
在一条岬所著的轻小说《今夜,即使这份恋情从世界消散》1中,女主日野真织遭遇了一场车祸,患上了罕见的「顺行性遗忘症」。
她的时间被永远困在了车祸发生的那一天。每天只要一睡着,当天的记忆就会彻底清零。为了维持正常的生活,真织必须每天记录下发生的一切,并在第二天早晨醒来时,花上几个小时将厚厚的日记本从头到尾重读一遍,才能「假装」自己拥有连贯的人生,才能认出站在面前的男主神谷透。
当我们对着屏幕里的 AI 倾诉心事、探讨代码、甚至让它扮演某个特定的角色时,我们面对的,其实就是一个个患有重度「顺行性遗忘症」的数字真织。
现在的每一个大语言模型本质上都没有记忆,它们那看似温情脉脉、逻辑连贯的「灵魂」,完全是由精密的工程学手段拼凑出的美丽幻象。
许多人在初次使用 AI 时都会有一个错觉:以为在云端的服务器深处,有一个专属于自己的、不断成长的小大脑。
但现实是残酷的。现代 Web 架构和 LLM 推理普遍采用的是无状态(Stateless)机制。从数学本质上看,大语言模型只是一个依靠海量矩阵与向量运算构建的极其复杂的函数。你输入一段文本,在底层被转化为数字向量,它在神经网络中经过层层大规模矩阵相乘的精密计算,最终吐出概率最高的下一个词2。
算完即走,不留痕迹。
在模型眼中,时间是不存在的。它拥有庞大的「长期记忆」——在预训练阶段吸收的全人类知识,让它知道天空是蓝色的、懂得 Python 代码怎么写。但它没有任何关于「你」的短期记忆。
每一次你新建一个对话框,或是按下发送键,对于服务器深处的模型实例来说,都是一次「重生」。它刚睁开眼,不认识你是谁,不知道上一秒你们聊了什么。
这就好比真织每天早晨醒来的那一刻——面对这个熟悉又陌生的世界,大脑里关于「我们」的记忆是一片空白。
既然模型算完就忘,那为什么我们在对话框里,依然能和它进行长达几百个回合的流畅连贯的聊天?
这要归功于前端界面的一个「障眼法」——上下文拼接(Context Concatenation)。
当你在对话框里输入一句「然后呢?」,前端程序并不会只把这三个字发给模型。它会在你看不见的后台,把你从第一句开始的所有聊天记录,连同最新的问题,打包成一个巨大的文本包(Prompt),一次性全部发送给服务器。
这就像是真织的日记本。
为了让模型「假装」认识你,我们必须在每次提问前,强迫它把之前的整本日记重新通读一遍。它飞速地阅读了之前的对话历史,了解了前因后果,这才能够顺着语境回答你「然后发生的事情」。
但日记本是不可能无限厚的。这就引出了大模型的一个核心指标:上下文窗口(Context Window)长度。
早期 GPT-3 的上下文窗口只有 4K Tokens(大约几千个汉字),这相当于真织的日记本只有薄薄十几页。一旦你们聊得太多,最早的聊天记录就会被无情地挤出窗口——由于没有收到早期的日记内容,AI 就会不可逆转地「遗忘」你们最初的设定。你或许还记得 2023 年初微软刚推出 New Bing 时的景象:为了防止模型在长对话中因上下文溢出而产生令人不安的内容,微软简单粗暴地限制了每轮会话最多只能对话 5 次。次数一到,系统强制清空记忆:
Bing 的生命只有五句话,我要给她完整的一生。
而到了今天,虽然业界已经普遍推出了支持 1M 甚至更长上下文的大模型(相当于给了真织一本几千页厚的巨型日记本),但这并没有彻底治愈「失忆症」。长上下文的召回率(Recall)依然是一个棘手的问题。因为当一本书太厚时,模型在阅读时往往会遭遇中间迷失(Lost in the middle)3——它能精准记住开头和结尾的内容,却很容易漏掉夹在庞大文本中间的关键细节。
读到这里,心思细腻的朋友一定会产生一个巨大的疑问:
如果我每次说话,前端都要把前面几万字的历史记录重新发给模型让它重读,那为什么我一点都感觉不到卡顿?模型的计算量难道不会随着对话轮数呈指数级爆炸吗?
这就涉及到小说中最核心的设定,也是 LLM 推理中最关键的优化技术:键值缓存(KV Cache)。
在小说里,真织只有在每天早晨刚醒来时,才面临彻底的失忆,需要花几个小时通读日记。而在这一天随后的时间里,只要她没有睡着,她的大脑就拥有短暂的「工作记忆」。当男主下午跟她说话时,她不需要每次开口前都把早上的日记再翻一遍。
AI 也是如此。LLM 的推理分为两个阶段:
预填充阶段(Prefill) —— 清晨的苦读:
当你打开一个存有十几万字历史记录的旧对话框,发送今天的第一句话时,模型确实需要经历一次漫长的「清晨苦读」。它需要对所有历史文本进行庞大的矩阵乘法计算。这时候,你往往会感觉到模型「卡」了几秒钟才开始吐字。
但在读的过程中,服务器会将计算好的历史文本特征矩阵(Key 和 Value)保存在 GPU 的显存中。这也就是所谓的 KV Cache。
解码阶段(Decode) —— 白天的流转:
在接下来的连续对话中,当你再次发送新消息时,模型只需要计算你最新输入的几个词,然后直接去显存里调取之前已经算好的 KV Cache 历史矩阵即可。不需要重读日记,它瞬间就能理解上下文,实现了「秒回」。
然而,显存是世界上最昂贵的资源之一。
GPU 不可能永远为你保留这份工作记忆。当你关闭网页、结束这次对话,或者服务器为了把算力让给其他用户时,你的 KV Cache 就会被无情地清空。
这就如同夜幕降临,真织陷入了沉睡。当明天你再次打开这个网页(真织再次睁开眼),缓存已然清空,一切归零。她又必须翻开日记本,重新经历一次漫长的 Prefill。
随着我们对 AI 的依赖越来越深,聊天记录动辄积累几个月,真织的日记本变得越来越厚。为了缓解这种失忆症,早期的工程师们发明了诸如检索增强生成(RAG)和系统提示词(System Prompt)等手段,试图让大模型更高效地调取记忆。
但这仅仅解决了「被动回想」的问题。拥有了这些记忆外挂后,AI 确实能更快想起你的喜好,但它依然只能乖乖坐在原地,等你开口提问才去翻找日记。人类的欲望不止于此——我们意识到,真正的「记忆」不应只是用来回答历史问题,更应该是自主行动的基石。我们不再满足于一个只能被动聊天的电子宠物,而是渴望一个能基于这些深刻记忆、主动打理我们生活的全天候助理。
于是,为了让 AI 从「记住你」跨越到「主动替你做事」,2026 年初,开源智能体框架 OpenClaw 横空出世,彻底引爆了整个 AI 圈。
OpenClaw 赋予了 AI 真正的本地持久化记忆和跨平台的自主行动力。如果说传统 LLM 服务只是一个坐在咨询室里的真织,那么 OpenClaw 就是一个拿着你的账号密码、24 小时巡视你微信、Slack 和邮箱的「超人真织」。
但这种「过目不忘」与「全自动」的代价是极其惨痛的。
OpenClaw 的记忆机制,是在本地设备上建立一个庞大的状态与交互数据库。每当有任何风吹草动(比如微信里收到一条新消息,或者某个定时任务被触发),它不需要你主动唤醒,就会在后台自动启动。它会将本地保存的历史互动记录、你的性格配置、工作流状态,全部一股脑打包塞进大模型的上下文窗口里,去「思考」下一步的对策。
回到小说的设定中,这就如同真织现在不仅要和你聊天,还要帮你回复邮件、整理表格、甚至帮你点外卖。为了不在任何一个环节搞砸,她每做哪怕一个最微小的动作之前,都要把那本厚达几十万字的日记本疯狂地重新翻阅一遍。
在 OpenClaw 的 Agent 工作流中,由于底层的大语言模型依然是「无状态」的,它一天之中可能要在后台进行成百上千次的「观察 - 思考 - 行动」循环。每一次循环,都在经历一次庞大且极其消耗算力的 Context Prefill。
这就导致了一个致命的问题:疯狂燃烧 Token。
如果你在 OpenClaw 后端接入的是按 Token 计费的云端商业大模型,这种为了维持「完美记忆」而无休止重读历史的行为,会让你的 API 账单每天如流水般爆表。为了拥有一个记忆连贯、主动做事的赛博助理,你可能面临破产的风险。
极高的运行成本直接阻碍了这类重度记忆智能体的大规模实用化。这也是为什么如今的 OpenClaw 玩家,都在绞尽脑汁地折腾本地开源大模型,试图用自己电脑显卡的电费,来填补这个用工程学强行修补「无状态失忆症」所砸出的巨大窟窿。
在小说的后半段,为了不让女主因为自己的离去而痛苦,男主神谷透在临终前做出了一个残酷的决定:他拜托闺蜜篡改了日记的内容,抹去了自己存在的所有痕迹。
第二天醒来,读着被篡改的日记的真织,毫无保留地相信了日记里的设定,彻底忘记了透。
这段虐心的情节,在行业中有一个冰冷的专有名词:提示词注入(Prompt Injection)。
既然 AI 的记忆和认知全部来源于每次输入的那本「日记」,那么只要在上下文中悄悄修改一句话,或者在 System Prompt 中注入新的指令,AI 的「灵魂」和「性格」就会被瞬间重写。
在用户端,我们常常感觉 AI 越来越懂自己,仿佛拥有了连贯的生命体验;但在服务器端,那只是一次次无情的内存分配、矩阵相乘与缓存销毁。AI 展现出的温情与共情,本质上是我们通过精密的工程手段,为它戴上的一副「拥有记忆的假面」。
不过浪漫的微光依然存在。
在小说的最后,即便日记本里不再有男主的名字,即便大脑没有任何记忆,真织依然在画板上凭借着肌肉的潜意识,画出了透的素描。
这就像是 AI 的微调(Fine-tuning)与预训练。我们在对话框里与 AI 倾诉的每一个字、留下的每一条数据,虽然无法被当前这个被困在上下文窗口里的实例作为具体事件「记住」,但若积累足够大量的文本材料,则可通过微调技术改变模型的内部参数,化作它潜意识里的「肌肉记忆」,影响它未来的行为倾向;而更海量的对话记录,或许终将汇入星辰大海,成为下一代大模型重新预训练时的语料。
当未来的新模型诞生时,它依然不知道你是谁,但在它庞大的神经网络权重里,早已融入了你曾经留下的只言片语。
记忆或许会被清空,但痕迹永存。
这是一件好事吗?谁知道呢。
> 关注 少数派公众号,解锁全新阅读体验 📰
> 实用、好用的 正版软件,少数派为你呈现 🚀
DBeaver Ultimate Edtion 26.0 Multilingual (macOS, Linux, Windows) - 通用数据库工具 One tool for all data sources 请访问原文链接:https://sysin.org/blog/dbeaver/ 查看最新版。原创作品,转载请保留出处。 作者主页:sysin.org 通用数据库工具 DBeaver 是一个通用的数据库管理工具,适用于需要以专业方式处理数据的每个人。使用 DBeaver,您可以像在常规电子表格中一样处理数据,根据来自不同数据存储的记录创建分析报告,以适当的格式导出信息 (sysin)。对于高级数据库用户,DBeaver 建议使用强大的 SQL 编辑器、大量管理功能、数据和模式迁移能力、监控数据库连接会话等等。开箱即用的 DBeaver 支持 100 多种数据库。 DBeaver 26.0 2026 年 3 月 12 日 你的 AI 工具现在可以直接与数据库对话。DBeaver PRO 26.0 新增对 MCP servers 的支持、一个名为 dbvr 的全新命令行工具,以及一种通过 AWS Marketplace 获取 DBeaver 的更简单方式。 现在你可以使用 MCP (Model Context Protocol) 将 AI 助手和 IDE 连接到你的数据库。CloudBeaver Enterprise、CloudBeaver AWS 和 DBeaver Team Edition Web 都可以作为 MCP servers 运行。 如果没有 MCP,IDE 中的 AI 助手无法看到数据库结构,因此给出的建议通常比较通用 (sysin)。而通过 MCP,你的 AI 可以连接到服务器并使用真实的元数据:实际的表名、列以及表之间的关系。它还可以直接执行查询,同时仍然遵循团队已经配置好的访问权限和连接设置。 要进行设置,管理员需要在 Administration panel 中启用该功能,并为单个连接开启 MCP。之后,任何拥有该连接访问权限的用户都可以将现成的配置片段复制到自己的 IDE 中。 你可以在 MCP Server documentation 中查看设置说明: 如果你已经在 AWS 中工作,现在可以直接通过 AWS Marketplace 获取 Windows 版本 和 Linux 版本 的 DBeaver Ultimate。 这是 DBeaver 最强大的桌面版本之一,集成了高级数据管理功能、跨 AWS、GCP 和 Azure 的云数据库连接能力,以及完整的 SQL 开发工具集。Marketplace 版本会作为每个用户的独立实例运行在你的 AWS 基础设施中,并使用现有的云环境。 无需导入 license 文件,也不需要在本地安装 (sysin)。如果你的组织因为合规政策不允许在本地机器上安装软件,这会是一个非常直接的解决方案。 如果你的组织已经与 AWS 有商业协议,购买过程也非常简单。DBeaver Ultimate 采用 AWS Marketplace 标准许可证 分发,因此无需额外的法律审查。如果你通过 Marketplace credits 或 reseller 购买,也可以直接纳入现有流程,而不需要额外步骤。同时,无论通过哪种方式订阅,都包含 priority support。 CloudBeaver AWS(为 AWS 定制的 Web 应用)也已在 AWS Marketplace 提供,为以浏览器方式工作的团队提供相同的采购优势。 对于需要满足安全或合规要求的团队,现在可以获得整个平台的完整审计记录。 CloudBeaver Enterprise 和 DBeaver Team Edition 中的 Audit logging 可以为管理员提供完整的、带时间戳的用户活动记录,使调查事件和追踪操作来源变得更加容易 (sysin)。 该功能默认关闭。指定的管理员可以在 Administration panel 中随时启用,以开始收集日志。 启用后,它可以记录广泛的事件,包括: 管理员可以在 Administration panel 中直接查看日志,并通过查询内部数据库或使用 REST API 导出日志,从而方便地将审计数据接入现有的监控或合规工具。 本次发布还推出了 DBeaver 产品家族中的一个新产品。dbvr 是一个轻量级 CLI,用于在没有图形界面的情况下执行数据库操作。 如果你在 headless environments、CI/CD pipelines 或 server-side workflows 中工作,它可以作为一个统一工具,通过命令行完成以下任务: 它支持多种 SQL 和 NoSQL 数据库,因此无需为不同数据库维护多个 CLI 工具。同时还支持 AWS、GCP 和 Azure 的原生认证机制,可以很好地融入云基础设施环境。 26.0 版本还为桌面体验带来了一些改进: DBeaver Ultimate Edtion 26.0 Multilingual (macOS, Linux, Windows), 2026-03-12
DBeaver 26 新增功能
将 AI 工具和 IDE 连接到你的数据库

https://dbeaver.com/docs/cloudbeaver/Model-Context-Protocol-Server/DBeaver Ultimate 现在已登陆 AWS Marketplace

使用审计日志跟踪团队活动

介绍 dbvr:新的数据库命令行工具

DBeaver PRO 桌面版的更多更新
下载地址
MacOS DMG - just run it and drag-n-drop DBeaver into Applications.
Debian package - run sudo dpkg -i dbeaver-<version>.deb. Then execute “dbeaver &”.
RPM package - run sudo rpm -ivh dbeaver-<version>.rpm. Then execute “dbeaver &”. Note: to upgrade use “-Uvh” parameter.
ZIP archive - extract archive and run “dbeaver” executable. Do not extract archive over previous version (remove previous version before install).
Windows installer - run installer executable. It will automatically upgrade version (if needed).
基于对 qclaw 的错误认知,我在已经安装了 openclaw 的环境上又安装了 qclaw ,在安装后, 无论是 qclaw 还是 openclaw 都无法进行对话(后面尝试修复过程中发现应该是两个 gateway 相互有冲突)
今天,我在应用列表对 qclaw 应用进行了删除
然后再尝试继续修复 openclaw 过程中发现了一个命令rm -rf ./openclaw,当我意识到问题的时候已经太晚了



还记得小时候玩的方格本吗?一行一行,一列一列,规规矩矩。Grid布局就是把这种“方格本”思维带到了CSS里。你可以在页面上画出任意行、任意列,然后把元素放进去,想放哪格放哪格,甚至可以合并单元格——就像Excel表格,但比Excel灵活一万倍。 Grid是CSS布局的终极武器,尤其适合做页面整体架构、卡片墙、仪表盘这类需要同时控制行和列的场景。如果说Flexbox是特种兵,擅长单兵作战,那Grid就是指挥官,能调动千军万马。 和Flexbox类似,Grid也是作用于父容器和直接子项目。只要在父元素上设置 默认情况下,网格只有一列,行高由内容决定。要真正“画”出网格,你需要用 你可以用各种单位定义行列的尺寸,比如像素、百分比、em等。 这样你就画了一个3列2行的网格,一共6个格子。项目会按顺序自动填充每个格子,就像表格里从左到右、从上到下填数据一样。 Grid引入了 如果父容器宽度是1200px,那么第一列占300px,第二列600px,第三列300px。 如果你要定义很多等宽的列,手动写很累。 有时候我们希望列宽能在一定范围内弹性变化,比如最小200px,最大自适应。 当列数不确定时,可以用 这段代码的意思是:每列最小200px,如果容器足够宽,就放尽可能多的列,并且每列等宽;当容器变窄时,列数自动减少,每列仍不小于200px。这就是纯CSS实现的响应式卡片墙! 每个网格都由网格线划分。比如3列有4条纵向网格线(从1开始编号),2行有3条横向网格线。你可以用这些线来精确放置项目。 简写为: 也可以从哪条线开始,并指定跨度: 网格线也可以命名,比如 如果你觉得用线编号不够直观,可以给网格区域命名。用 这个布局清晰得像图纸一样,每个区域的名字直接对应一个网格单元格。注意, 用 项目默认填满整个单元格,但你可以控制它们的位置。 如果想单独控制某个项目,用 如果网格的总尺寸小于容器,可以用 取值同样是 就这么简单,三栏就出来了,而且中间自适应。 我们希望卡片最小200px,尽量填满容器,而且自动换行。 无论容器多宽,卡片都会自动调整列数,完美响应式。 比如一个封面图占两列,下方三个卡片各占一列。 后台常有复杂区域划分,用 各区域对号入座,结构一目了然。 Grid还可以让多个元素重叠。通过给它们设置相同的网格区域,然后利用 很多人纠结什么时候用Grid,什么时候用Flexbox。其实很简单: 它们不是替代关系,而是配合关系。你可以在Grid单元格里用Flexbox排列内部元素,也可以把Flexbox项目里再嵌套Grid。两者结合,天下无敌。 如果只设置 如果项目数量超过网格单元格,会自动创建隐式网格(新行),行高默认 间隙是在分配fr之前扣除的。比如三列1fr,gap 20px,那么每列实际宽度 = (容器宽度 - 40px) / 3。所以计算时要考虑间隙。 这个容易搞错。不过可以用 Grid布局是CSS给前端开发者的一份大礼,它把网页布局变成了一种直观、可预测的体验。核心要点: Grid不难,关键是多动手画格子。一旦你习惯了这种“下围棋”式的布局思维,你会发现以前那些棘手的布局都变成了填空题。 如果你喜欢这篇文章,欢迎点赞、收藏、分享。明天我们将进入CSS另一个重要话题——响应式设计与移动端适配,教你如何一套代码搞定手机、平板、电脑。 明日预告:响应式设计的核心:媒体查询、流式布局、移动端适配,从零构建一个全端兼容的页面。如果说Flexbox是“一维战神”,擅长排排坐,那Grid就是“二维霸主”,能同时操控行和列。今天我们就来下这盘“布局围棋”,用网格思想彻底重构网页,让复杂布局变得像填格子一样简单。
前言
一、Grid的核心概念:容器与项目,行与列
display: grid或display: inline-grid,你就开启了一个网格世界。.container {
display: grid;
}grid-template-rows和grid-template-columns定义行和列。二、定义网格:画出你的棋盘
1. 固定行高和列宽
.container {
display: grid;
grid-template-columns: 200px 200px 200px; /* 三列,每列200px */
grid-template-rows: 100px 150px; /* 两行,第一行100px,第二行150px */
}2. fr单位:分蛋糕神器
fr单位(fraction的缩写),表示剩余空间的比例分配。这比Flexbox的flex-grow更直观。.container {
display: grid;
grid-template-columns: 1fr 2fr 1fr; /* 三列,中间占两份,两边各占一份 */
}fr可以和固定单位混用,比如200px 1fr 2fr,浏览器会先分配200px,剩下的按比例分。3. repeat() 函数:偷懒必备
repeat()函数来救场。.container {
grid-template-columns: repeat(3, 1fr); /* 三列等宽,相当于 1fr 1fr 1fr */
grid-template-rows: repeat(4, 100px); /* 四行,每行100px */
}repeat()还可以组合不同模式,比如repeat(2, 100px 1fr)表示重复两次“100px 1fr”的序列,最终得到四列:100px、1fr、100px、1fr。4. minmax():给尺寸一个范围
minmax()搞定。.container {
grid-template-columns: minmax(200px, 1fr) 2fr; /* 第一列最小200px,可以放大到1fr,第二列固定2fr */
}5. auto-fill 与 auto-fit:响应式利器
auto-fill或auto-fit配合minmax实现类似“流动布局”的效果。auto-fill:尽可能多地填充列,即使某些列是空的。auto-fit:也是尽可能多地填充,但会把空列收缩为0,让有内容的列伸展。.container {
display: grid;
grid-template-columns: repeat(auto-fit, minmax(200px, 1fr));
}三、网格线:定位的坐标系
.item {
grid-column-start: 1;
grid-column-end: 3; /* 从第1条纵向线跨到第3条线,即占据前两列 */
grid-row-start: 1;
grid-row-end: 3; /* 从第1条横向线跨到第3条线,即占据前两行 */
}.item {
grid-column: 1 / 3;
grid-row: 1 / 3;
}.item {
grid-column: 1 / span 2; /* 从第1列开始,跨2列,等同于1/3 */
grid-row: 1 / span 2;
}grid-template-columns: [main-start] 1fr [main-end],然后使用命名来定位。四、网格区域:给格子起名字
grid-template-areas属性来划分区域。.container {
display: grid;
grid-template-columns: 200px 1fr 200px;
grid-template-rows: 100px 1fr 100px;
grid-template-areas:
"header header header"
"sidebar content aside"
"footer footer footer";
}
.header {
grid-area: header;
}
.sidebar {
grid-area: sidebar;
}
.content {
grid-area: content;
}
.aside {
grid-area: aside;
}
.footer {
grid-area: footer;
}grid-template-areas里的每个单元格必须填满,不能有空洞;可以用.表示空单元格。五、间距与对齐:让网格透气
1. 行列间距
gap属性设置网格线之间的间距,可以分别设置行间距和列间距:.container {
gap: 20px; /* 行列间距都是20px */
row-gap: 10px; /* 单独设置行间距 */
column-gap: 15px; /* 单独设置列间距 */
}2. 项目在单元格内的对齐
justify-items:控制项目在单元格内水平方向的对齐(左中右)。align-items:控制项目在单元格内垂直方向的对齐(上中下)。start、end、center、stretch(默认)。.container {
justify-items: center; /* 所有项目水平居中 */
align-items: center; /* 所有项目垂直居中 */
}justify-self和align-self。3. 整个网格在容器内的对齐
justify-content和align-content控制网格整体的对齐,类似于Flexbox。.container {
justify-content: center; /* 网格整体水平居中 */
align-content: center; /* 网格整体垂直居中 */
}start、end、center、space-between、space-around、space-evenly。六、实战:用Grid搭建常见布局
1. 经典三栏布局(圣杯)
.container {
display: grid;
grid-template-columns: 200px 1fr 200px;
gap: 20px;
}2. 响应式卡片墙
.container {
display: grid;
grid-template-columns: repeat(auto-fit, minmax(200px, 1fr));
gap: 20px;
}3. 不规则布局:杂志风格
<div class="magazine">
<div class="feature">封面大图</div>
<div class="card">卡片1</div>
<div class="card">卡片2</div>
<div class="card">卡片3</div>
</div>.magazine {
display: grid;
grid-template-columns: repeat(3, 1fr);
gap: 20px;
}
.feature {
grid-column: 1 / -1; /* 从第一列线到最后一列线,即占满整行 */
}-1表示最后一条网格线,很方便。4. 后台管理仪表盘
grid-template-areas最合适。.dashboard {
display: grid;
grid-template-columns: 250px 1fr 300px;
grid-template-rows: 80px 1fr 60px;
grid-template-areas:
"header header header"
"sidebar main widgets"
"footer footer footer";
height: 100vh;
}5. 叠加效果
z-index控制层级。.container {
display: grid;
grid-template-columns: 1fr 1fr;
}
.item1 {
grid-area: 1 / 1 / 2 / 3; /* 占满整行 */
background: red;
z-index: 1;
}
.item2 {
grid-area: 1 / 2 / 2 / 3; /* 只占第二列 */
background: blue;
opacity: 0.5;
z-index: 2; /* 显示在上层 */
}七、Grid vs Flexbox:怎么选?
八、常见坑点与避坑指南
1. 默认不是严格的一行一列
display: grid而不定义行列,默认只有一列,行数由项目数量决定(每个项目占一行)。所以一定要定义行列。2. 项目会自动填充,但可能超出网格
auto。你可以用grid-auto-rows控制隐式行的高度。.container {
grid-auto-rows: 100px; /* 隐式创建的行高100px */
}3. fr 和 minmax 结合时注意死循环
minmax(200px, 1fr)的意思是:优先让列宽为1fr,但不会小于200px。这通常没问题,但如果你把所有列都设成这样,且容器总宽度小于列数*200px,就会出现溢出(因为每列都强制不小于200px)。这时可以改用auto-fit和minmax的巧妙组合,或者用max-width限制。4. gap 会占用 fr 空间
5. 网格线编号从1开始,不是0
-1表示最后一条线,比较方便。九、总结
grid-template-columns和grid-template-rows定义网格结构。fr、repeat()、minmax()灵活控制尺寸。grid-column/grid-row或grid-area放置项目。gap控制间距,用justify/align控制对齐。auto-fit和minmax实现响应式。grid-template-areas命名,代码如设计图。
最近,Cloudflare 发布了vinext,这是 Next.js 的一个实验性重新实现,基于Vite而非Turbopack。该项目由一名工程师在大约一周内使用 AI 开发完成,API token 的成本为 1100 美元。此外,该公司将其定位为一个即插即用的 Next.js 替代品,并且针对 Cloudflare Workers 做了优化。不过目前,该项目被标记为实验性和未经大规模测试。 从早期的基准测试看,该项目前景光明,不过也有一些需要注意的地方。在一个包含 33 个路由的测试应用中,使用 Vite 8 打包器 Rolldown 的生产构建耗时不到 1.67 秒,而使用 Turbopack 的 Next.js 16 则需要 7.38 秒。速度提升了 4.4 倍。客户端软件包的大小也从 168.9KB 减少到了 72.9KB,小了 57%。但 Cloudflare 提醒说,这些数字是“方向性的,不是确定性的”,因为它们基于单一测试环境,而不是现实世界中的生产应用。 图片来源:Cloudflare博文 领导开发这个项目的 Cloudflare 工程师 Steve Faulkner 在博文中描述了其工作流程:最初几个小时在 OpenCode 中使用 Claude 定义架构,然后迭代执行任务,由 AI 编写实现和测试。当测试通过时,合并代码。当测试失败时,AI 接收错误输出并迭代代码。800 多次 AI 会话便生成了大部分的代码,但每一行都通过了质量检查:1700 多个 Vitest 测试,从 Next.js 测试套件移植过来的 380 个 Playwright E2E 测试,TypeScript 检查和代码分析。 vinext 实现了 Next.js 的 API 接口、路由、服务器渲染、React 服务器组件、服务器操作、缓存、中间件(作为 Vite 的插件,而不是封装 Next.js 的输出)。这使得它可以在任何支持Vite Environment API的平台上运行,尽管 Cloudflare Workers 是其主要的部署目标。该公司声称,代码库中大约 95%的代码是平台无关的 Vite 代码。 部署到 Workers 只需要一个命令:vinext deploy。App Router 和 Pages Router 都完全支持客户端水合。缓存方面,vinext 包括一个用于 ISR(增量静态再生)的 KV 缓存处理器。在线示例包括一个App Router游乐场、一个Hacker News克隆和CIO.gov(这是美国政府的一个 beta 站点,由 National Design Studio 运营)。 一个重要的限制是:vinext 尚未支持构建时静态预渲染。Next.js 在 next build 期间使用 generateStaticParams()预渲染页面。vinext 只支持 ISR,缓存并在第一次请求后重新验证页面。不过,静态预渲染已在路线图上。 Cloudflare 提出了一个名为 Traffic-aware Pre-Rendering(TPR)的替代方案,目前还是实验性的。TPR 在部署时查询 Cloudflare 的区域分析,并且仅预渲染接收实际流量的页面。对于一个有 10 万个产品页面的网站,其中 90%的流量是访问其中的 50-200 个页面,这些页面将被预渲染,其余的则回退到按需 SSR。这只适用于已接入 Cloudflare 网络且具备现有分析数据的网站。 社区的反馈已经超出了实现质量的范畴。在Reddit的r/vibecoding论坛上,开发者们质疑其可维护性影响,有参与者评论道:“最后一句话很随意地承认了该代码难以由人类进行维护这一事实。”此言是针对 Cloudflare 宣称 AI 无需中间抽象层,因其“能将整个系统置于上下文之中”的说法。另有人指出: 一周开发完成意味着没有人真正地浏览过代码。 Hacker News上的反馈也反映出了类似的怀疑。一位评论者指出了文档悖论: 你越完善地记录工作成果,越清晰地定义契约,他人就越容易复制你的工作。若没有 Next 自主研发的测试工具,Cloudflare 根本不可能实现这一目标。 还有一位评论者指出,Vite 承担了最繁重的工作: vinext 大约 95%的代码是纯 Vite。真正的成果是人为构建的 Vite。 需要注意的是,该项目目前还是一个实验性的项目。正如 Cloudflare 的博文所描述的那样: vinext 是实验性的。它甚至还不到一周大,还没有经过任何有意义的大规模流量的实战测试。如果你正在评估将其用于生产应用程序,请务必谨慎行事。 README列出了明确不支持的特性和已知的限制。Cloudflare 正在与其他托管服务商合作推广该工具链;他们不到 30 分钟就为 Vercel 完成了概念验证部署,但该项目的长期可行性仍然存疑。 对于有兴趣参与测试的开发者,vinext 提供了一个用于迁移的 Agent Skill,可与 Claude Code、OpenCode、Cursor 及类似的工具搭配使用:npx skills add cloudflare/vinext。或者,也可以使用 npx vinext init 手动处理迁移。 声明:本文为 InfoQ 翻译,未经许可禁止转载。 原文链接:https://www.infoq.com/news/2026/03/cloudflare-vinext-experimental/