微软捣毁大规模RedVDS网络犯罪虚拟桌面服务
韩国巨头Kyowon确认勒索软件攻击导致数据被盗
微软更新曾触发安全警报的Windows DLL文件
Reprompt攻击劫持Microsoft Copilot会话窃取数据
FortiSIEM高危命令注入漏洞的利用代码已公开
ChatGPT即将推出的跨平台功能代号为"Agora"
谷歌计划通过Gemini将Android版Chrome打造为智能代理浏览器
谷歌个人智能系统将Gmail、照片和搜索与Gemini关联
OpenAI隐藏版ChatGPT翻译工具正挑战谷歌翻译
jsPDF 路径遍历漏洞分析(CVE
针对国内用户的Rust加载器升级样本分析




























警惕LLM流式输出中的隐形漏洞
记一次ASP站渗透测试经历
FastCMS 0.1.6 插件系统RCE代码审计
车辆置换计划圆满成功,借小米的光,成为鹏友了
背景
当初在站内分享过自己的置换计划,不知道有没有 v 友看到过。
本周已经完成新购车辆的过户流程,和 v 友们同步下整个计划的完结过程供参考:
整体时间线
25.06.26 锁单小米 yu7 后,开始随缘找买家(没几天就找到了),然后就是漫长的等车过程...
25.09.07 在小米交付中心和买家完成交易后
25.09.11 提交国家置换补贴审核、宝安区置换补贴审核
25.09.18 初审通过,然后就是漫长的等待过程...
25.10.27 复审通过,当天下午完成小米 yu7 过户和所有权交接,拿到最后一笔尾款
25.11.28 国家置换补贴到账; 25.12.15 宝安区补到账
26.01.10 购入一辆 23 年 2.9w 公里的小鹏 p7i pro
收益
现金收益:3500 ( yu7 差价)+ 15000 + 2211 = 20711
隐形收益:新款 p7 出来后旧 p7 的降价、26 年 1 月购买二手车相比 25 年底也有波降价
感受
12w 左右的价格,买到一辆外观还能打几年、驾驶质感也还不错的车,同时对比老旧的 17 年燃油马 3 ,智能化、使用成本上都大幅下降,整体上还是非常满意的。
上个图(这车真是耐看,可惜没买到 19 寸轮毂的版本):

UU 远程好用到像盗梦空间
自来水一波,
最近一直在上班的时候远程用用家里的 AI 。
35 块一年美国大兵的 ChatGPT Plus ,
和 25 一年的学生 Gemini Pro ,
因为是羊毛产品 比较怕网络波动导致封号,
Gemini 的号已经封过三次,申诉四次被拒了一次 好在还能用。
把网络延迟显示和悬浮窗隐藏了以后经常忘记是自己家的电脑,
完全分不清本地和远程的区别。
快捷键 Ctrl+Alt+F 进入和退出全屏,
像梦中会忘了处在梦中一样。
画质设置的 35M 码率 最高设置 500M ,
帧率最高设置 144FPS 分辨率最高 4K ,
画质和本地完全无区别。
家里是联通千兆宽带 上行 40 左右,
公司电脑是电信千兆商务宽带 上行 120 左右。
现在就是上班在公司用家里电脑 AI ,
下班用家里笔记本打公司电脑游戏。
手握 30 亿、被蚂蚁狂挖人,转型被骂惨的王小川,真的翻身了?
在“大模型六小虎”成为历史后,王小川终于等来了自己的风口。 近日,国内外大厂在医疗领域动作频繁。1 月 8 日,OpenAI 高调入局,除了推出 ChatGPT Health,还收购了医疗保健初创公司 Torch。几乎同期,Anthropic、英伟达、苹果等都有产品和合作发布。国内,蚂蚁阿福自发布后短期内月活用户突破 3000 万,单日提问量超千万。资本市场上,AI 医疗板块逆势走强,成为最近市场热点。 在此前大模型竞争激烈的当口,AI 医疗并不是一个很性感的话题。那种不信任来自百川内外。 2023 年成立的百川在一年后战略收缩,决定聚焦医疗,成为国内较早专注到医疗的大模型创企。但内部“没有足够传达在医疗上的决心和路径要求,没有让每个团队在医疗价值创造中深度思考 why 和 how,进而导致部分团队工作目标出现了摇摆和偏差。”“去年中途转过来时被骂惨了。” 不只内部,业界对 AI 医疗也存有疑虑,连带着对百川的路线选择也有质疑。“2024 年跟医生谈 AI,大家都不信。”王小川直言。 直到 2025 年,大家看到 DeepSeek 真的比百度靠谱很多;年末阿福发布,投了 10 亿来砸广告,看到了技术和应用进展;今年 1 月 8 日,OpenAI Health 正式上线,Anthropic 也发布了自己的两个技术能力:医疗计算和 Agent,两个巨头都开始进入医疗。 “所以,从市场判断来看,医疗作为 AI‘皇冠上的明珠’这样的高级阶段,已经开始进入应用范畴。”王小川说道。 从发布反思信至今 9 个月过去,王小川向 InfoQ 表示,百川如今的护城河主要有三个:一是模型结构的优先级,“医疗安全性”和“诊断准确性”始终是首位;二是切入点选择,百川聚焦严肃、高价的医疗场景,区别于其他企业的健康类打法,这类场景的壁垒更高,且有明确的付费意愿;三是产品形态的差异化,百川身份差异化服务和决策辅助能力,是现有产品不具备的。 王小川尤其提到,大厂和创业公司不一样,他们有职业团队,需要的是更安稳的方案。“大创新靠小厂,小创新靠大厂,必须切入我们认为有高价值的事情,共识不是我们优先的突破点,而大厂更多的是注重共识,路线图和产品形态是不一样的。” “去年 8 月发布的 M2 作为百川重新聚焦医疗之后的主力模型,在行业得到很多好评。典型现象就是蚂蚁开始疯狂挖人,从技术人员到财务人员,所以属于小圈子认可技术路线图。”王小川说道。 昨天,百川正式开源了新一代医疗大模型 Baichuan-M3。据百川智能模型技术负责人鞠强介绍,Baichuan 系列采用 SCAN 框架,实现临床医生层级的推理与问诊。其核心在于不仅询问疾病类型,更通过定量问题将模糊主诉转化为可定位、可量化的临床证据;并且突破单一症状的局限,进行跨系统关联推理。 其次,团队高度重视并主动防控大模型在医疗中的“幻觉”,坚持正确知识并进行原子级事实检验:在模型推理过程中进行逐层事实核查,确保结论基于真实输入。 鞠强介绍,在模型训练中,抑制“幻觉”与提升推理能力之间存在明显的“跷跷板效应”,容易陷入两种极端:若过度追求推理表现,其生成内容会更丰富、答对率上升,但幻觉也难以控制;若强力抑制幻觉,模型则会趋向过度保守,回答变得拘谨甚至回避问题,导致实用性下降。这也是团队在 Baichuan-M3 训练中重点攻克的问题。 为破解这一矛盾,研发团队引入了 Fact-aware 强化学习技术。该技术核心在于,在强化训练过程中,既对幻觉进行充分压制,又确保推理能力不受损,反而同步提升。 结果显示,相比前代模型 M2,百川正式开源新一代医疗大模型 Baichuan-M3 的幻觉率大幅下降,同时在医疗专业评测 HealthBench 上的推理能力得分从 34 分显著提升至 44 分,位列榜首。在不依赖工具或检索增强的纯模型设置下,医疗幻觉率 3.5,超越 GPT-5.2。“这验证了我们通过强化学习方法,在抑制幻觉与增强推理之间取得了有效平衡。”鞠强表示。 Hugging Face 地址:https://huggingface.co/baichuan-inc/Baichuan-M3-235B GitHub 地址:https://github.com/baichuan-inc/Baichuan-M3-235B 另外,模型深度集成的问诊能力,从日常症状中识别风险。团队设计了防御性思维追问,以甄别背后潜在的系统性疾病,还会进行组合症状敏锐识别,比如用户描述“情绪激动时左牙疼”时,模型能会关联“牙痛+情绪症状”,优先建议排查心脏系统问题,从而排除重大隐患,而非直接推荐牙医或止痛药。该能力已集成至产品,服务于医生与普通用户。 在 AI 医疗中,除了文字,还有影像等信息。不过,王小川认为,多模态并非当前 AI 主战场。 他解释道,ChatGPT 之所以令人震撼,正是因为它展现出一种“智力”,而智力的本质,是将具体事物进行抽象的能力,其核心在于符号系统。在这一逻辑下,智能主要依托于三种形式语言:自然语言、数学语言与代码语言。至今,评估一个模型能力的强弱,本质上仍是检验其符号处理与逻辑推理的水平,功能可用并不等同于智力高超。在医疗领域,这一观点尤为关键。医疗的核心是决策,而不仅仅是感知。 实际上,未来医学影像的初步解读可由专用小模型完成,许多厂商也已具备相应的图像引擎。但真正的价值在于:将影像符号化之后,如何用语言模型进行综合推理与判断。因此,感知模型与认知模型必须结合。 他认为,当前的一些工作,比如将 CT 影像转化为报告,或是专注于胰腺癌筛查的视觉模型,固然有其价值,但它们更像是“挂在智力之树上的叶子”,是整体流程中的一环,而非驱动智能演进的主战场。真正的突破,仍在于如何通过符号与语言,构建能够进行复杂医疗决策的认知核心。 “未来巨大的增量是在院外,不在院内。”王小川说道。其核心是直接服务患者,而不是通过服务医生间接服务患者。 反观 OpenAI 的入局是靠打造“个人超级助手”,Anthropic 则从合规性与临床效率上做 B 端突围。对此,王小川的评价是:“美国是 To C 和 To B 都可以干,但在中国 To C 比 To B 更好。” 王小川认为,国内的医疗现状是医生供给不足,互联网虽能连接信息却无法创造供给;医患权力不均,双方容易沟通不畅、患者无助;患者更倾向三甲医院,致使基层医疗薄弱;医疗知识分散于各科室,复杂病症往往缺乏整体视角。 基于此,他的设想是 AI 可以“造出高质量医生”,但不是要 AI 取代医生。“在某些维度上,AI 超过医生是必然的,比如信息收集的完整性、医学知识的储备量、循证的精准度等。但 AI 不会取代医生的核心执行能力,比如手术、查体等。” 在不取代医生的情况下,AI 可以推动“权力让渡”,即帮助患者理解病情与方案,获得更多参与权和知情权。另外,居家通过 AI 进行初步咨询,让“居家首诊”可能,减轻医疗系统负担。此外,复杂问题需要跨科室会诊,以前就是入院即入组,即进入某个科研队列,有了 AI 后能够做到“看病即入组”,更有机会做好生命模型。 在实现的产品形态上,百川目前主打还是百小应 App,不过用户进入后可以选择医生和患者两种身份,给出的结果是不一样的:医生版更像 OpenEvidence,答案更加专业、更加强调循证,引用的文章在系统中 100%存在,让其能够做决策、信息够充分;患者版本则强调补充信息,进入启发式端到端的问诊,也给到患者决策能力。 “我们与 OpenEvidence 的区别在于,OpenEvidence 只是服务于医生,百川是可复数、可懂、可决策、可行动、能够服务到患者的,这样的产品定位在全球是独一无二的。”王小川补充道。 在其看来,做 To C 产品,重点是让产品价值触达真正的目标人群,即有严肃医疗需求、愿意为决策辅助付费的患者。他举例称,达摩院做的胰腺癌平扫 CT 模型,虽然技术门槛高,但解决了核心临床痛点,就有明确的付费方;而泛健康类服务看似覆盖广,但价值不突出,反而难以找到稳定的付费用户。百川目前的做法就是基本全覆盖,重点放在儿科、慢病和肿瘤,优先突破有明确痛点的领域。 收费模式上,王小川认为,不是只赚医院或医生的钱,还可以向患者收费,也可以形成服务包,后面的医疗资源和药械以服务包形式收费。 “我倒不担心商业模式本身,确实要过了这个门槛、为用户创造价值,之后不管直接收费还是生态收费都是很容易的事情。”王小川说道。目前,百川账上还有 30 亿人民币,这也留给了王小川证明的时间。 据王小川透露,今年上半年,百川会完成两款产品的发布和推广,核心是回归决策层面,帮助用户(包括患者和医生)做出更好的医疗决策,最终实现“医生时刻陪伴式”的健康管理。“我们第二个产品已经可以当成院外医生来看了。”此外,百川也有计划硬件产品发布和出海计划,具体日程未定。 为了培养用户心智,百川未来也会增加一定的广告宣传投入,另外会重视医生对产品的认可度。“阿福跟我们的路线不一样,老医生都是无感的。我们希望医生和患者一体两面,共享一款产品,要让专家点头,而不只是患者鼓掌。产品做好以后确实能够取得一定的口碑效应。”王小川说道。 “今年上市的两家主要还是踩在通用模型技术红利和政策支持的基础上,但目前他们的市值和商业化能力并不匹配,但 AI 医疗今天也是大模型竞争中的一个范式,虽然它的成熟会晚一点,在后面我们肯定也是奔着上市去的。”王小川给了自己两年的时间再看看。
模型要低幻觉、能问诊,多模态非主战场

“在中国 To C 比 To B 更好”
LangGrant 推出 LEDGE MCP 服务器,赋能企业数据库启用代理式 AI
LangGrant推出了 LEDGE MCP 服务器,这是一个新的企业平台,旨在让大语言模型在复杂的数据库环境中进行推理,而无需直接访问或暴露底层数据。该版本旨在消除组织在将代理式 AI 应用于受受控生产数据时面临的一些最大障碍,即安全限制、失控的 token 成本和不可靠的分析结果。 该公司表示,LEDGE MCP 服务器允许 LLM 跨Oracle、SQL Server、Postgres和Snowflake,等数据库生成准确、可执行的多步骤分析计划,同时将数据完全保留在企业边界内。通过依赖模式、元数据和关系而不是原始记录,该平台消除了将大型数据集推送到 LLM 的需要,从而大大减少了 token 的使用并防止敏感数据泄漏。根据 LangGrant 的说法,通常需要数周手工编写查询和验证的任务现在可以在几分钟内完成,并具有完全的人工审查和可审计性。 LangGrant 首席执行官、首席技术官兼联合创始人Ramesh Parameswaran表示:“LEDGE MCP 服务器消除了 LLM 和企业数据之间的摩擦。”他指出,企业现在可以安全、经济地将代理式 AI 直接应用于现有的数据库生态系统,而不会损害治理或监督。 在许多组织中,上下文工程和代理式 AI 正从实验阶段进入生产环境。许多企业已经接受了 AI 助手,但在操作数据库方面却停滞不前。安全策略通常禁止直接访问 LLM,在分析原始数据时 token 和计算成本会激增,开发人员和业务用户都在努力应对企业模式的规模和复杂性。即使使用 AI 辅助编码工具,工程师也经常花费数周时间手动将部分上下文输入模型,以生成可用的查询和管道。 LangGrant 将 LEDGE 定位为一个全面解决这些问题的编排和治理层。MCP 服务器管理 LLM 如何与企业数据交互,确保符合访问控制和策略。分析和推理使用数据库上下文而不是数据有效负载来执行,以降低成本并减少幻觉风险。该平台还可以自动创建可由人工团队检查、批准和执行的多阶段分析计划。 此外,LEDGE 支持按需克隆和容器化类似生产的数据库,为智能体开发人员提供安全、隔离的环境来构建和测试 AI 工作流。通过跨异构系统自动映射模式和关系,该平台使 LLM 能够跨多个数据库进行推理,而无需读取底层数据本身。 有了 LEDGE MCP 服务器,LangGrant 认为企业对 AI 的采用将更少地依赖于更大的模型,而更多地依赖于安全的编排、治理和成本控制。该公司认为,通过保持数据原位,同时为 LLM 提供全面的上下文理解,企业最终可以准确、安全、大规模地将 AI 应用于其最有价值的数据资产。 许多公司正在采用 MCP 风格的服务器,在不暴露原始数据的情况下为 AI 智能体提供安全、结构化的环境,但它们的重点领域有所不同。GitHub的 MCP 服务器以开发人员的工作流程为中心,允许 LLM 在执行访问控制的同时对存储库、问题、拉取请求和 CI 元数据进行推理。同样,微软的Azure DevOps MCP向 AI 智能体公开结构化项目和管道上下文,以支持规划、故障排除和交付自动化,而不是深度分析数据处理。 除了开发者平台,MCP 概念也出现在基础设施和运营中。Linkerd等服务网格项目正在探索 MCP 集成,为 AI 智能体提供对服务流量、遥测和策略执行的安全可见性。云提供商还通过他们的 AI 服务(如AWS和谷歌云)提供类似 MCP 的上下文层,这些服务允许智能体查询基础设施元数据和操作信号,而无需将敏感数据直接传递给模型。这些方法侧重于操作意识,而不是数据分析。 与这些产品相比,LangGrant 的 LEDGE MCP 服务器以专注于企业数据库和分析而脱颖而出。总之,这些平台显示了 MCP 如何成为一种基础模式,每个实现都针对企业堆栈的特定层进行了定制。 原文链接: https://www.infoq.com/news/2026/01/langgrant-ledge-mcp-server/
CVE
分享一款免费开源的 Windows 系统重装工具 LetRecovery
https://github.com/NORMAL-EX/LetRecovery
就是把重装系统简化了/自动化了。省去了各种手动操作,小白一看就会。点点鼠标就能重装系统。
昨晚上试用了一下,效果很好,可以恢复自定义的 wim esd 之类的系统包。甚至在各种云服务器上都能运行。
各位程序员朋友如果有亲戚朋友求助装系统,就用这个工具试试。
新开发的项目,或许会有些 bug ,开发者很热心会给排查问题的。
目前的缺点就是没有内置 PE,运行重装之前要下载 800M 左右的 PE。瑕不掩瑜,开发者后续会优化 PE 体积的。
Struts2 CVE






给大家介绍一个最近在用的外链构建策略
一.主要策略
- 首先是免费外链
- 其次是互换外链
- 付费外链
这种策略特别适合,前期预算有限的独立开发者或者初创团队。
二.执行步骤
1.打开 Backlink Dirs
Backlink Dirs 是一个外链聚合平台,目前主要收集高质量 导航站 和 产品发布 平台,站长可以免费找到可以发外链的网站目录,也可以提交自己的导航站或者产品发布平台到 Backlink Dirs
2.筛选 Free 标签,点击,一键直达

3.点击 Submit Now ,可以直接去到对应网站的产品提交页面
4.筛选 exchange-backlink标签获取可以互换外链网站目录, 点击一键直达
5.筛选 one-time-purchase标签获取付费外链网站目录,也可以按照 dr 或者 mv 的高低来排序,优先付费 高 dr 或者 高 mv 的:1.高 dr 直达; 2.高 mv 直达

6.推荐一个 ai 导航站,AI Dirs,DR 39 ,MV 1k ,目前还是免费提交,做 ai 工具站的站长们不要错过
自荐一下 macOS 的免费剪贴板工具「PasteMine」
半个小白,试着用 vibe coding,三周的空闲时间用 Claude 做出来的一个 mac 上的剪贴板历史工具 PasteMine 🤠
主打 轻量 / 隐私 / 本地化,全程纯本地存储,无网络请求、无第三方 SDK,数据不会上传。
目前仅支持文字和图片。
推荐授予 通知 和 辅助功能 权限。通知是为了提醒复制、粘贴成功;辅助权限是用于自动粘贴。
快捷键唤醒后,直接方向键上下选,回车粘贴,输入节奏很顺。
除了核心的复制、粘贴,还做了几个小功能:
- 固定几条历史信息
- 图片悬停预览
- 复制信息的 App 分类
- 指定 App 或敏感类型,忽略复制
(注:目前未做 Apple 签名/公证,首次打开可能需要在「系统设置 → 隐私与安全性→划到底部」里点“仍要打开”。)
免费的,可以去下个 dmg 装了试试。大家轻喷 😈,有什么问题多交流。
头一次和 AI 沟通做东西挺有趣,像包工头拿着图纸站在工地,我讨论,AI 施工。
🖼️ 图片加载失败
hacknews 重度用户看过来 ,HN 评论阅读增强脚本:卡片化 + 折叠/跳 L0 + 主题/渐变 + 像素头像(求大佬们的审美建议)
打磨了一周的卡片式 ui 大佬们还有更多的 功能/样式 建议吗 准备发布啦
它主要解决什么问题?
- 长楼“找上下文”困难:不知道自己在回复谁
- 讨论树太深,页面太长:滚动疲劳、定位困难
- 想快速扫顶层(L0)主线程:上下跳楼不够顺手
- 深色模式/阅读舒适度:原生样式太简陋,眼睛累
核心功能一览(当前脚本已实现)
1) 评论区卡片化重排(核心)
- 把 HN 原生的表格树评论,重建为 卡片式树结构(视觉层级更清晰)
- 每条评论是一个卡片:用户名/时间/操作按钮在顶部,正文在下面,子回复作为卡片嵌套
- 支持 最大宽度、圆角、间距、缩进等布局调节
适用场景:长讨论阅读体验会明显提升,尤其是多层回复。
2) 主题与外观:浅色/深色/跟随系统 + 渐变层级背景
- 主题模式:跟随系统 / 强制浅色 / 强制深色
- 页面背景可自定义(浅色/深色各一套)
- 评论卡片支持“按层级渐变”:L0/L1/L2… 背景颜色可调
- 也提供一些预设配色(比如蓝灰、暖米色、灰阶极简、深海蓝黑等)
目标:让“长时间刷楼”变得更舒服。
3) 折叠/展开(偏扫楼用)
为了快速扫楼,它提供多种折叠策略(可开关/可配置):
- 每条评论可折叠:右上角有“折叠/展开”按钮
- 折叠触发方式(可选):
- 仅按钮
- 按钮 + 单击正文
- 按钮 + 双击正文
- 双击正文折叠/展开整个子树(可选):
双击某条评论正文,直接折叠/展开它下面整棵回复树 - 默认折叠策略(两套):
- 按数量:顶层评论如果“后代回复总数”超过阈值,默认折叠(便于扫主楼)
- 按深度:从指定深度开始默认折叠(避免页面无限延长)
- 全局快捷按钮(右下角):
- 全部折叠(收起所有有子回复的评论)
- 全部展开(展开所有评论)
4) “展开提示” + 数量颜色提醒(更好扫大楼)
当某条评论被折叠时,会出现类似:
[+展开 8 条回复](单击默认展开 双击展开全部子级)
并且这个数字会根据数量变色(可调阈值/颜色):
- 少量:更偏主题强调色
- 中量:偏粉/亮色
- 大量:偏红(提醒这楼很长)
另外支持把这个提示按钮放在:
- 评论底部(默认)
- 或者放在右上角按钮行里(更省垂直空间)
5) L0 主线程导航(扫楼神器)
每条评论右上角会有:
- 上 L0 / 下 L0:快速跳到上一个/下一个顶层主线程
- L0 折叠:一键折叠当前评论所在的顶层主线程(快速收起一整楼)
- 还有一个 “层展”:只展开下一层,下一层的子回复继续保持折叠(用于逐层读)
(这块我自己用得最多,长讨论基本靠它快速扫楼。)
6) Hover 父级高亮:找上下文更快
鼠标悬停某条评论时:
- 自动高亮它的直接父评论
用来快速确认“我现在在回复谁/这层上下文是什么”。
7) OP(楼主)高亮
楼主(story author)的评论会有额外高亮描边,方便追踪 OP 在楼里说了什么。
8) Dead 评论处理(单选模式)
对被标记为 dead 的评论可以选择:
- 不处理
- 弱化(降低透明度/饱和度)
- 隐藏(同时自动启用弱化)
9) 像素头像(基于用户名生成)
每个用户名旁边会生成一个 对称像素头像(纯前端生成,无请求外部资源):
- 默认开启
- 支持调整大小、是否加边框、边框颜色、边框样式
- 有做性能优化:懒加载 + 缓存,避免长楼卡顿
用途:快速识别同一个人在楼里出现的回复。
10) 复制评论直达链接(可选)
每条评论右上角可以显示 copy:
- 一键复制
item?id=xxx#commentId的直达链接
方便分享某条具体回复。
11) 顶部导航吸附 + 回到顶部
- 顶部 HN 导航栏可吸附(sticky)
- 右下角
↑回到顶部按钮(滚动到一定距离才出现)
12) 快捷键(可选)
Alt + Shift:
C全部折叠E全部展开T循环切换主题(auto/light/dark)
微服务应用漏洞自动化挖掘MScan的实现与实战(上)
















































Peek Pop:链接支持能力接近 Arc Peek 的预览插件
安装
从 Chrome 商店安装 | 从 Firefox 商店安装 | 从 Edge 商店安装
Peek Pop 跟其它预览插件的区别
1. 支持更多的链接
可以用其它的预览插件在以下地方试试。这些 Peek Pop 都支持。但仍不及 Arc Peek,毕竟人家是浏览器 😏
- B 站视频评论区
- IT 之家文章下方的「大家在看」区域
- Reddit 左侧边栏 - Recent/Communities 区域
- 在其它网站中跨网站预览 Github、X 等安全要求高的网站
2. 触发多样
安装后默认是 「双击预览」,它不会影响网页原有单击和拖拽功能,兼容性极好。 如果觉得不够跟手,请到设置页面 - 「点击」- 调整「 两次点击之间最大间隔(ms) 」,默认 250ms 内点击两次判定为双击。
| 触发方式 | 状态 | 修饰键 | 搜索或以图搜图 |
|---|---|---|---|
| 双击(默认) | ✅ 支持 | ❌ 不支持 | ❌ 不支持 |
| 长按 | ✅ 支持 | ❌ 不支持 | ❌ 不支持 |
| 单击 | ✅ 支持 | ✅ 可选 | ❌ 不支持 |
| 拖拽(方向、距离可调) | ✅ 支持 | ✅ 可选 | ✅ 可选 |
| 悬停 | ✅ 支持 | ✅ 可选 | ✅ 可选 |
| 悬停 + 空格键 | ✅ 支持 | ❌ 不支持 | ❌ 不支持 |
| 悬停在预览图标 | ✅ 支持 | ❌ 不支持 | ❌ 不支持 |
- 以上部分可同时启用。也可与其它插件共存。
3. 功能选项丰富
- 弹窗控制:大小、位置、关闭、返回原页面、复制链接等都可设置
- 黑名单:按预览链接、按触发方式和整个页面屏蔽
- 小工具:划词搜索条、稍后阅读、链接指示器
Apache NiFi GetAsanaObject 处理器反序列化漏洞(CVE
分享一下我的 ClaudeCode 工作流:Kitty + Zed + superpowers,可以减少和 AI 的反复拉扯,一次做对
我的工作流是一个围绕 superpowers 插件 的 Loop,superpowers 的理念是:先思考再动手。当你提出一个需求,不会急于写代码,而是先退一步问你"你真正想要实现什么",通过对话梳理出完整的设计方案,再分步执行。
核心设计是 master 和 worker 分离。
- 脑暴会话 (master):专注于思考和设计,输出高质量的设计文档和执行计划
- 执行会话 (worker):专注于代码实现,执行详细的计划

1、需求录入 - 首先我会在 Zed 上进行需求录入,采用 md 格式。这一步非常重要,我大概有 30% 的时间花在需求录入上,我会把能想到的关于此需求的背景、最终目标、可行的技术方案、风险点、外部 API 文档等等一切资源,都在需求文档中说明。对于需求文档,我不会太在意格式,会有比较多口语化的表达。
2、脑暴阶段 - 把需求 MD 喂给 Claude,调用 /superpowers:brainstorm 和 claude 进行思维碰撞。这个阶段不写任何代码,只讨论设计方案和实现细节,最终输出 design.md 和 implement.md,保证最终的实现方案是完美符合我的预期的。
3、 执行阶段 - 这里我会选择新起一个 ClaudeCode 会话,而不是在脑暴会话中进行代码实现。新会话的好处:一、原先脑暴会话已经经过多轮对话了,一般情况下上下文会比较满,新会话响应更快,并且不会“犯傻”;二、implement.md 足够详细,无需额外上下文
4、 CodeReview - 在 Zed 中进行代码审查和功能验收。关于代码审查,对于一些代码细节和实现原理,这里我会使用 zed-agent 来辅助我进行代码 review,当然,你也可以在终端新建一个 ClaudeCode 会话或者使用 Zed 的 Claude Agent。原则是尽量不在脑暴和执行会话中引入太多不必要的问题,保持这两个会话的「干净」。发现问题后,将改进项写入新的需求 MD
5、 LOOP - 改进项 MD 喂回脑暴会话,开始下一轮脑暴迭代
非常简单,但是效果超群。充分的前期设计可以提升 AI 的效率和质量,避免多次的来回拉扯。
举个真实案例:我用这套工作流将个人博客从 Quarz 框架迁移到 Astro 框架。脑暴阶段确认好设计方案后,我让 Claude 执行计划,然后就去睡午觉了。醒来发现 Claude Code 已经完美完成任务——中间零中断,一次成功,共计 5000+ 行代码变更。
SiteBackup - 网页备份工具
一个基于 Wails 框架开发的网页备份工具,支持完整备份网页内容,包括 HTML、CSS、JavaScript、图片等所有资源,并提供隐私清理功能。
Star History
⚠️ 重要声明
本工具仅供学习和研究使用,请勿用于任何违法活动!
- 🎓 学习目的:仅用于学习网页技术和备份个人网站
- 📋 遵守规则:请遵守目标网站的 robots.txt 和使用条款
- 🚫 禁止滥用:不得用于恶意爬取、侵犯版权或其他违法行为
- ⚖️ 自负责任:使用者需自行承担使用责任
🚀 功能特性
核心功能
- 📦 完整备份:备份网页的所有资源文件(HTML、CSS、JS、图片、视频等)
- 🛡️ 隐私清理:自动移除第三方跟踪代码、统计代码、广告代码
- 📊 实时进度:显示备份进度和文件下载状态
- 🗜️ ZIP 打包:自动将备份文件打包为 ZIP 格式
- 📁 目录选择:支持选择自定义保存目录
- 📱 响应式布局:栅格布局,适应不同窗口大小
- 🌍 跨平台:支持 Windows、macOS、Linux
界面特性
- 🎨 现代化 UI:基于 Naive UI 的美观界面
- 📋 详细配置:丰富的备份选项配置
- 📈 进度监控:实时显示文件下载状态
- 🔍 文件详情:可查看每个文件的下载进度
⚠️ 功能限制
请注意:本工具主要适用于简单的静态网页备份
技术限制
- ❌ 动态内容:无法备份需要 JavaScript 动态加载的内容
- ❌ 懒加载:不支持懒加载(lazy loading)内容
- ❌ 用户交互:无法处理需要用户交互才显示的内容
- ❌ SPA 路由:不支持单页应用(SPA)的动态路由内容
- ❌ 登录内容:无法备份需要登录才能访问的内容
- ❌ 复杂框架:对于 React、Vue、Angular 等现代框架构建的复杂应用效果有限
适用场景
- ✅ 静态网站:个人博客、企业官网等静态页面
- ✅ 简单页面:新闻文章、产品介绍页面
- ✅ 文档网站:技术文档、帮助页面
- ✅ 传统网站:基于传统 HTML/CSS/JS 的网站
🛡️ 隐私清理功能
自动清理的内容
- 📊 统计代码:Google Analytics、百度统计、CNZZ、Mixpanel、Segment 等
- 👁️ 跟踪代码:Facebook Pixel、TikTok Pixel、Snapchat Pixel、Hotjar、CrazyEgg、Clarity 等
- 📢 广告代码:Google Ads、DoubleClick、Taboola、Outbrain、PopAds、PropellerAds、AdCash 等
- 🏷️ 标签管理器:Google Tag Manager (GTM) 等
- ⚠️ 恶意标签:base 标签劫持、自动跳转、来源伪造、恶意重定向等
安全防护
- 🔒 链接劫持防护:自动删除所有 base 标签,防止恶意网站劫持页面中的所有相对链接
- 🚫 自动跳转防护:删除 meta refresh 标签,防止页面自动跳转到钓鱼网站或恶意网站
- 🎭 来源伪造防护:删除 meta referrer 标签,防止恶意网站伪造访问来源
- 🔄 重定向防护:检测并删除包含恶意重定向的 JavaScript 代码
🛠️ 技术栈
前端技术
- 框架:Vue 3 + TypeScript
- UI 库:Naive UI
- 构建工具:Vite
- 路由:Vue Router 4
- 图标:Ionicons 5
后端技术
- 语言:Go 1.23+
- 框架:Wails v2
- 网页解析:goquery
- 文本编码:golang.org/x/text
- HTTP 客户端:Go 标准库
开发工具
- 包管理:Go Modules + npm
- 类型检查:TypeScript + Vue TSC
- 代码格式化:内置支持
📋 系统要求
开发环境
- Go:1.23 或更高版本
- Node.js:18 或更高版本
- Wails CLI:v2 最新版本
运行环境
- Windows:Windows 10/11 (x64)
- macOS:macOS 10.15+ (Intel/Apple Silicon)
- Linux:主流发行版 (x64)
🚀 快速开始
1. 克隆项目
git clone https://github.com/adiudiuu/site_backup.git
cd site_backup
2. 安装依赖
# 安装 Go 依赖
go mod tidy
# 安装前端依赖
cd frontend
npm install
cd ..
3. 开发运行
# 使用 Makefile(推荐)
make run
# 或直接使用 Wails CLI
wails dev
4. 构建发布
# 构建 Windows 版本
make build-win
# 构建 macOS 版本(需要在 macOS 上运行)
make build-mac
# 或使用 Wails CLI
wails build
📖 使用指南
基本使用步骤
- 输入网址:在目标网址框中输入要备份的网页 URL
- 选择目录:点击"选择目录"按钮,选择备份文件的保存位置
- 配置选项:
- 选择要备份的内容类型(图片、样式、脚本、视频)
- 选择要清理的隐私内容(统计代码、跟踪代码、广告代码)
- 调整高级选项(超时时间、最大文件数、并发数)
- 开始备份:点击"开始备份"按钮
- 监控进度:实时查看备份进度和文件下载状态
- 完成备份:备份完成后,ZIP 文件将保存到指定目录
使用建议
- 🎯 优先选择:静态网站或博客进行备份
- ⚠️ 避免备份:复杂的动态网站或 SPA 应用
- 🧪 先测试:测试小页面后再备份大型网站
- ⏱️ 注意频率:注意网站的访问频率限制,避免过于频繁的请求
- 📏 合理配置:根据网络情况调整超时时间和并发数
故障排除
- 网络错误:检查网络连接和 URL 是否正确
- 访问被拒:可能遇到反爬虫机制,建议稍后重试
- 文件过大:调整最大文件数限制或增加超时时间
- 权限问题:确保对保存目录有写入权限
🤝 贡献指南
欢迎提交 Issue 和 Pull Request!
开发流程
- Fork 本仓库
- 创建特性分支 (
git checkout -b feature/AmazingFeature) - 提交更改 (
git commit -m 'Add some AmazingFeature') - 推送到分支 (
git push origin feature/AmazingFeature) - 开启 Pull Request
代码规范
- Go 代码遵循
gofmt格式 - TypeScript 代码使用 ESLint 规范
- 提交信息使用英文,格式清晰
📄 许可证
本项目采用 GNU General Public License v3.0 许可证。
这意味着:
- ✅ 可以自由使用、修改和分发
- ✅ 可以用于商业目的
- ⚠️ 修改后的代码必须开源
- ⚠️ 必须保留原始许可证和版权声明
- ⚠️ 不提供任何担保
详细信息请查看 LICENSE 文件。
⚖️ 免责声明
- 本工具仅供学习和研究使用
- 使用本工具产生的任何法律后果由使用者自行承担
- 开发者不承担任何责任
- 请确保您的使用行为符合当地法律法规和目标网站的使用条款
- 请尊重网站的 robots.txt 文件和访问限制
📞 联系方式
- GitHub Issues: 提交问题
- 项目主页: https://github.com/adiudiuu/site_backup