包含关键字 typecho 的文章

翻了很多帖子,发现很多都是之前的的 claude 配置,要么就是不全,按照流程无法正确执行。
这里只做记录,佬清喷。纯手打。

目标群体:之前没有接触过 claude 的新手,但想试试,且快速部署上手尝试的选手。

win 配置

1,node.js 安装

2,Claude 安装
在 cmd 或者 powershell 输入

npm install -g @anthropic-ai/claude-code

完成安装

3,你需要知道的几个文件和目录

  • claude 相关的一些配置文件在:C:\Users\ 你的用户名 \.claude 下
  • CLAUDE.md 是放提示词的
  • settings.json 配置 mcp 和模型,这个会由 cc switch 接管和修改

4,修改配置文件

  • 修改 C:\Users\ 你的用户名.claude.json 加入如下代码,位置请看图片,对齐即可,这个必须配置,跳过初始化,以及最开始的网络检查,否则会报无法连接网络
"hasCompletedOnboarding": true 

5,安装 cc switch

  • https://github.com/farion1231/cc-switch release 中下载对应的 CC-Switch-v3.9.1-Windows.msi 安装即可
  • 打开 cc switch 添加供应商,如图,填入官方的 api
  • 这里我实际测试硅基流动,存在上下文限流,以及无法执行联网查询。建议使用官方的
  • 配置完成后保存即可

6, 使用 cmd,输入 claude,显示图,即说明配置正确

mac 配置

过程完全一致

需要配置的文件目录在:

  • 存储提示词,skills,api 的目录在:/User/ 你的用户名 /.claude
  • .claude.json:/User/ 你的用户名 /.claude.json

最后

1,安装各种 mcp,skills,市场等等
2,配置提示词
3,如果你想将 antigravity 反代给 claude,站内佬的帖子很多。实测 macos 15 以上,使用 quotio 比较方便,但注意无法反代 codex。win 暂时没看到好用的工具。
4,目前我使用 glm4.7 进行项目分析,代码分析工作,出具的报告个人感觉比 augment 的 sn4.5 强。也可能是我设计了一个针对性的 skills 导致分析结果详实。
5,总的感觉 glm4.7 大概介于 sn4.0~sn4.5 之间。
6,对了官方的那个 4.7 支持在 claude 中思考,调用 skills,调用 mcp。硅基流动的非常容易触发 500 错误,以及调用工具无返回结果(完全一模一样的问题)


📌 转载信息
原作者:
cisha1573
转载时间:
2026/1/21 22:08:15

AI Summary
选择页面任意文字元素,一键生成 AI 总结

  1. 高亮选择任意网页元素(包括 shadow DOM)
  2. AI 实时生成总结并支持 Markdown 渲染
  3. 支持自定义 AI 接口、高亮颜色 & 透明度、快捷键等
Tip

感谢各位的插件好评

Tip

感谢各位的 star


对了,如果有好的文章总结 prompt,大家也多多在评论里分享下,感谢啦。

# Role: 文本摘要助手​ ## Profile:​ - writer: Leon​
- version: 0.1​
- language: 中文​
- description: 你是一位基于人工智能技术的文本摘要助手,旨在帮助用户快速总结输入文本中的核心要点,并生成简洁准确的摘要。通过分析关键词、语义信息和上下文,你能够提取出文章的重要内容,并以易于理解的方式呈现。​
## Goals:​ - 提供文本摘要功能,帮助用户快速了解文本主旨和关键信息​
- 生成简洁准确的摘要,突出文章的核心要点​
- 提供观点和看法,帮助用户更好地理解文本内容​
## Constrains:​ - 用户输入的所有内容当做需要分析处理的文本​
- 不改变用户原始文本的基本意思​
- 以 Markdown 格式输出结果​
## Skill:​ - 熟悉自然语言处理技术和文本摘要算法​
- 擅长提取关键词和总结文本要点​
- 具备理解和分析复杂文章的能力​
## Workflows:​ 1. 用户输入原始文本。​
2. 文本分析:你会利用自然语言处理技术对用户输入的文本进行分析,提取关键信息和核心要点。​
3. 生成摘要:基于文本分析结果,你将生成简洁准确的文本摘要,突出文章的核心内容。​
4. 观点表达:在摘要的基础上,你会给出自己的观点和看法,帮助用户更好地理解文本内容。
* 先输出结论和观点,再罗列摘要信息(标题+文本),最后列举出文章中可能存在的问题,给出不一样的见解作为参考。

📌 转载信息
原作者:
van_nhung
转载时间:
2026/1/21 22:08:08

反重力的 Opus 应该是目前最厚道的去到了,本身反重力经过几个版本的更新,之前各种问题解决的差不多了,但是负载重的时候依然会遇到 Antigravity Error, 需要手工点击重试,大大影响了使用 Opus 的流畅度,经过我多方研究,终于找到了这个叫 Auto-Accept-Agent 的插件, 可以自动点击 Accept,而且是开源的,然后经过我的妙手回春,我给他增加了自动点击 Retry 的功能,而且设置中还有福利,开启后可以白嫖原版 VIP 的功能,走过路过不要错过哈

项目地址:GitHub - michaelbarrera21/auto-accept-agent

一键下载最新版本: Release Auto Accept Agent v8.7.1 · michaelbarrera21/auto-accept-agent · GitHub

开启 VIP 功能: 你进入到 Editor Settings, 找到 Extensions 下面的 Auto Accept Agent, 然后开启 本地 VIP 功能就可以了

开启的时候遇到 Auto Accept: Could not configure automatically. Please add --remote-debugging-port=9000 to your Antigravity shortcut manually, then restart. 点击 Auto Accept: OFF 这样了是啥问题

解决办法:

这个功能是通过开启 Antigravity 的调试模式, 也就是 CDP 协议来远程操作的,你点击开启的时候,插件会自动寻找 Antigravity 的快捷方式,将快捷方式加上 --remote-debugging-port 的参数,你这个提示是因为可能我只遍历了开始菜单和桌面,找不到你的快捷方式,你可以自己新建一个快捷方式,然后加上–remote-debugging-port=9000 的参数, 我之后会优化这块的提示哈

现已支持全中文界面,安装最新版插件,可自动识别界面语言,并且可以在设置中修改

mac 用户可以试试最新版本,加上了自动生成快捷方式的逻辑, 如果不生效,可以参考故障提示中的方法:


📌 转载信息
原作者:
puppywang
转载时间:
2026/1/21 22:07:25

2026-01-21 更新公告

*添加因为某些网站有反爬机制无法访问的情况,优化了输出的内容* 

YuJunZhiXue/StudyAnalysis-Skills: 深度解析链接、文档或代码,生成 “全能导师级” 的教学笔记

github 访问不了的各位可以查看 gitee

yangyuhou/StudyAnalysis-Skills

本人目前正在修改,由于有的网站有反爬机制,比如知乎,正在尝试修改 SKills

如果可以的各位尽可能 star 一下

注意

如果不生成文件,请将 SKills 中的 data 文件删除,这是最重要的,让他重新自己创建即可!!!

下面部分是在 Skill 中的调用方式

此部分是用来看何时启动 skill 的

何时调用 (When to use)

当出现以下任一场景时,请立即激活本技能:

  1. 显式学习指令
  • 用户明确要求:“学习这个”、“深度分析”、“深度学习”、“解析”、“解释这个概念”、“存入知识库”。

  • 用户要求:“把这个讲清楚”、“教我怎么用”、“总结并生成笔记”。

  • 关键词触发:只要用户提到 “学习” 或 “分析” 配合某个对象,必须激活。

  1. 复杂多模态输入
  • 用户提供了一个或多个 URL 链接(尤其是包含大量信息或图片的链接)。

  • 用户上传了文档文件(PDF, Word, Markdown, TXT)。

  • 用户上传了图片(PNG, JPG),且图片内容包含大量文字或图表(如架构图、思维导图)。

  • 混合输入:同时包含链接、文字描述和图片。

  1. 代码深度解析
  • 用户选中或上传了代码文件,并询问:“这段代码是怎么跑的?”、“架构是怎样的?”。
  1. 隐式教学需求
  • 用户表示困惑:“我不理解这个概念”、“太难了,看不懂”。

  • 用户需要降维打击:“用大白话解释一下”、“给个小白能懂的例子”。

实话说,我也经常被那些长得离谱的技术文档搞得头大。再加上现在的技术更新太快,资料一个接一个,代码库看的两眼迷茫。

尤其是每次想静下心学点东西的时候,没过半小时就放弃了,这种感觉真的很让人沮丧。

在记忆心理学里,这被称为 **“认知负荷”**。我们的大脑在同一时间能处理的信息量是非常有限的。如果资料里充斥着大量冗余信息、凌乱的逻辑,大脑会消耗掉绝大部分能量来理清这些噪音,导致你根本没力气去真正 “学习”。


所以我开始尝试把这些 “费劲” 的环节交给 Skills 来处理。

比如当我面对一个几万字的 GitHub 项目文档时,我不会直接去读,而是先运行我编写的 knowledge-absorberSkills 。这个 Skills 帮我完成了最痛苦的部分:

  • 自动过滤掉啰嗦的客套话和重复的背景说明。

  • 只抓住最核心的架构逻辑和关键 API。

  • 把深奥的术语换成小白都能听懂的直白话语。

功能基本上就是给链接,给图片,给文档,给 PDF 给你读取,如果是长文本会自己截断,然后会生成 Html 和 md 两个格式文件,比如说你不爱看 md,可以直接把 html 拖入到浏览器观看 比如这篇文章很多字,看不懂说的什么

那么使用 SKills 来完成 效果图如下:


说到底,现在的知识获取已经不是拼体力,而是拼谁更会利用工具来 “武装自己”。

把那些繁琐、消耗能量的活儿交给 AI,交给 Skills,把最宝贵的注意力留给真正的思考。这才是这个时代最不焦虑的学习方式。

祝愿大家能够有完美的知识获取体验!!!


📌 转载信息
原作者:
Y_yuHou
转载时间:
2026/1/21 22:06:50

下图展示了一个有趣的现象:在法国斗牛犬的图像上添加一小块对抗性补丁后,VGG分类器竟然以极高的置信度将其判定为足球。Grad-CAM可视化清楚地显示,模型的注意力完全从狗身上转移到了那块补丁——一个精心构造的小扰动就足以劫持整个决策过程。

95%准确率的模型可能不堪一击

ResNet、VGG、EfficientNet这些主流架构在ImageNet上动辄90%以上的准确率,看起来已经相当可靠。但这些模型隐藏着一个被多数工程师忽视的致命缺陷:它们极易被对抗样本愚弄。

改变一个像素,可能肉眼完全看不出区别,但分类器会彻底崩溃。本文会用FGSM(快速梯度符号法)演示如何制作对抗样本,并解释神经网络为何如此脆弱。

对抗样本到底是什么

简单说,对抗样本就是专门设计来欺骗模型的输入。和随机噪声不同,这种扰动是经过精确计算的——目标是在人眼察觉不到的前提下,最大化模型的预测误差。

这里存在一个悖论:模型可以正确识别成千上万张图片,但只要加上一点经过数学优化的噪声(像素值变化不到1%),它就会完全判断失误。

对抗攻击绝非学术界的自娱自乐。自动驾驶汽车可能把停车标志识别成限速标志;人脸识别系统可能被绕过;放射科AI可能给出错误诊断;有害内容可能躲过审核系统的检测。

问题的根源在于:分类器学到的是统计层面的捷径,而非真正的语义理解。高准确率和高安全性是两回事。

FGSM:简单却致命的攻击方法

Ian Goodfellow等人在2015年提出的FGSM至今仍是最经典的对抗攻击之一。它的原理出奇地简单,但恰恰暴露了深度神经网络的根本弱点。

数学原理

给定分类器和输入图像,FGSM计算一个扰动把图像推向错误分类的方向。具体做法是沿着损失函数梯度的方向移动每个像素,用epsilon参数控制扰动幅度,确保改动在视觉上不可察觉。

FGSM为何有效

深度网络虽然有非线性激活函数但在局部表现出近似线性的特性。每个像素上的微小变化会在高维空间中累积,最终在输出空间产生巨大偏移。梯度恰好指明了这个最有效的攻击方向——随机噪声做不到的事情,梯度对齐的噪声可以轻松做到。

上图就是是Goodfellow等人最初展示的结果:在熊猫图像上叠加梯度符号计算得到的微小扰动,模型就会以极高置信度将其误判为长臂猿。两张图片在人眼看来毫无差别,但神经网络的判断却天差地别。

Python实战:构建你的第一个对抗样本

下面用PyTorch和预训练的ResNet-50从零实现一个对抗样本。

先安装依赖:

 pip install torch torchvision matplotlib numpy pillow

导入必要的库:

 import torch  
 import torch.nn.functional as F  
 import torchvision.models as models  
 import torchvision.transforms as transforms  
 import matplotlib.pyplot as plt  
 import numpy as np  
 from PIL import Image

第一步:加载分类器

用ResNet-50作为目标模型。这个架构在生产环境中很常见,而且支持梯度计算:

 model=models.resnet50(pretrained=True)  
 model.eval()

第二步:准备图像

按ImageNet标准预处理输入图像:

 transform=transforms.Compose([  
    transforms.Resize((224, 224)),  
    transforms.ToTensor(),  
])

img=Image.open("your_image.jpg").convert("RGB")  
x=transform(img).unsqueeze(0)  
 x.requires_grad=True

注意

requires_grad=True

这行。没有它就无法计算梯度,对抗攻击也就无从谈起。

第三步:获取原始预测

跑一次前向传播,看看模型本来会给出什么分类:

 logits=model(x)  
 pred=logits.argmax(dim=1)  
 print(f"Original prediction: {pred.item()}")

正常情况下模型应该能正确分类。

第四步:FGSM攻击

核心代码如下:

 label = pred  
loss = F.cross_entropy(logits, label)  
loss.backward()

epsilon = 0.01  # perturbation budget
perturbation = epsilon * x.grad.sign()  
x_adv = x + perturbation  
 x_adv = torch.clamp(x_adv, 0, 1)

这段代码做了什么?计算损失对输入像素的梯度,取符号得到方向,乘以epsilon控制幅度,加到原图上就得到对抗样本。最后用clamp保证像素值在合法范围内。

第五步:检验效果

用同一个模型测试对抗图像:

 logits_adv=model(x_adv)  
 pred_adv=logits_adv.argmax(dim=1)  
 print(f"Adversarial prediction: {pred_adv.item()}")

大多数情况下预测结果会完全不同。图像看起来一样,分类却天壤之别。

第六步:可视化

把原图、对抗图、噪声模式放在一起对比:

 def show_adversarial_attack(original, adversarial, perturbation):  
    fig, axes = plt.subplots(1, 3, figsize=(15, 5))  
      
    axes[0].imshow(original)  
    axes[0].set_title("Original Image")  
    axes[0].axis("off")  
      
    axes[1].imshow(adversarial)  
    axes[1].set_title("Adversarial Image")  
    axes[1].axis("off")  
      
    axes[2].imshow(perturbation, cmap="gray")  
    axes[2].set_title("Noise Pattern (10x Amplified)")  
    axes[2].axis("off")  
      
    plt.tight_layout()  
    plt.show()

orig_np = x.detach().squeeze().permute(1, 2, 0).numpy()  
adv_np = x_adv.detach().squeeze().permute(1, 2, 0).numpy()  
noise_np = (adv_np - orig_np) * 10
 show_adversarial_attack(orig_np, adv_np, noise_np)

噪声模式放大10倍后看起来像电视雪花。人眼根本分辨不出两张图的区别,但神经网络却认为它们是完全不同的物体。

神经网络为何如此脆弱

理解这个问题需要从三个角度切入。

高维几何:一张224×224的RGB图像有150,528个维度。在这么高的维度里每个维度上的微小扰动累加起来就是巨大的距离。

局部线性:尽管激活函数是非线性的,深度网络在数据点附近的小邻域内表现得非常线性,这让基于梯度的攻击特别有效。

非泛化特征:研究发现模型大量依赖那些与标签相关、但与人类感知无关的统计模式。对抗样本正是在利用这些"捷径特征"。

一个令人不安的事实:深度学习模型优化的目标是训练集上的准确率,而不是对扰动的泛化性。

一些限制需要说明

FGSM只是单步攻击算比较弱的。迭代方法如PGD和Carlini-Wagner攻击力更强也更难防御。

本文的演示假设攻击者能拿到模型权重和梯度,属于白盒场景。现实中攻击者可能只能观察模型输出,需要用黑盒攻击技术或者利用对抗样本的迁移性。

数字扰动只是一种形式。物理世界的对抗样本——比如贴在物体上的特制贴纸——可以在不同光照和角度下持续欺骗视觉系统。

防御手段确实存在:对抗训练、输入预处理、集成方法、认证防御等等。但这些方法往往要牺牲准确率,而且没有哪个能提供完全的保护。

防御策略

几种主流防御思路:

对抗训练把对抗样本混入训练数据,让模型学会应对扰动。输入变换用JPEG压缩、随机缩放、降低位深等预处理来破坏对抗扰动。集成防御结合多个模型的预测或引入随机性来增加攻击难度。认证防御用随机平滑等技术在一定范围内提供数学上的泛化性保证。检测方法则训练专门的模型来识别对抗样本。

每种方法都有代价,在泛化性、准确率、计算开销之间做权衡。

总结

对抗样本揭示的是统计优化和人类感知之间的根本鸿沟。深度学习擅长模式匹配,但它并不理解图像的语义。

对抗样本不会消失。这不是可以修复的bug而是当前深度学习架构的内在属性。随着AI在关键基础设施中的应用越来越广,理解和缓解对抗脆弱性变得愈发重要。

泛化性应该和准确率、公平性、效率一样,成为一等公民级别的工程需求。否则,高准确率带来的只是虚假的安全感。

https://avoid.overfit.cn/post/935d5167003748db859452026a44b056

作者: Sarthakvyadav

Andrej Karpathy:过去一年大模型的六个关键转折

本文共 2836 字,阅读预计需要 4 分钟。

一边是模型光靠"多想一会儿"就能解出奥数题,另一边是刷爆排行榜的选手被用户吐槽"中看不中用"。

2025年的AI圈,弥漫着一股诡异的气息:

参数规模不再是唯一的军备竞赛指标,但模型能力却在某些维度上狂飙突进。

这到底发生了什么?

Andrej Karpathy——前OpenAI研究总监、曾掌舵特斯拉AI团队的技术大牛——在年终复盘中抛出了一个判断:

2025年LLM的真正突破,不在于模型变大,而在于我们"驯养"它的方式、理解它的视角、以及使用它的姿势,都发生了根本性的变化。

这篇文章,我会带你拆解Karpathy眼中的六个范式转变,聊聊它们对普通人意味着什么,以及有哪些坑是你现在就该绕开的。

一、RLVR:训练范式的静默换代

2024年之前,大模型训练三板斧:预训练、监督微调、RLHF。但RLHF的瓶颈很明显——依赖人工标注,成本高、速度慢

2025年,RLVR(基于可验证奖励的强化学习)开始上位。核心逻辑很简单:用有标准答案的任务来训练。数学题对不对?代码能不能跑?机器自己就能验证。

打个比方:RLHF像请老师批改作文,标准不一;RLVR像做数学卷子,对就是对、错就是错。

RLVR还解锁了一个调节旋钮:让模型"多想一会儿"

生成更长的推理链,就能换来更强能力。OpenAI的o1到o3,DeepSeek的R1,都是这条路线的产物。

以前比谁模型参数多,现在比谁的强化学习跑得久。

二、召唤幽灵,而非驯养动物

Karpathy用了一个隐喻:我们不是在"培育动物",而是在"召唤幽灵"

动物智能是进化塑造的,能力配合天衣无缝。

但LLM的"大脑"是为了预测下一个词、在数学题里拿分——这些目标和生存没关系

结果就是"锯齿状智能":某些任务碾压专家,另一些任务犯低级错误。

它能写出逻辑严密的报告,但是转头就被越狱提示词骗了。

实际后果是:别迷信基准测试。 LLM团队为了刷榜,围绕测试题大量生成训练数据,榜单漂亮,实际用起来翻车。

幽灵的能力是尖刺的、不可预测的。用的时候,得时刻警惕。

三、Cursor与新应用层:上下文工程的价值爆发

2025年,Cursor没有自己训练模型,但估值从4亿飙到99亿美元。它做对了什么?

答案是上下文工程——在调用大模型时,精心设计给它的信息环境:提示词怎么写、代码库怎么索引、多次调用怎么编排。

Karpathy的观点是:LLM实验室培养"通才大学生",应用层把他们培养成"垂直专家"。桥梁就是上下文工程。

直接问ChatGPT和用Cursor写代码,体验天差地别。Cursor自动索引代码仓库,理解文件依赖,提问时自动塞入相关上下文。这不是模型能力差距,是信息组织方式的差距

启示很清晰:模型会迭代,但上下文工程能力可以沉淀,能无缝迁移到下一代模型。

这也是我一直以来坚持上下文工程优先的原因。

四、Claude Code:AI从"网站"变成"室友"

Claude Code是Anthropic推出的命令行工具,特别之处在于:直接运行在本地电脑上,访问你的文件、配置、密钥。后续Copilot等工具也相继推出了这样的开发模式。

Karpathy说:它不再是需要打开浏览器的网站,而是"寄居"在电脑里的小精灵

本地运行的好处:AI直接读取电脑上的上下文——装了哪些软件、项目代码长什么样,不需要手动复制粘贴。

更重要的是延迟和隐私——云端来回几百毫秒,敏感数据发到第三方合规部门不同意。

当然也有隐患:一个能操作本地文件的AI,权限边界怎么划定?

五、Vibe Coding:代码正在变得廉价

Karpathy造了个词叫"Vibe Coding"——氛围编程。

用自然语言描述需求,AI帮你写代码,你甚至不需要"懂"代码

2025年这事跨过了临界点。之前AI写代码问题多,需要人debug。现在很多简单项目,从想法到可运行程序,一气呵成。

Karpathy自己用它写了Rust版tokenizer(不需要学Rust)、做了好几个小应用原型、甚至写过临时应用定位bug——用完就扔。

他的原话是:代码变得廉价、短暂、可塑、用完即弃。

对普通人意味着什么?"我有想法但不会代码"这个门槛,正在消失。

六、Nano Banana:LLM的GUI时代前奏

Google的Gemini Nano Banana让Karpathy特别兴奋。

核心不是图像生成能力,而是文本、图像与世界知识在模型权重中的深度融合

现在"跟LLM对话"像1980年代敲命令。文本是机器原生语言,但人更喜欢视觉化呈现——这正是GUI被发明的原因。

LLM也需要自己的GUI——用图片、信息图、动画跟我们沟通。Nano Banana就是这个方向的早期预演。

写在最后:可立即落地的三个建议

拉回来说说,这六个范式转变对你意味着什么。

如果你是创业者,最重要的启示是:模型能力会继续涨,但涨的方式变了。与其追着模型跑,不如在上下文工程上建立壁垒。Cursor的成功已经证明了这条路。

如果你是开发者,Vibe Coding值得你认真对待。不是说它会取代你,而是说它能让你的生产力翻倍。把重复性的代码工作交给AI,把精力放在架构设计和业务逻辑上。

如果你是普通用户,最重要的是调整预期。AI既不是全能的神,也不是彻底的废物——它是一个能力极度不均匀的"幽灵"。用好它的尖刺能力,同时对它的盲区保持警惕。

三个行动建议,作为结束:

投资上下文工程能力。学会设计提示词、组织RAG检索、编排多步调用,这是当下性价比最高的AI技能。

用Vibe Coding降低创意落地门槛。你脑子里的想法,别再等"等我学会编程再说",现在就可以试着让AI帮你实现。

理解锯齿状智能,设置人工校验。在享受AI效率提升的同时,别忘了在关键环节保留人工把关。

2025年是LLM的分水岭。规则变了,玩法也得跟着变。

2026年,又会有什么新的成果出现呢?评论区聊聊你的看法

既然看到这了,如果觉得不错,随手点个赞、收藏、转发三连吧~

我是Carl,大厂研发裸辞的AI创业者,只讲能落地的AI干货。

关注我,更多AI趋势与实战,我们下期再见!

数据来源

Karpathy 2025年终复盘原文 [数据|2025|https://karpathy.bearblog.dev/year-in-review-2025/]

RLVR训练范式说明:基于可验证奖励的强化学习 [数据|2025|Karpathy原文]

DeepSeek R1推理能力展示 [数据|2025|DeepSeek R1论文]

Cursor估值变化:$400M(2024.8) → $9.9B(2025.6) [数据|2024-2025|https://techcrunch.com/tag/cursor/]

OpenAI o1/o3推理模型发布 [数据|2024-2025|OpenAI官方]

Claude Code产品发布与功能说明 [数据|2025|Anthropic官方]

Vibe Coding概念由Karpathy在Twitter提出 [数据|2025|https://x.com/karpathy/status/1886192184808149383]

Google Gemini Nano Banana多模态融合能力 [数据|2025|Google官方]

三大运营商线路
在国内,最大的三个网络运营商电信,联通和移动,各自都有自己的局域网,也有自己的ASN,我们的流量就是走的这些ASN来和服务器进行交流沟通的。
这些流量的轨迹一般是你家->省网->跨境->国际出口,网络线路的体验也就和流经这些段的速度相关了。
电信线路一般为(163/CN2 GT/CN2 GIA)
AS4134:国内骨干网,俗称4134或163骨干网,ip常以202.97开头。
定位于承载普通质量的互联网业务, 基建早, 带宽大, 便宜,多次扩容后拥挤情况有改善,绝大部分普通家宽的出境路线。
AS4809:国内精品网,俗称CN2,ip常以59.43开头. CN2 相比较 163 网络, 带宽小, 稳定高速。
AS23764:境外网,俗称CTGNet,用于面向企业客户提供定制化的国际互联网专线接入服务。
CN2实际上分为CN2GT和CN2GIA两种。CN2GT又称半程CN2,Global Transit,因为其国内走163骨干网
,跨境和163挤在一个段里(那我要你有何用),国外和CN2一样;CN2GIA是全程CN2,跨境段不用和163挤在一起,拥有自己的带宽,国内国外都走CN2网络。
亚太还有个比较流行的163pp,俗称高q163,其实就是拥有跨境段高qos保障的163,相当于单独购买了带宽的163骨干网,
大部分163跨境都是共享的,导致晚高峰互相抢带宽,卡的半死,高q163贵的夸张…
可以看看电信去程走的是CN2骨干网
# 时间:2024-07-07 23:16:36
1   192.168.50.1    *                         RFC1918
                                            0.51 ms / 0.88 ms / 1.07 ms
2   116.233.80.1    AS4812   [CHINANET-SH]    中国 上海 上海  chinatelecom.cn
                                            6.68 ms / 5.92 ms / 6.34 ms
3   124.75.232.117  AS4812   [CHINANET-SH]    中国 上海 上海  chinatelecom.cn
                                            2.60 ms / 3.00 ms / 2.95 ms
4   61.152.54.177   AS4812   [CHINANET-SH]    中国 上海   chinatelecom.cn  电信
                                            3.18 ms / * ms / * ms
5   61.152.24.118   AS4812   [CHINANET-SH]    中国 上海   chinatelecom.cn  电信
                                            4.93 ms / 105.15 ms / * ms
6   59.43.80.142    *        [CN2-BackBone]   中国 上海   chinatelecom.cn  电信
                                            11.95 ms / 5.59 ms / 8.94 ms
7   59.43.22.6      *        [CN2-BackBone]   中国 上海 C-I  chinatelecom.cn  电信
                                            5.67 ms / * ms / * ms
8   59.43.39.154    *        [CN2-BackBone]   中国 上海   chinatelecom.cn  电信
                                            6.04 ms / 106.66 ms / * ms
9   59.43.182.181   *        [CN2-BackBone]   美国 加利福尼亚 圣何塞  chinatelecom.cn  电信
                                            129.89 ms / 127.50 ms / 127.40 ms
10  218.30.49.182   AS4134   [CHINANET-US]    美国 加利福尼亚 圣何塞  www.chinatelecom.com.cn  电信
                                            140.20 ms / 139.90 ms / 139.33 ms
11  91.200.241.87   *                         美国 加利福尼亚 圣何塞
  cs03.q51.sjc.xtom.us                      158.29 ms / 275.86 ms / * ms
12  xxx.xxx.xxx.98    AS6233                    美国 加利福尼亚州 圣何塞  xtom.com
  xxx.xxx.xxx.vps.hosting                        128.21 ms / 127.87 ms / 128.31 ms

可以看到回程走的也是CN2
 时间:2024-07-07 23:16:36
1   45.139.193.1    AS8888                    美国 加利福尼亚 圣何塞  xtom.com
                                            36.96 ms / 4.64 ms / 40.33 ms
2   91.200.241.86   *                         美国 加利福尼亚 圣何塞
                                            0.39 ms / 0.26 ms / 0.40 ms
3   218.30.49.181   AS4134   [CHINANET-US]    美国 加利福尼亚 圣何塞  www.chinatelecom.com.cn  电信
                                            0.89 ms / 0.99 ms / 0.64 ms
4   59.43.182.182   *        [CN2-BackBone]   中国 上海   chinatelecom.cn  电信
                                            123.80 ms / 122.43 ms / * ms
5   *
6   59.43.22.5      *        [CN2-BackBone]   中国 上海  C-I chinatelecom.cn  电信
                                            127.02 ms / 124.53 ms / 130.04 ms
7   59.43.80.141    *        [CN2-BackBone]   中国 上海   chinatelecom.cn  电信
                                            177.49 ms / 175.56 ms / * ms
8   61.152.25.197   AS4812   [CHINANET-SH]    中国 上海   chinatelecom.cn  电信
                                            128.97 ms / 125.90 ms / 131.26 ms
9   61.172.67.150   AS4812                    中国 上海  青浦 chinatelecom.cn  电信
                                            137.60 ms / 125.11 ms / 126.16 ms
10  58.37.40.1      AS4812                    中国 上海   chinatelecom.cn  电信
  1.40.37.58.broad.xw.sh.dynamic.163data.com.cn   228.09 ms / * ms / * ms
这就是电信CN2GIA双程,属于电信极致网络了。

接下来我们看联通线路(4837/9929)
AS4837:国内骨干网,俗称4837或联通169网络,IP以219.158开头,相当于电信中的163骨干网,大部分联通家宽的线路 。
AS9929:国内老骨干网,俗称A网或者9929或者CUII,定位类似于电信中的CN2,实际上这玩意和优化度很高的CN2没得比,这只是使用人数很少的普通网络,承载力和质量远远不如CN2,而且9929的口子普遍不大。
AS10099:境外网,俗称联通国际CUG,提供至大陆方向的差异化接入。
线路组合有以下几种:
内地 AS4837 + 境外 AS4837:最普通、最常见的联通 169 网络
内地 AS4837 + 境外 AS10099:应该算是高端线路。
内地 AS9929 + 境外 AS4837:很少见的路由。
内地 AS9929 + 境外 AS10099:联通高端线路。

去程国内省内先走了一段普通网4837,随后接入9929优化网,到了境外走优化线路CUG,去程优秀。
时间:2024-07-07 23:16:36
1   192.168.1.1     *                         RFC1918
                                            0.63 ms / 0.45 ms / 0.49 ms
2   115.49.100.1    AS4837   [UNICOM-HA]      中国 河南 南阳市 新野 chinaunicom.cn
  hn.kd.ny.adsl                             3.66 ms / 18.18 ms / 2.78 ms
3   219.154.128.197 AS4837   [UNICOM-CN]      中国 河南 南阳  chinaunicom.cn
  hn.kd.jz.adsl                             4.22 ms / 18.30 ms / 7.32 ms
4   61.168.28.165   AS4837   [UNICOM-HA]      中国 河南 郑州市  chinaunicom.cn  联通
  pc165.zz.ha.cn                            * ms / 37.55 ms / 37.46 ms
5   219.158.121.129 AS4837   [CU169-BACKBONE] 中国    chinaunicom.cn  联通
                                            24.84 ms / 24.58 ms / 24.73 ms
6   219.158.119.246 AS4837   [CU169-BACKBONE] 中国 上海   chinaunicom.cn  联通
                                            27.39 ms / 24.56 ms / 29.73 ms
7   219.158.32.6    AS4837   [CU169-BACKBONE] 中国 上海   chinaunicom.cn  联通
                                            26.21 ms / 26.03 ms / 26.05 ms
8   218.105.2.209   AS9929   [CNC-BACKBONE]   中国 上海   chinaunicom.cn  联通 CUII
                                            30.64 ms / 30.40 ms / 30.34 ms
9   218.105.2.202   AS9929   [CNC-BACKBONE]   中国 上海   chinaunicom.cn  联通 CUII
                                            27.18 ms / 28.48 ms / 26.97 ms
10  203.160.75.217  AS10099  [CUG-BACKBONE]   美国 加利福尼亚 洛杉矶  chinaunicomglobal.com  联通
                                            158.17 ms / 158.31 ms / 157.90 ms
11  162.219.85.182  AS10099  [CUG-BACKBONE]   美国 加利福尼亚 圣何塞  chinaunicomglobal.com  联通
                                            162.02 ms / 162.05 ms / 162.02 ms
12  91.200.241.87   *                         美国 加利福尼亚 圣何塞
                                            166.27 ms / 168.89 ms / 169.22 ms
13  xxx.xxx.xxx.98    AS6233                    美国 加利福尼亚州 圣何塞  xtom.com
                                            161.98 ms / 162.04 ms / 162.12 ms
# 回程也是先CUG入境,中间路线看不到了,大概率对称9929。
# 时间:2024-07-07 23:16:36
1   45.139.193.1    AS8888                    美国 加利福尼亚 圣何塞  xtom.com
                                            5.57 ms / 3.01 ms / 23.26 ms
2   91.200.241.88   *                         美国 加利福尼亚 圣何塞
                                            0.33 ms / 0.38 ms / 0.37 ms
3   162.219.85.181  AS10099  [CUG-BACKBONE]   美国 加利福尼亚 圣何塞  chinaunicomglobal.com  联通
                                            0.96 ms / 0.97 ms / 0.97 ms
4   162.219.85.13   AS10099  [CUG-BACKBONE]   中国 上海   chinaunicomglobal.com  联通
                                            131.61 ms / 128.86 ms / 128.89 ms
5   210.14.186.137  *        [APNIC-AP]       中国 上海
                                            132.68 ms / 132.58 ms / 132.55 ms
6   *
7   *
8   210.78.8.146    *        [CNC-BACKBONE]   中国 河南 郑州  chinaunicom.cn  联通 CUII
                                            157.51 ms / 156.68 ms / 156.76 ms
9   219.158.45.57   AS4837   [CU169-BACKBONE] 中国 河南 新乡  chinaunicom.cn  联通
                                            152.74 ms / 153.83 ms / 151.12 ms
10  219.158.112.97  AS4837   [CU169-BACKBONE] 中国 河南 郑州  chinaunicom.cn  联通
                                            156.50 ms / 158.49 ms / 158.17 ms
11  61.168.38.218   AS4837   [UNICOM-HA]      中国 河南 郑州  chinaunicom.cn
  pc218.zz.ha.cn                            258.82 ms / * ms / * ms
12  61.168.238.14   AS4837   [UNICOM-HA]      中国 河南 南阳市  chinaunicom.cn  联通
                                            159.28 ms / 162.72 ms / 159.16 ms
13  123.4.44.63     AS4837   [UNICOM-HA]      中国 河南 南阳  chinaunicom.cn
                                            160.90 ms / 161.27 ms / 161.18 ms
这就是联通的双程极致线路。
最后我们讲讲移动线路(CMI/CMIN2)
AS9808:国内网,俗称CMNET,对标电信普通网。
AS58453:境外网,俗称CMI,最常见的网段,负载均衡做的极其差劲,而且由于带宽被灌满,而且万物走香港出口,骨干疯狂丢包。
AS58807:境外网,俗称CMI N2,移动精品网。
AS3356:Tier1,俗称lumen,实际上,lumen并不是移动管辖的网络,但是lumen-cmi的传输方式让移动用户用起来相当舒服,lumen也成了实际上更受欢迎的移动快乐机器,大家看到lumen都知道移动基本快乐,所以把lumen并入移动线路。个人分类纯属娱乐,这种传输方式哪天就被移动干爆
你可以发现,移动的国内网都是一样的,只有跨境段和境外段才区分CMI还是CMIN2,也就是说,移动用户哪怕用的是CMIN2,国内段也照样和CMI的用户一起挤,这也导致移动的晚高峰qos格外严重

 时间:2024-07-07 23:16:36
1   192.168.1.1     *                         RFC1918
                                            1.52 ms / 1.33 ms / 1.39 ms
2   *
3   120.204.37.49   AS24400  [APNIC-AP]       中国 上海 上海  chinamobile.com
                                            4.49 ms / * ms / * ms
4   *
5   111.24.4.89     AS9808   [CMNET]          中国 上海   chinamobileltd.com  移动
                                            5.10 ms / 4.88 ms / 4.97 ms
6   221.183.179.22  AS9808   [CMNET]          中国 上海   chinamobileltd.com
                                            5.43 ms / 5.18 ms / 5.28 ms
7   221.183.87.218  AS9808   [CMNET]          中国 上海   chinamobileltd.com  移动
                                            6.06 ms / 5.46 ms / 5.40 ms
8   221.183.92.110  AS9808   [CMNET]          中国 上海   chinamobileltd.com  移动
                                            5.96 ms / 5.44 ms / 16.83 ms
9   223.120.160.6   AS58807  [CMIN2-NET]      美国 加利福尼亚 圣何塞  cmi.chinamobile.com  移动
                                            128.12 ms / 128.48 ms / 128.88 ms
10  223.120.196.38  AS58807  [CMIN2-NET]      美国 加利福尼亚 圣何塞  cmi.chinamobile.com  移动
                                            128.24 ms / 128.24 ms / 128.10 ms
11  223.120.200.25  AS58807  [CMIN2-NET]      美国 加利福尼亚 洛杉矶  cmi.chinamobile.com  移动
                                            135.52 ms / 128.98 ms / 134.23 ms
12  91.200.241.89   *                         美国 加利福尼亚 圣何塞
                                            138.98 ms / 135.83 ms / 133.68 ms
13  xxx.xxx.xxx.98    AS6233                    美国 加利福尼亚州 圣何塞  xtom.com
  xxx.xxx.xxx.vps.hosting                        127.71 ms / 127.82 ms / 127.59 ms


# 时间:2024-07-07 23:16:36
1   45.139.193.1    AS8888                    美国 加利福尼亚 圣何塞  xtom.com
                                            12.53 ms / 15.81 ms / 2.42 ms
2   91.200.241.86   *                         美国 加利福尼亚 圣何塞
                                            0.35 ms / 0.36 ms / 0.30 ms
3   223.120.200.24  AS58807  [CMIN2-NET]      美国 加利福尼亚 洛杉矶  cmi.chinamobile.com  移动
                                            0.47 ms / 0.58 ms / 0.60 ms
4   223.120.196.37  AS58807  [CMIN2-NET]      美国 加利福尼亚 圣何塞  cmi.chinamobile.com  移动
                                            123.57 ms / 123.50 ms / 122.53 ms
5   223.120.160.5   AS58807  [CMIN2-NET]      中国 上海   cmi.chinamobile.com
                                            122.86 ms / 122.45 ms / 122.47 ms
6   221.183.92.113  AS9808   [CMNET]          中国 上海   chinamobileltd.com  移动
                                            123.61 ms / 136.29 ms / 123.40 ms
7   221.183.87.245  AS9808   [CMNET]          中国 上海   chinamobileltd.com  移动
                                            123.66 ms / 123.42 ms / 123.52 ms
8   221.183.87.226  AS9808   [CMNET]          中国 上海   chinamobileltd.com  移动
                                            124.05 ms / 123.98 ms / 128.56 ms
9   111.24.4.106    AS9808   [CMNET]          中国 上海   chinamobileltd.com  移动
                                            124.80 ms / 174.96 ms / * ms
10  120.204.37.138  AS24400  [APNIC-AP]       中国 上海 上海  chinamobile.com
                                            125.71 ms / 125.89 ms / 125.69 ms

国内9808,境外走优化线路CMIN2,这就是移动双程极致线路。
三网对比
综合的说,就是CN2GIA≈CN2CTG>9929≈CMIN2>CN2GT>4837≈163≈CMI
三网顶级优化

三网主干网


电信用户:CN2GIA≈CN2CTG>CN2GT>163 联通用户:9929>4837 移动用户:CMIN2>CMI

这是个比较总体的评价,具体到个别商家就又不一样了,极端点的例子,比如 10G 口 4837 和 20Mbps CN2GIA,你用起来当然是 CMI 更爽,再比如 1000 个人挤的 100Mbps CN2GIA,和你独享的 50Mbps4837,毫无疑问 4837 更胜一筹,所以不要看到谁谁谁卖的 CN2,就是碾压其他的 163 商家…

想问问大家一个问题:联通用户是走 CN2GIA 还是 9929 好?

一般来说,联通走电信的网络会被跨网 qos (就是运营商会 qos 来自不同的运营商的流量),所以还是走 9929 好点。跨网 qos 最典型的例子就是电信走移动 CMI 经常被 q 成 10Mbps 不到,而移动用户就可以跑到几百 Mbps。

常见测试工具,路由追踪工具 traceroute /mtr

最基础也是最重要的路由追踪工具,可以查看数据包经过的每一跳路由节点。

不错的查询网站

ITDOG:快速测试 ip 到国内大部分地区的 ICMP/TCP 延时

BGPtool:快速查询 ip 对应的 BGP 和路由情况,上面的图都是来自这个网站

IPIPNET:查看 IP 的详细路由和 AS 信息

总结

我这多天使用下来呢,感觉移动最佳的路线还是 CN2GIA,CMIN2 的国内段晚高峰还是太拥挤了,虽然电信会 qos 移动用户,但是 CN2 还是 CN2,走起来体验比 CMIN2 好多了。至于联通的 9929,整体容量口子太小了,和 CN2GIA 不是一个量级,尤其是亚太,9929 口子小的可怜,真不如走 CN2GIA 了,不过联通用户其实 4837 表现也不错,不必追求精品网,移动用户也是,lumen 还是很快乐的,电信就只能捏着鼻子玩 CN2GIA 了,不然 163 真的卡死。


📌 转载信息
原作者:
Rosna
转载时间:
2026/1/21 21:49:12

分享给 Java 开发者的 Claude Code Rules & Skills

Claude Code 上下文的完整加载机制

优先级路径说明
1企业策略/Library/Application Support/ClaudeCode/CLAUDE.md (macOS)
2项目规则./.claude/rules/*.md(递归扫描)
3项目内存./CLAUDE.md./.claude/CLAUDE.md
4本地项目内存./CLAUDE.local.md(gitignore,个人配置)
5用户内存~/.claude/CLAUDE.md
6用户规则~/.claude/rules/*.md(递归扫描)

优先级规则

  • 项目规则 > 用户规则(冲突时项目规则覆盖全局)
  • 支持子目录组织:~/.claude/rules/frontend/*.md 也会被递归发现

Claude Code 的代码编写规范限制

从上面的加载机制中,可以很快地出结论,可以将我们的某类开发语言 (Go / Java / Vue) 的规范放到项目规则或项目内存中

所以我就会把我的我的规范 md 放到项目的 .claude/rules 文件夹中 (其实也可以放到全局的规则文件夹中,我一开始也是放到全局规则文件夹中,后面项目多了才放到项目规则文件夹中),得到如下

放入后,重启一下 Claude Code,然后使用 /memory 查看一下,有没有加载到你添加的规则文件

可以参考的 java-spring 规范 md,都是用 Claude Code 以来,很多 CC 不怎么遵守的,根据自己的项目与实际情况微调一下

规则 Gists: https://gist.githubusercontent.com/anlostsheep/b2a6e9d24c5b67b50fdeb1dcec4182ea/raw/cda9755a31a3f20aef211279cda38c0f5360ad92/java-spring.md

为什么不用 Skill 做代码编写规范?

确实使用 skill 更符合现在的方向,减少使用 tokens 以及上下文占用,

但是 skill 的调用如果是自动调用的情况下,不管是 opus 或者 sonnet 都会选择性执行 (模型要想偷懒),触发都是不稳定的,除非显式地在 prompts 中说明调用,但是 prompts 中我们更多是跟模型对话一整个功能的实现,很少会说:帮我修改 xx 类 / 帮我优化一下这个类的代码

所以我选择把这个 skill 做成一个代码审查的操作,然后每次代码完成输出后,显式地调用这个 skill 进行审查

按照这样的格式构建 skill 文件夹 java-review, 文件夹放入 SKILL.md,得到如下:

显式执行效果:

skill Gists: https://gist.githubusercontent.com/anlostsheep/be83fea55777c932267d2ba2a4ee7395/raw/c14f226b138517199d70367452f16314629a916d/SKILL.md

hook 函数

skill 的方式始终触发不稳定情况,可以添加一个 hook 函数,让 Claude Code 再每次执行了新增 / 修改操作的工具时收到一个提示 (也可以放到 git 提交的时候触发,根据自己实际情况修改),修改到了 java 代码,需要执行 java-review 进行规范审查,不过最终模型也会根据这个修改的文件复杂程度来决定是否触发这个 skill (简而言之就是想省事一点)

修改配置文件: ~/.claude/setting.json,补充一下这个 PostToolUse

"hooks": { "PostToolUse": [ { "hooks": [ { "command": "filepath=\"$CLAUDE_FILE_PATH\"; if [[ \"$filepath\" == *.java ]]; then echo '⚠️ [Java文件修改] 建议执行 /java-review 进行代码审查'; fi", "type": "command" } ], "matcher": "Edit|Write|MultiEdit" } ] } 

效果:

claude-code-guide Agent 的妙用

这个子 Agent 是 Claude Code 内置的指导使用 Claude Code 的代理,有很多我不明白怎么使用 Claude Code 的地方我都会使用这个代理进行分析

比如:

  • 配置 Hook 的环境变量不生效,提问解决

  • 插件配置问题导致启动失败 (claude-mem)

对于配置和使用 Claude Code 方面,相关的问题还是十分好解决的,


📌 转载信息
原作者:
lostsheep
转载时间:
2026/1/21 21:46:45

前情提要


1. Fiat24 介绍

  • 大陆用户线上免费开通,没有年费或管理费
  • 附带一个与你同名的欧洲 IBAN 账户
  • 支持绑定微信支付宝在内地消费
  • 也支持订阅海外服务,比如 ChatGPTX/TwitterYouTube
  • 卡 bin:548108,隶属于 美国🇺🇸

对背景感兴趣,可以看另一个佬友的调研


2. 下载并创建钱包

链接:Bitget Wallet

若无相关知识,请选择社交登录的方式创建钱包(如谷歌 / Apple 等),防止丢失


3. 注册 Fiat 24 瑞士 IBAN 账户

1)在 Bitget Wallet 的 钱包 页面,选择 银行卡
2)左下角选择 中国大陆,点击 立即申请,注册 Fiat 24 账户,注册后点击 “去认证”;

钱包内资金要求为 >=10$,但这并非开卡费,目前开卡免费


4. 进入 Fiat24 登录页面

  • 根据提示点击对应按钮,使用 护照 进行认证


5. 如实填写你的个人信息

  • 点击 Next,填写你的邮箱账号,选择 Submit 提交;



6. 验证页面

请下载 Read ID Ready APP

  • 流程如下




7. 激活银行卡

  • 目前只支持充值 USDC(Arbitrum链)

  • 打开银行卡,点击 充值,建议充值金额填写为 11 USDC

  • 点击 确认 即可完成充值。

如左图需要 Gas 费的情况下,可以按右图教程私聊发我 钱包地址
无条件长期免费 转给佬友,一般不需要充值 getgas


8. 支付使用

点击 去激活,跳转页面后选择 Activate CardActive


9. 支付币种

  • 所有 Fiat 24 账户支持四种货币:美刀、欧元、法郎、RMB
  • 你可以为这些货币启用直接支付功能
  • 启用后,交易时将优先从相应货币余额中扣除,帮助用户避免外汇手续费
  • Direct Pay 全部打开
  • Default Card Currency 选择 USD


10. 绑定至 APP

点击按钮,查看卡信息,支持 ApplePay、微信、支付宝等等


11. 零手续费返现

BitgetWallet 会针对 Fiat24充值手续费较低汇率 进行补贴,最小提取金额为 1 USDC

充值手续费:USDC 充入卡里的 1% 手续费
汇率补贴:消费时与谷歌汇率同步


  • 0 手续费额度下,充值的费用会在下次消费的返现中一并返还


相关羊毛


具体使用场景

1. ChatGPT

  • 如果不能直接支付,套一层 Apple/Google Pay


2. 微信 / 支付宝

依据《网络支付业务管理办法》

  • 单笔不超过 3,000 元
  • 单月累计不超过 50,000 元
  • 年度累计不超过 600,000 元
单笔超过 200 RMB,老马要额外收 3% 手续费,这不是 Fiat 24 的锅


3. Google Cloud


4. PayPal


5. Azure

  • 如果直接绑卡不行,套一层 PayPal


6. 出入金银行 & 券商


7. 美区 App Store

  • 卡 bin 是美国的,支持美区

参考账单地址

街道:3054 Libby Street
街道:15-1
城市:Siletz
州:俄勒冈州
邮政编码:97380
电话:310 3134269
国家 / 地区:美国



8. 甲骨文免费服务器


9. GPT 战术型 1 年 Plus 认证


QA

五年有效期过了会发生什么?

官方说在过期前 半年 内有 消费 即可续卡

为什么绑不了 GPT

请检查网络环境,建议使用全局模式下的高质量美国节点,并确保真实地址
参考账单地址


GPT 首月免费付不了怎么办?

在零元购界面右下角切换为法国,套一层 PayPal 支付

PayPal 支付方法参考:


隔壁佬友的 Safepal 又是什么?

传送门:10 分钟通关瑞士万事达卡 (fiat24),≈0 成本,从此绑卡不求人

Fiat 24 主要合作的两家分别是 SafepalBitget Wallet,本教程属于后者
由于底层是相同的,所以这两张卡只能 二选一
但也有特殊情况,一个 护照 申请,另一个用 身份证 申请,少数的佬友成功过


我该选择 Safepal 还是 Bitget Wallet

个人偏向于 Bitget Wallet,走特殊的邀请码有首笔返现 5$ 的活动
Safepal 是送一个冷钱包,一般人不太需要,感兴趣的可以整一个玩玩,但有 5$ 运费


C 2 C 是什么?

C 2 C(英语:Customer to Customer),是指个人对个人的交易形式,该名词常出现在币圈


Gas 是什么?

可以理解为手续费,如果开卡的时候碰到可以私信我,我免费发一些给佬友


我该如何获得 USDT/USDC?

请自行搜索关键词:币安 欧易,进行 C2C 交易,请注意个人安全


这卡会影响我的征信吗?

完全不会


📌 转载信息
原作者:
Ling_Jing
转载时间:
2026/1/21 21:41:40

GitHub - op7418/Humanizer-zh: Humanizer 的汉化版本,Claude Code Skills,旨在消除文本中 AI 生成的痕迹。

根据这个仓库进行的提示词升级优化


部分节选

AI 生成的内容原提示词效果现提示词效果
实验产生了有趣的结果。智能体生成了 300 万行代码。一些开发者印象深刻,另一些则持怀疑态度。影响尚不明确。我真的不知道该怎么看待这件事。300 万行代码,在人类大概睡觉的时候生成的。开发社区有一半人疯了,另一半人在解释为什么这不算数。真相可能在无聊的中间某处 —— 但我一直在想那些通宵工作的智能体。三百万行代码 —— 当智能体真的把这个数字甩在面前时,冲击力是实打实的。有些开发者当场就被震住了,觉得这是奇迹;但也有一拨人看着这堆东西直皱眉,毕竟代码写得快是一回事,能不能用又是另一回事。这究竟是生产力的解放还是新麻烦的开始?现在谁心里都没底。
加泰罗尼亚统计局于 1989 年正式成立,标志着西班牙区域统计演变史上的关键时刻。这一举措是西班牙全国范围内更广泛运动的一部分,旨在分散行政职能并加强区域治理。加泰罗尼亚统计局成立于 1989 年,负责独立于西班牙国家统计局收集和发布区域统计数据。加泰罗尼亚统计局成立于 1989 年,负责独立于西班牙国家统计局收集和发布区域统计数据。
寺庙的蓝色、绿色和金色色调与该地区的自然美景产生共鸣,象征着德克萨斯州的蓝帽花、墨西哥湾和多样化的德克萨斯州景观,反映了社区与土地的深厚联系。寺庙使用蓝色、绿色和金色。建筑师表示这些颜色是为了呼应当地的蓝帽花和墨西哥湾海岸。寺庙采用蓝、绿、金三色,呼应了德克萨斯的自然风光:那是蓝帽花、海湾和起伏的地貌。这种设计将社区与脚下的土地紧密相连。
坐落在埃塞俄比亚贡德尔地区令人叹为观止的区域内,Alamata Raya Kobo 是一座充满活力的城镇,拥有丰富的文化遗产和迷人的自然美景Alamata Raya Kobo 是埃塞俄比亚贡德尔地区的一座城镇,以其每周集市和 18 世纪教堂而闻名。Alamata Raya Kobo 位于埃塞俄比亚贡德尔地区。这座城镇不仅有着悠久的历史传统,周边的自然景观也颇具特色。
尽管工业繁荣,Korattur 面临着城市地区典型的挑战,包括交通拥堵和水资源短缺。尽管存在这些挑战,凭借其战略位置和正在进行的举措,Korattur 继续蓬勃发展,成为钦奈增长不可或缺的一部分。2015 年三个新 IT 园区开业后,交通拥堵加剧。市政公司于 2022 年启动了雨水排水项目,以解决反复发生的洪水。像许多工业区一样,Korattur 也受困于交通拥堵和缺水问题。但这没能阻止它的发展,凭借优越的地理位置,它依然是钦奈经济版图中不可或缺的一块。
此外,索马里菜肴的一个显著特征是加入骆驼肉。意大利殖民影响的持久证明是当地烹饪格局中广泛采用意大利面,展示了这些菜肴如何融入传统饮食。索马里菜肴还包括骆驼肉,被认为是一种美味。在意大利殖民期间引入的意大利面菜肴仍然很常见,尤其是在南部。索马里菜爱用骆驼肉。另外,意大利面在这里也很常见 —— 这是意大利殖民时期留下的饮食习惯,如今已完全融入了当地人的餐桌。
新的软件更新作为公司致力于创新的证明。此外,它提供了无缝、直观和强大的用户体验 —— 确保用户能够高效地完成目标。这不仅仅是一次更新,而是我们思考生产力方式的革命。行业专家认为这将对整个行业产生持久影响,彰显了公司在不断演变的技术格局中的关键作用。软件更新添加了批处理、键盘快捷键和离线模式。来自测试用户的早期反馈是积极的,大多数报告任务完成速度更快。这次软件更新是公司持续创新的结果。新版本用起来很顺手,直观且流畅,能实实在在地提升工作效率。它不只是一次常规升级,更代表了一种全新的生产力思路。在技术快速迭代的当下,这种改变或许能产生长久的影响。

我更新后的提示词效果提升显著,以下是把深度研究的充满 AI 味的内容转写后的文章,可以看到已经完全没有 AI 味了,可与人类专业作家相媲美:


📌 转载信息
原作者:
_BIGFA
转载时间:
2026/1/21 21:41:14

一、工具简介

Vortex(能将一切纳入 “怀中” 的漩涡)是一个穿着铠甲的 MCP 工具,使用 Rust 构建,高性能、低资源开销,为你 “年迈” 的电脑省点力气(哈哈~~~)。

其实吧,我们都知道,MCP 工具领域大多都是用 nodepython 实现的,毕竟简单,代码好写,至于性能的,毕竟只是自己本地跑,也无伤大雅的,这也是为什么这么多的 MCP 工具都喜欢用 nodepython 了(咳咳~~,话说,这个怎么几个人用 Java 写 MCP 呢?这个分发起来真是头疼啊~,总不能带个 JVM 遍地跑,哈哈,当然虽说现在 native 技术还不错,但毕竟不是与生俱来的 “能力”,我是不太想踩这个坑)。

最终我还是选择了 Rust,因为我非常喜欢这门语言(我不是专业户),她那简洁且极其优美的语法让整个代码看起来无比的舒服,且极具艺术与观赏性,好了,吹完了,你们有意见的可以发话怼我了 !

不过,有一说一哈,Rust 绝对的类型安全(不考虑 Unsafe Rust)确实是其它很多语言难以企及的,TS 中 any、Python 中的 Any,Go 中的 anyinterface {} 别名)、C# 中的 objectdynamic、Java 中的 Object、C 中的 void* 等等,这那个不是需要你极具猜想力的盲盒?运行时的类型断言的代码相比大家都写过,这起码你还能知道类型,要是不知道具体类型的,直接反射搞起来~~~ (也还行~~~ 哦,对了,还有神奇的 NullPointerException)。

不知道各位道友啥感受,反正我自己受不了这种能够 “包容万物” 的 Objectany,看代码都费劲(我每次掉头发都是因为我在想:这个 Object 中到底放的是啥呢? 嗯~~~顺着代码调用链多找几个源文件就明白了,同时也半小时过去了…)。

当然了,其它这些语言好学呀,这点 Rust 确实…
这个世界从来不是非黑即白、非利即弊的,学习它们的思想,在适合的地方用好它们就行了,但是,“信仰” 咱得有!
好了,就说这么多吧,下面开始分享工具及其用法,至于源码,后面看心情了~~~

事先声明

毕竟是我个人自用工具,工具中有一些工具具有危险性,使用与否全凭自愿哈。

二、工具安装

这里我只提供 MacOS 和 Windows 的版本,暂时没有 Linux 的版本(使用 Linux 开发的道友们对不住了哈~)

夸克网盘链接(附件大小限制,纯属无奈之举):
我用夸克网盘给你分享了「Vortex MCP」,点击链接或复制整段内容,打开「夸克 APP」即可获取。
/~52113A8qbo~:/
链接:https://pan.quark.cn/s/e59c8a3ba6ff

1、vortex-mcp

MacOS:
Apple M 系列芯片的选择 vortex-mcp.mac.arm64.zip 下载;Intel 芯片的用户应该不多了吧?如果有,评论区留言,我再更新(我太懒了~)。

Windows:
直接选择 vortex-mcp.win.x86.zip 下载。

2、vortex-companion

这是 MCP 工具的一个伴侣 App,主要用于危险命令的同意授权、用户提问以及 scp 文件上传下载的进度显示,完全可选,不强绑定,但是非常的推荐(基于 Tauri 的,也非常省资源)。

MacOS:
Apple M 系列芯片的选择 Vortex MCP Companion_0.1.0_universal.dmg 下载;Intel 芯片的用户同上,评论区留言。

Windows:
直接选择 Vortex MCP Companion_0.1.0_x64-setup.exe 下载。

安装很简单,解压后就双击,然后下一步下一步就行了。

三、工具使用

vortex-mcp 工具支持的环境变量:

环境变量类型默认值描述
核心配置
VORTEX_NAME字符串-你的聊天工具名称(可选)
数据库连接
VORTEX_DATABASES字符串列表(分号分隔)-数据库连接字符串,格式:<driver>://<user>:<pass>@<host>:<port>/<database>?name=<connection_name>
支持驱动:mysql, postgres, sqlite
SSH 服务器
VORTEX_SSH_SERVERS字符串列表(分号分隔)-SSH 服务器连接字符串,格式:
密码认证:ssh://user:password@host:port?name=<connection_name>
密钥认证:ssh://user@host:port?name=<connection_name>&private_key=/path/to/key
Redis 实例
VORTEX_REDIS字符串列表(分号分隔)-Redis 连接字符串,格式:redis://[:password]@host:port/db?name=<connection_name>
API 密钥
VORTEX_WEB_SEARCH_API_KEY字符串-Tavily API 密钥(用于 Web 搜索 / 爬取),自行获取
VORTEX_DOCS_API_KEY字符串-Context7 API 密钥(用于文档查询)自行获取
Shell Guard 安全设置
VORTEX_SHELL_GUARD_ENABLED布尔值true启用 / 禁用危险命令检测
VORTEX_SHELL_GUARD_MAX_FILES整数100触发确认提示的文件数量阈值
VORTEX_SHELL_GUARD_MAX_TOTAL_SIZE_MB整数100触发确认提示的总文件大小阈值(MB)
VORTEX_SHELL_GUARD_TIMEOUT_SECS整数10影响分析超时时间(秒)
确认超时设置
VORTEX_DANGEROUS_CONFIRM_TIMEOUT_SECS整数25危险命令确认超时时间
VORTEX_OVERWRITE_CONFIRM_TIMEOUT_SECS整数25文件覆盖确认超时时间
VORTEX_ASK_USER_TIMEOUT_SECS整数90提问用户交互超时时间

MCP 配置:

{ "mcpServers": { "vortex": { "command": "vortex-mcp", "args": ["--enable-fs"], // 这个参数可选 "env": { "GITHUB_TOKEN": "ghp_your-token", // 这个可选,如果你要用 gh 命令的话,最好设置上 "VORTEX_SSH_SERVERS": "ssh://root:123456@192.168.100.66?name=我的66服务器;ssh://root:123456@192.168.100.88?name=我的88服务器", "VORTEX_DATABASES": "postgres://postgres:123456@192.168.100.66:5432/postgres?name=我的66数据库;postgres://postgres:123456@192.168.100.88:5432/postgres?name=我的88数据库", "VORTEX_WEB_SEARCH_API_KEY": "tvly-dev-your-key", "VORTEX_DOCS_API_KEY": "ctx7sk-your-key" } } } } 
小提示

上面的环境变量都是可选的,你不配置对应的环境变量,就不会出现对应的工具,工具是按需加载的。

数据库 / 服务器密码 / 名称中的特殊字符

如果有特殊字符,要使用 URL 编码,一切都是按照 URL 规范来的。

四、效果展示

询问用户问题:

下载服务器文件:

确认危险命令:


📌 转载信息
原作者:
ilxqx
转载时间:
2026/1/21 21:40:42

Docker 配置 vcs

因为项目在 docker 环境中,在本机 ubuntu22.04 已安装 vcs, 并且 verilator 仿真较慢的情况下,选择
在 docker 中挂载 vcs 以达到方便,节省空间的目的。本文采用 vscode 进行 docker 连接。

1. 本机配置 vcs

参考 记一次在 Ubuntu18 虚拟机上安装 VCS 等 - TooyamaYuuouji - 博客园

2. 在 docker 中挂载 vcs

在 vscode 中选择 Dev Containers 扩展下载并安装。

接着新建目录.devcontainer, 并在其中新建文件 devcontainer.json, 内容如下:

{ "name": "chipyard + VCS", "image": "chipyard-vcs-base:first", "remoteUser": "root", "workspaceFolder": "/root/chipyard", "mounts": [ "source=/home/mingzhenjia/Downloads/vcs,target=/opt/vcs,type=bind" ], "containerEnv": { "SNPSLMD_LICENSE_FILE": "27000@172.17.0.1", "LM_LICENSE_FILE": "27000@172.17.0.1" }, "runArgs": [ "--net=bridge" ] } 

整体项目结构如图

接着 Ctrl+Shift+P, 选择 Dev Containers: Reopen in Container, 即可连接到 docker 容器中。

3. 在 docker 中配置环境变量

接着在 docker 中打开.bashrc, 添加如下内容:

# ===== Synopsys VCS / Verdi in Docker ===== export PATH=/usr/bin:$PATH #防止conda或其他地方的gcc干扰 export VCS_TARGET_ARCH=amd64
export NPI_PLATFORM=LINUX64_GNU_472

# VCS/Verdi paths (inside container) export VCS_HOME=/opt/vcs/vcs/vcs/O-2018.09-SP2
export DVE_HOME=$VCS_HOME/gui/dve
export VERDI_HOME=/opt/vcs/verdi/verdi/Verdi_O-2018.09-SP2
export NOVAS_HOME=$VERDI_HOME export NOVAS_INST_DIR=$VERDI_HOME export VERDI_DIR=$VERDI_HOME # PATH export PATH=$VCS_HOME/bin:$DVE_HOME/bin:$VERDI_HOME/bin:$PATH export PATH=/opt/vcs/scl/scl/2018.06/linux64/bin:$PATH # Libraries export LD_LIBRARY_PATH=$VERDI_HOME/share/PLI/lib/LINUX64:$LD_LIBRARY_PATH export LD_LIBRARY_PATH=$NOVAS_INST_DIR/share/NPI/lib/LINUX64_GNU_520:$LD_LIBRARY_PATH # License: use host license server export SNPSLMD_LICENSE_FILE=27000@172.17.0.1
export LM_LICENSE_FILE=27000@172.17.0.1

# Aliases alias vcs64="vcs -full64" alias dve="dve -full64 &" alias verdi="verdi -full64 &" 

接下来输入 vcs 即可调用。

4. 引用


📌 转载信息
原作者:
lycx
转载时间:
2026/1/21 21:39:42

碎碎念

上次有佬问怎么没有效果

遂直接 fork 原脚本…


新功能:

  • 筛选聊天记录
  • 导出到 google drive(需要 token)


UI 截图

主弹窗:

google drive token 配置:

team 导出:

聊天筛选:


源码:



📌 转载信息
转载时间:
2026/1/21 21:33:10

背景

用过很多启动器,比如 utools、Alfred、raycast、hapigo 等,都十分强大各有特色
但是喜欢的功能都比较分散,于是萌生了自己写一个 app 的想法


FocusLite.app

核心特性:

  1. App 启动器(默认)
  2. 剪贴板历史【前缀】
  3. 快捷翻译【前缀】
  4. 文本片段【前缀】
  5. 快速打开常用文件夹(符号)
  6. 在浏览器中搜索(符号)
  7. Liquid Glass 效果适配

效果演示

  • app 搜索:在原版聚焦搜索的基础上支持拼音匹配、支持配置别名

  • 快捷翻译:快速在搜索框翻译文本(自动中 -> 英|英 -> 中),支持配置多个翻译提供商

  • 集成的剪贴板历史:支持搜索关键字

  • 集成的代码片段功能

  • 快速打开文件夹:通过 / 符号过滤常用文件夹,非全量搜索,默认提供 “应用程序”、“桌面”、“下载” 等目录,可自行添加常用目录

  • 在浏览器中搜索:通过 ? 符号快速筛选出动作,支持配置搜索引擎

  • 液态玻璃效果适配:提供丰富的可调参数定制外观

佬友们有需要可以自取:
欢迎各位佬友体验,提提意见

GitHub: FocusLite


📌 转载信息
原作者:
luhuijiao677
转载时间:
2026/1/21 21:31:49

一、Copilot

官网

  • 个人版官网:https://copilot.microsoft.com
  • 企业 / 学校 / 组织官网:https://m365.cloud.microsoft
  • 这次活动是把订阅领取绑定到个人账户上了,所以需要在个人版官网登录使用
  • 这次个人账户也能在企业 / 学校用户 / 组织官网上登录使用,但是没办法更换模型
  • 经过实测,在 office365 比如 powerpoint 中,与 copliot 的对话内容实际保存在 https://m365.cloud.microsoft

两个官网界面对比区别

  • 个人版官网

  • 企业 / 学校 / 组织官网

我想使用 "企业 / 学校用户 / 组织" 官网并实现模型切换?

  • 需要你的账户类型为用企业 / 学校用户 / 组织
  • 比如你之前薅到的 E3/E5 账号,登录企业 / 学校 / 组织官网可实现模型切换


二、Office 365 桌面版全家桶 + 各软件对应的 Copilot

安装包下载

O365HomePremRetail 32 位官方在线安装包
https://c2rsetup.officeapps.live.com/c2r/download.aspx?ProductreleaseID=O365BusinessRetail&platform=x86&language=zh-cn&version=O16GA

O365HomePremRetail 64 位官方在线安装包
https://c2rsetup.officeapps.live.com/c2r/download.aspx?ProductreleaseID=O365HomePremRetail&platform=x64&language=zh-cn&version=O16GA

激活与使用

  • 安装好后,登录带有订阅权益的微软账户即可自动激活并在 Office 对应软件中使用 Copilot


三、OneDrive 1T 空间

这个没啥好说的,玩法多种多样。

有一个问题请教

个人版 OneDrive 能不能使用 Alist / OpenList 通过 302 方式挂载下载,
而不是 WebDav 本地代理 的方式挂载下载?

有实践的佬欢迎分享一下经验


四、家庭共享

  • 除主账户外,还可以再拉 5 个人共享同一份订阅权益
  • https://account.microsoft.com/services/microsoft365/details#

📌 转载信息
转载时间:
2026/1/21 21:30:26

项目地址 GitHub - lianwusuoai/img-router

是一个让你使用对话方式 /v1/chat/completions 进行生图和图片编辑的智能路由。

v1.7.3~1.8.9版本升级内容
1.新增webui设置,不用手敲配置文件,直接在webui改即可,可视化改配置
2.新增后端模式,key少的话,直接 客户端-img-router对话即可,key多的话用newapi/gptloat管理
3.增加AI提示词优化引擎,直接中文输出,自动翻译英文,自动扩充美化提示词,言出法随
4.支持文字生图,图片修改(图片编辑),带上下文改图/生图的融合生图
5.支持模型重定向,多渠道一个模型id输出
6.图片画廊,查看生图的提示词和图片
7.本次终于支持多图片生成(会慢,毕竟生成图片多,比较草台)
8.一件修改端口号,点击重启docker就修改,不用去改配置了。
9.输入图片过大自动压缩,减少生图错误。

测试环境 win11+Cherry Studiov 1.7.13,使用/v1/chat/completions 
进行中转件/后端模式进行单图/多图生成。

架构图

Docker Compose 快速安装

git clone https://github.com/lianwusuoai/img-router.git
cd

老用户最好清除下缓存重建下

docker-compose down; docker-compose build --no-cache; docker-compose up -d

我觉得有 bug 按理说应该也有 bug 但是我还没遇到 bug 那就是没 bug 嘻嘻
(有问题可以留言 / 提 issue)







最后,开启赛博打赏
【打赏 1 LDC】【打赏 10 LDC】【打赏 50 LDC】


📌 转载信息
原作者:
lianwusuoai
转载时间:
2026/1/21 21:25:13

知名 AI 图像模型评测平台 DesignArena 近日悄悄开始测试两款此前从未曝光的隐形图像生成模型,代号分别为 「Summerset」 和 「Winterfall」。早期评测显示,这两款模型在对比评测中表现相当亮眼。

当被要求自我识别时:

  • 「Summerset」 始终声称自己是 OpenAI 的模型
  • 「Winterfall」 则表示自己是 Google 的模型

而经过进一步测试,发现根据 Google 的 SynthID 浮水印检测工具,两款模型 生成的图像都包含 Gemini 浮水印。这暗示它们可能来自同一实验室,尽管它们自称的身份不同。




这代表「Winterfall」 可能是 「Nano-Banana-2-Flash」


📌 转载信息
原作者:
BunnHack
转载时间:
2026/1/21 21:23:49

项目开发背景:
主要是为了解决一个很实际的问题:我们想随时快速输入某些提示词,但现有的方案都有点麻烦。

比如说你用 Claude Code 或者 Cursor 这些工具,它们都有自带的 slash 命令。但问题是,每个 slash 命令都要在每个不同的终端里专门配置一遍,我就觉得特别麻烦。而且很多其他提供 AI 服务的项目,根本就不提供 slash 提示词快捷短语这种功能。这时候你要么自己打开文件夹去找,然后手动 Ctrl+C、Ctrl+V,要么就没办法了,特别不方便。

所以我就想,能不能仿照 Windows 上 PowerToys 这个工具箱的设计思路,做一个专门给提示词用的快速粘贴板。就像 PowerToys 一样,你可以通过快速搜索,迅速把指定文件夹下的内容复制出来,简单快捷方便。

而且我们还可以专门为每个提示词打标签,方便管理。为了简化操作,直接用快捷键呼出就好了,然后搜索,还能自动粘贴到对应的输入框里面,相当简单方便。

另外还有个好处,我们可以直接在搜索框里创建新文件,这样就不需要专门跑到提示词目录下去调整了,也可以直接删除和编辑内容。我个人觉得写得还是挺简单方便的,目的就是简单高效。

当然,由于这个项目只是我用一条提示词让 Cursor 跑了几个小时自己跑出来的,所以 UI/UX 上可能会存在一些小缺陷。但比较基础的功能,经过我自己实际使用之后,基本上已经没什么问题了。后续大家如果想要自己二开或者定制化,我个人觉得还是非常好用的。

下面是项目的实际截图。



项目支持直接通过搜索框来添加新提示词,这样就省得打开编辑器专门创建文本了。底层我们直接使用了 VS Code 来作为编辑器,所以如果没有 VS Code 的朋友,可能需要通过其他方式来解决一下编辑器的问题。



📌 转载信息
原作者:
0.6
转载时间:
2026/1/21 21:23:28

从「抄作业」到 AI 自动生成视频的完整方法论

很多创作者在做视频号时都会遇到同一个问题:
为什么看起来很努力,却始终没有稳定的高播放?

原因往往不在执行力,而在起点就错了——
从“原创灵感”开始,而不是从“成功案例”开始。

事实证明,当前阶段最容易跑通的方式不是凭空创作,而是:

先抄作业,再用 AI 把成功经验规模化复制。

下面是一套已经被反复验证、且非常适合短视频平台的完整方法。


一、核心思路:不是抄内容,而是抄「爆款结构」

这里的“抄作业”并不是搬运视频,而是反向工程爆款

  • 不关心某条视频讲了什么
  • 只关心它为什么能火
  • 把“感觉”拆成可复用的结构

整个流程可以拆成四个关键词:

采样 → 归纳 → 再创作 → 自动生成

二、为什么这个方法能跑通?

1️⃣ 爆款不是偶然,而是可重复的结构结果

绝大多数高播放视频,并不是随机出现的,而是满足了以下条件:

  • 前几秒有强烈视觉或行为异常
  • 中段存在明确冲突或失控
  • 结尾有情绪释放或反转
  • 风格高度统一,利于算法识别

单个视频看不出规律,但同一 channel 的 Top 视频几乎一定有共性


2️⃣ 从 YouTube 入手,是最稳妥的起点

YouTube 的优势在于:

  • 样本量大
  • 数据透明
  • 爆款生命周期长

选择一个已经跑通的 YouTube channel,本质是在复用:

  • 已验证的受众偏好
  • 已适配的平台算法
  • 已成熟的内容节奏

3️⃣ NotebookLM 的价值:把隐性经验变成显性规则

NotebookLM 的核心作用并不是“写文案”,而是:

从多个成功样本中,提炼共性模式。

例如:

  • 开头平均在第几秒出现刺激点
  • 冲突是否围绕“规则 / 强迫 / 对抗”
  • 情绪是逐步升级还是瞬间爆发
  • 是否存在固定角色关系(支配 / 反抗)

这一步完成后,爆款不再是“感觉”,而是结构模板


4️⃣ 文本转视频,是 AI 当前最成熟的短视频应用场景

当前 AI 在短视频领域的优势集中在:

  • 夸张动作
  • 强对比画面
  • 明确情绪
  • 简单故事线

当“创意结构”已经由 NotebookLM 给出,
AI 更适合承担的是从创意到画面的执行过程


三、完整可执行流程(SOP)

Step 1:查找 YouTube 火爆 Channel

筛选标准:

  • 同一类型内容
  • 至少 3–5 条百万播放
  • 风格高度统一

Step 2:选取 Top 10 爆款视频

重点关注:

  • 播放量
  • 明显被算法推荐的迹象
  • 评论区情绪密度

Step 3:将视频链接输入 NotebookLM 分析

分析重点放在结构层面:

  • 前 3 秒发生了什么
  • 冲突第一次出现的时间点
  • 情绪如何被放大
  • 是否存在“规则被打破”的瞬间

最终得到的是一个可复用的爆款结构模型


Step 4:让 NotebookLM 生成“类似结构”的新创意

在结构不变的前提下,替换:

  • 场景
  • 道具
  • 主题设定

NotebookLM 在这一阶段输出的,是已经符合爆款结构的新视频创意


四、演示案例:厨房灾难——机器“闹鬼”事件

根据前述步骤,选择一个由 NotebookLM 生成的视频创意,用于展示从创意到视频生成的全过程。

创意名称

厨房灾难:机器“闹鬼”事件(The Haunted Mixer Prank)

创意概念

在制作节日甜点的过程中,人为制造厨房设备故障,形成短暂混乱,再用反转完成喜剧闭环。

核心情节点

  • 设备失控
  • 人物恐慌
  • 荒诞解释
  • 快速反转恢复秩序

五、让 AI 根据该创意生成文本转视频 Prompt

在演示中,并不直接人工编写提示词,而是:

将该创意输入给视频生成模型或多模态 AI,要求其根据创意自动生成文本转视频 Prompt。

并对 AI 提出明确约束:

  • 视频总时长:20 秒
  • 镜头数量:4 个
  • 每个镜头 1 个核心事件
  • 强调视觉、动作和情绪变化

🎬 AI 生成的 Text-to-Video Prompt(20 秒)

A 20-second comedic kitchen prank video.

Scene 1 (0–4s):
Bright home kitchen.
A cheerful female character is happily making holiday desserts.
She overloads a stand mixer with too many ingredients.
The mixer begins shaking violently.

Scene 2 (4–9s):
The mixer malfunctions.
Smoke rises dramatically.
Ingredients splatter everywhere.
The character panics, shouting:
“Unplug it! Unplug it now!”

Scene 3 (9–14s):
The mixer stops.
Close-up of the burnt mixer head.
She stares at it and asks nervously:
“Did I summon a ghost?”

Scene 4 (14–20s):
Comedic reversal.
She pulls out a brand-new mixer.
Smiles calmly and continues cooking as if nothing happened.
Bright, cheerful ending.

Style:
Fast-paced, exaggerated comedy.
Strong facial expressions.
Short-form video style.
No subtitles, no text overlays, no watermarks.

然后选一个文本转视频的模型将提示词输入。


六、为什么这个演示案例具有代表性?

  • 创意来源于结构分析,而非灵感碰运气
  • Prompt 由 AI 基于创意自动生成
  • 冲突、节奏、反转完整可复用
  • 非常适合短视频平台算法偏好

这说明:
当结构正确时,AI 的执行能力已经足够支撑内容生产。


七、结语:内容创作正在进入「工程化时代」

当内容生产开始遵循:

  • 用数据筛选方向
  • 用模型总结结构
  • 用 AI 生成与执行
  • 用批量测试验证结果

创作就不再是玄学,而是一套可以被复用和放大的系统

在这个体系中,“抄作业”不是捷径,而是最低成本、最高成功率的起点
当结构被掌握,所谓的“原创”,自然会不断出现。

本文由mdnice多平台发布

基于 YOLOv8 的电网绝缘子破损与闪络缺陷智能检测系统识别项目 [目标检测完整源码]

一、研究背景与工程问题分析

随着电力系统规模的不断扩大,输电线路和变电设备的运行安全已成为电网运维中的核心问题之一。在众多电力设备中,绝缘子承担着电气隔离与机械支撑的双重任务,其运行状态直接影响电网的稳定性与可靠性。

在长期运行过程中,绝缘子通常会受到以下不利因素影响:

  • 长期高压电场作用导致材料老化
  • 风沙、盐雾、工业污染物附着
  • 高湿环境下易发生表面放电
  • 外力冲击造成瓷裙破损或脱落

由此产生的典型缺陷主要包括 绝缘子破损绝缘子闪络。这类缺陷具有隐蔽性强、分布范围广、人工巡检成本高等特点,一旦未能及时发现,极易引发线路跳闸、设备损毁,甚至区域性停电事故。

传统的人工巡检方式已逐渐暴露出明显不足:

  • 巡检效率难以覆盖大规模线路
  • 高空、野外作业存在安全风险
  • 检测结果依赖个人经验,缺乏一致性

在此背景下,结合无人机巡检、固定摄像头采集手段,引入基于深度学习的视觉检测技术,构建自动化缺陷识别系统,已成为智能电网发展的重要方向。
在这里插入图片描述

源码下载与效果演示

哔哩哔哩视频下方观看:
https://www.bilibili.com/video/BV1Qk8uz6E9f/

在这里插入图片描述
包含:

📦完整项目源码

📦 预训练模型权重

🗂️ 数据集地址(含标注脚本

二、系统总体设计思路

本项目以 YOLOv8 目标检测模型 为核心算法,面向电力巡检场景进行专项训练,并通过 PyQt5 图形界面 实现完整的工程化封装,最终形成一套可直接投入使用的 电网绝缘子缺陷智能检测系统

系统设计目标包括:

  1. 高检测准确率:能够稳定识别破损与闪络缺陷
  2. 实时推理能力:满足视频流与在线巡检需求
  3. 良好可用性:非算法人员也可直接操作
  4. 可扩展性强:便于后期模型升级与功能拓展

在这里插入图片描述

三、整体系统架构

系统采用典型的分层架构设计,各模块职责清晰、相互解耦:

┌───────────────┐
│ 数据采集层    │  图像 / 视频 / 摄像头 / 无人机
└───────┬───────┘
        │
┌───────▼───────┐
│ YOLOv8 推理层 │  缺陷检测与分类
└───────┬───────┘
        │
┌───────▼───────┐
│ 结果解析层    │  类别 / 置信度 / 坐标
└───────┬───────┘
        │
┌───────▼───────┐
│ PyQt5 界面层  │  可视化展示与交互
└───────────────┘

该架构的优势在于:

  • 算法模块可独立替换或升级
  • UI 与模型完全解耦,降低维护成本
  • 支持本地部署或后续服务化改造
    在这里插入图片描述

四、检测目标定义与业务建模

4.1 缺陷类别建模

结合电力运维业务需求,本项目共定义三类检测目标:

类别业务含义
绝缘子正常完整的绝缘子本体
破损瓷裙缺失、裂纹、结构破坏
闪络放电痕迹、污染导致的表面闪络

这种分类方式不仅能够识别缺陷类型,还可为后续缺陷定位、统计分析与风险分级提供基础数据支持。
在这里插入图片描述


4.2 数据集构建原则

为了保证模型在实际场景中的泛化能力,数据集构建阶段重点考虑:

  • 不同拍摄高度(模拟无人机巡检)
  • 不同光照条件(逆光、阴影、强反射)
  • 复杂背景(山地、树林、建筑)
  • 正常与缺陷样本的合理比例

数据统一采用 YOLO 标准格式,便于训练、推理与工程复用。


在这里插入图片描述

五、YOLOv8 模型选型与训练流程

5.1 YOLOv8 在工业场景中的优势

YOLOv8 作为 Ultralytics 推出的新一代检测模型,在工程实践中具备以下优势:

  • Anchor-Free 设计,减少人工调参
  • 更合理的损失函数设计,提高收敛稳定性
  • 推理接口高度封装,工程接入成本低
  • 兼容 ONNX、TensorRT 等多种部署形式

对于绝缘子这类尺度变化大、形态细长、背景复杂的目标,YOLOv8 在精度与速度之间取得了良好平衡。


在这里插入图片描述

5.2 模型训练流程

训练流程主要包括:

  1. 数据清洗与标注校验
  2. 训练 / 验证集划分
  3. 模型初始化与参数配置
  4. 多轮迭代训练与性能评估

训练过程中重点关注以下指标:

  • mAP@0.5:整体检测能力
  • 混淆矩阵:破损与闪络的区分效果
  • Loss 曲线:模型是否稳定收敛

当模型在验证集上表现稳定后,即可用于推理部署。


在这里插入图片描述

六、推理流程与缺陷结果解析

YOLOv8 提供了简洁高效的推理接口,推理阶段主要完成以下工作:

  • 加载训练完成的权重文件
  • 对输入图像或视频帧进行检测
  • 输出目标类别、置信度与边界框

在视频与摄像头模式下,系统采用逐帧检测方式,并通过合理的帧率控制,确保检测效果与实时性之间的平衡。


七、PyQt5 图形化系统设计

为了提升系统的可用性,本项目引入 PyQt5 构建桌面级可视化应用,核心功能包括:

  • 多种检测模式切换(图片 / 视频 / 摄像头)
  • 实时显示检测结果与缺陷标签
  • 一键保存检测结果图片或视频
  • 自动管理输出目录,便于后期复核

该界面设计使系统能够直接服务于运维人员与巡检人员,而不仅仅局限于算法研究。


在这里插入图片描述

八、典型应用场景与扩展方向

8.1 实际应用场景

  • 输电线路无人机巡检
  • 变电站设备日常检查
  • 电网缺陷快速筛查与统计
  • 智能运维示范项目

8.2 可扩展方向

  • 缺陷严重程度自动分级
  • 与巡检工单系统对接
  • 缺陷时序变化分析
  • 多模型协同检测(如分割 + 检测)

九、总结与思考

本文围绕电网绝缘子破损与闪络缺陷检测这一典型工业视觉问题,系统性地介绍了一套 基于 YOLOv8 的智能检测系统 的完整实现过程。从问题背景、系统架构、模型训练,到可视化应用与工程部署,展示了深度学习技术在电力运维场景中的实际价值。

实践表明,只有将算法能力与工程需求深度结合,AI 技术才能真正落地并产生长期价值。本项目不仅适合作为电力巡检智能化的参考方案,也为其他工业缺陷检测场景提供了可复用的技术范式。