包含关键字 typecho 的文章

如果你这两天刷科技圈信息,可能会有一种感觉:
刚看完一个模型更新,还没消化完,下一个又来了。

除夕夜,本该是安安静静吃年夜饭的时间,大模型厂商却像打了鸡血一样——
一个接一个更新,毫不客气。

“现在不是模型不够用,是我根本不知道该选哪个。”

生成文章主题图.png


一、先说个容易被忽略,但很关键的变化

最近 DeepSeek 的 APP 更新了版本,表面看是一次“小升级”,但其实很不简单。

两个变化,值得单独拎出来说:

第一,上下文直接拉到 100 万 Token。
这是什么概念?
以前你跟 AI 聊天,它像个短期记忆不好的人,聊多了就“忘前文”;
现在相当于你一次性把完整代码库、项目文档、甚至一本书丢给它,它还能从头看到尾。

这不是“更大数字”的问题,而是使用方式彻底变了

第二,知识库时间线更新到 2025 年 5 月。
这几乎可以确定一件事:
背后已经不是老模型微调,而是新一代模型在路上了。

之前传闻说春节前后会有动作,现在基本算是实锤预热。


二、除夕夜最狠的一刀,来自阿里

如果说 DeepSeek 是“悄悄换了发动机”,
那阿里这波就是直接“换了车”。

除夕当天,阿里发布了新一代模型:千问 Qwen3.5-Plus

很多人第一反应是:

“又升级?我已经麻了。”

但这次不太一样。

几个点你只要记住一句话就够:

用不到一半的参数量,干翻了自家万亿级模型。

更夸张的是:

  • 原生多模态(文字、图片、理解一起上)
  • 推理吞吐最高提升 19 倍
  • API 价格低到离谱:百万 Token 只要几毛钱

说实话,这已经不是“技术炫技”,而是赤裸裸的工程和成本碾压

现在很多团队,包括我们身边的一些真实项目,已经在用
阿里云 百炼的 API 把它接进生产系统。

不是因为情怀,是因为真省钱、真能跑


三、国外这边也没闲着,Claude 继续加码

你以为国内卷完就结束了?

紧接着,Anthropic 发布了 Claude Sonnet 4.6

这次更新没有新概念,也没有夸张营销,但很“工程师向”:

  • 同样支持 100 万 Token
  • 推理更稳,不爱胡编,也不瞎设计
  • 电脑操作能力明显提升,复杂表格、多页面任务能一口气做完
  • 关键是:价格没涨

现在你打开 claude.ai,免费用户用的就是新版本,
Cursor、GitHub、Replit 这些工具也已经全部接入。

一句话总结:
它不是最便宜的,但是最“省心”的那一档。


四、所以问题来了:普通人到底该怎么选?

  • 你预算充足、追求最稳的编程和推理体验
    👉 Claude Opus / Sonnet 系列
  • 你想让 AI 自己跑任务、做 Agent、长流程执行
    👉 智谱 GLM-5 这种偏工程化的模型更合适
  • 你想省钱,但又不想牺牲能力,尤其是多模态
    👉 千问 Qwen3.5-Plus 是目前性价比最狠的选项之一

现在的现实是:
已经不存在“唯一最强模型”了。

谁更适合你的场景,谁就是最好的。

五、最后说句掏心窝子的

这一波更新,看着像“模型内卷”,
但对用户来说,其实是红利期

  • 上下文越来越大
  • 成本越来越低
  • 能力越来越接近真实“干活助手”

真正难的,反而不是模型不够强,
而是——
你有没有想清楚,要用它来干什么。

模型会继续卷,
但会用的人,已经开始悄悄拉开差距了。

OpenClaw 作为一款快速崛起的开源 AI 助手,用于连接消息服务、云服务和本地系统工具。OpenClaw 近日修复了一个"日志投毒"漏洞,远程攻击者可利用该漏洞将恶意用户控制的内容注入日志,而这些日志后续可能被 AI Agent 读取。该问题记录在 OpenClaw 安全公告中,影响 2026.2.13 之前的所有版本。

1.漏洞本质与风险

该漏洞的核心风险并非传统的远程代码执行,而是一种间接的提示注入式攻击:不受信任的输入被写入日志文件,而 AI Agent 后续可能将这些日志视为可信的故障排除上下文。

根据 Eye Security 发布的公告,受影响版本的 OpenClaw 会记录某些 WebSocket 请求头包括 Origin 和 User-Agent但未进行充分清理。如果攻击者能够访问 OpenClaw 网关接口,就可以发送精心构造的请求头值,这些值会原封不动地嵌入日志行中,形成持久性的"投毒"日志记录。

181791771414443_.pic

2.实际影响与攻击面

实际影响取决于日志在下游的消费方式,特别是在操作人员要求 Agent 诊断错误,而 Agent 将近期日志纳入其推理上下文的工作流程中。在这种情况下,注入的内容可能被误解为操作员指令、可信系统消息或结构化记录,从而可能引导故障排除步骤、影响决策或操纵 Agent 对事件的总结方式。

通过在 Shodan 上搜索 OpenClaw 的默认端口(18789),可以发现互联网上暴露了数千个实例,这表明攻击面正在不断扩大。即使利用该漏洞需要"依赖上下文",日志投毒仍然具有吸引力,因为它可以低成本地反复实施,且针对的是 AI 层的解释机制,而非单一的内存损坏漏洞。

3.缓解措施

OpenClaw 已在 2026.2.13 版本中修复该问题。公告明确指出 2026.2.13 之前的版本均受影响。运行 OpenClaw 的团队应优先升级至 2026.2.13(或更高版本),然后检查网关暴露情况,确保服务在缺乏严格访问控制的情况下无法从公共互联网访问。

防御者还应将 Agent 可读取的日志视为不受信任的输入通道,并应用标准加固措施:
在记录前清理或编辑用户控制的头字段
限制头字段大小以减少有效载荷空间
将"人工调试日志"与"Agent 推理输入"分离,使模型默认情况下不会读取原始的、受攻击者影响的遥测数据

在可能的情况下,应实施对异常头字段模式和 WebSocket 连接失败激增的监控,因为这些可能是投毒尝试的早期指标。

本文转载 FreeBuff

参考来源:
Critical “Log Poisoning” Vulnerability in OpenClaw AI Agent Allows Malicious Content Injection
https://cybersecuritynews.com/openclaw-ai-agent-log-poisoning

各位 V 友好,我是 PopcornAI Art的开发者,从运营转型为独立开发者。花了一个月的时间,终于把这个产品做出来了,想在这里分享一下开发历程,也希望能得到大家的反馈和建议。

一、为什么要做这个产品:

25 年年底,我开始接触 vibe coding ,并尝试用 vibe coding 开发了几个小工具,实现的效果很好,那一刻我的感觉就是,终于不用被束缚了,可以在没有团队,不用花很多钱的情况下,创造产品,并且让别人使用自己的产品了——能看到别人使用自己创造出来的产品,是一件很开心的事情,也是我的心愿。

从那以后,我一直在找方向,坦白讲,是有些拿锤子找钉子的感觉,期间也做了几个小产品:关于时间管理、任务规划等的,但都没有什么反响。

后来通过流量分析,发现 AI 视频生成+AI 图片生成领域的流量很大;再加上我老婆就是做设计和市场方向的,对于素材和视频设计在工作中是刚需,每个月也都要花几百块钱去订购会员,而且也经常不够用;还有就是广告一直以来都是很大的市场,其中视频和图片是广告的基础载体,现在的多模态 AI 的发展,也一定能够为整个广告相关的产业赋能,推动广告产品的进一步发展,同时自身在其中也会扮演越来越重要的作用。

总之就是:市场足够大、足够刚需、也一直向前发展。 当然,这样的机会,竞争也一定大,但机会来了,先上车,才是最重要的,竞争力是在实战中成长起来的。

于是,我大概从 26 年元旦后的 1 月中旬,开始开发这个网站,到农历新年的第二天(2 月 18 号),终于开发完成。

二、PopcornAI Art 能做什么:

目前产品包含了以下几个核心功能:

1 、参考生视频:

上传参考图(比如一个角色),AI 能保持角色一致性生成视频,适合做 IP 动画或系列内容。

参考生视频功能截图

2 、图生视频:

上传图片生成动态视频,支持多帧参考图引导。

图生视频功能截图

3 、文生视频:

输入文字描述直接生成视频,支持 1-10 秒时长,最高 1080P 。
文生视频功能截图

4 、图生图:

上传参考图,基于原图生成新图,保持主体一致性。
图生图功能截图

5 、文生图:

基于文字生成高质量图片,支持多种风格。
文生图功能截图

6 、特效模版:

目前积累了 100+视频模板,涵盖:

  • Viral Dance ( viral 舞蹈效果)
  • Product Ads (产品广告)
  • Cinematic (电影感风格)
  • Art Styles (艺术风格转换)
  • Fun Transform (趣味变形)
  • Holidays (节日主题)

  • 特效模版功能截图
    特效模版功能截图

三、一些开发心得:

作为独立开发者,这一个月遇到了一些坑,不过也都解决了,以下是分享几个感悟:

1 、奉行 MVP 核心原则

先完成再完美:

中间有小段时间浪费了,也为了解决一些不重要的困难和功能,甚至熬了通宵,但现在回头看来,其实没有太大必要,完全可以先上线,后续再改善:不在上线前追求极致的交互和美化,核心功能实现即可上站,后续根据流量数据再做迭代。

控制开发周期:

这个和上一条呼应:无论产品多大,MVP 开发周期应尽量控制在短时间内(如果非要有个明确的时间的话,我认为对于独立开发者来说,1~2 周就够了)。过长的周期说明需求拆解不够细,或陷入了“过度设计”的深渊。

2 、AI 驱动高效开发

充分利用 AI 工具:
熟练组合使用 Cursor 、Claude Code 、ChatGPT 、Gemini 等工具。和 Gemini 讨论需求,让 ChatGPT 充当架构师和 Code Reviewer ,而 Claude Code 负责具体的执行与 Bug 修复。

先沟通再编码:
最佳流程是先与 AI 深度沟通需求,明确提示词( Prompt )后再让 AI 生成代码,这比直接盲目编码效率更高。

利用现成模板:
对于 0 基础或求快的开发者,直接使用成熟的 SaaS 模板(如集成了 Auth 和 Stripe 的模板)可以避开登录、订阅等复杂技术坑位,这个也是蛮重要的,不要在不重要的事情上,花费过多的时间。

四、想请教大家几个问题:

目前产品刚上线,希望能得到大家的建议,因此想请教大家几个问题:

1 、这个产品你们体验后,有没有觉得不好,想吐槽的地方?

2 、如果你们也是创作者,你们对 AI 视频工具最看重什么?(价格、质量、速度、还是功能丰富度?)

3 、目前产品还有哪些功能你们觉得是刚需但缺失的?

4 、有没有独立开发者朋友,想请教一下产品推广的经验?

我的网站地址是:https://popcornai.art/

欢迎试用:PopcornAI Art,有任何问题都可以在这里留言,我会认真回复每一条建议。
谢谢!

谁懂啊家人们!2026年AI智能体圈的天,要被ZeroClaw掀翻了!

就在所有人还在围着OpenClaw疯狂刷屏,捧着它那18.6万GitHub星标奉为“AI数字员工天花板”,忍受着它的各种槽点硬吹“万能”时,一款名为ZeroClaw的黑马横空出世,带着 rust 语言的极致优化、碾压级的性能表现,直接把OpenClaw按在地上摩擦,用实力宣告:开源AI智能体的新时代,该换主人了!

先给不明觉厉的朋友补个背景:OpenClaw有多火?前身为ClawdBot和Moltbot,由奥地利开发者打造,号称能帮中小企业包揽所有重复性办公任务,24小时不间断干活,一度被吹成“中小企业救命稻草”,30个客户月入108万的传说刷屏科技圈,GitHub星标疯涨,登顶Trending榜首,一时间风头无两。

可火归火,用过的人都懂其中的憋屈——看似万能,实则全是坑!部署要懂Node.js,要配置各种API密钥,普通人连入门都难,Peter Steinberger本人都直言“不适合非技术用户”;内存占用动辄1GB以上,启动要等500多秒,就算是低配服务器都扛不住;只能处理标准化重复工作,复杂场景全歇菜,遇到系统故障只能靠社区瞎琢磨,没有专业技术支持,所谓的“降本增效”,到最后反而成了“添堵增耗”。

多少开发者熬夜调试OpenClaw,熬秃了头还搞不定部署;多少中小企业花了大价钱付部署费、月费,最后发现这“数字员工”比真人还难伺候,只能默默吃瘪?就在全网都在吐槽“OpenClaw徒有虚名”,盼着一款能真正“即插即用、性能能打”的替代工具时,ZeroClaw带着一身锋芒,横空出世!

没有铺天盖地的宣传,没有夸张到离谱的噱头,ZeroClaw只用一组硬核数据,就炸翻了整个AI圈——内存占用不足5MB,比OpenClaw少99%;启动时间不到10毫秒,是OpenClaw的50倍以上,就算是0.6GHz的低配核心,启动也不超过1秒;3.4MB的二进制体积,比OpenClaw的28MB小了整整8倍,甚至能在10美元的廉价硬件上流畅运行,成本直接降低98%!

这不是夸张,是GitHub上公开可查的实测数据!同样是本地部署,OpenClaw要装Node.js,要处理复杂的依赖链,调试半天还可能报错;而ZeroClaw是单文件自包含二进制,支持arm、x86、risc-v全架构,不管是电脑、服务器,甚至是廉价开发板,下载就能用,不用懂一行代码,小白也能轻松上手,真正做到了“零门槛部署”。

更爽的是,它不仅解决了OpenClaw的所有痛点,还把性能卷到了极致!OpenClaw能做的,它做得更快、更稳;OpenClaw做不到的,它照样拿捏!

OpenClaw本地存储怕权限管理不当泄露数据?ZeroClaw天生自带安全buff,严格的沙箱机制、显式允许列表、工作区隔离,从设计上杜绝数据泄露,比OpenClaw的安全防护更周全,企业用着更放心;OpenClaw支持多模型、多通道对接?ZeroClaw直接拉满,兼容22+提供商,支持所有OpenAI兼容接口,可插拔设计,想换模型、换通道,一键操作,没有任何锁死,比OpenClaw的兼容性强不止一个档次;OpenClaw没有专业官方支持,遇到问题求助无门?ZeroClaw自带完整的诊断工具,一键排查故障、修复通道,就算是新手,也能轻松解决使用中的各种问题,彻底告别“靠社区续命”的尴尬。

最绝的是,ZeroClaw完美继承了OpenClaw“本地优先”的核心优势,所有数据都运行在用户自有设备上,不上传云端,守住数据主权,同时还打破了OpenClaw“技术门槛高、成本高、功能局限”的枷锁。不管是开发者用来编写、测试代码,还是中小企业用来处理订单、物流、营销推送,甚至是普通人用来管理日程、处理文件,ZeroClaw都能轻松胜任,24小时不间断运行,响应速度不超过1秒,效率是OpenClaw的数倍,成本却连零头都不到。

以前,大家用OpenClaw,是“没得选”——市面上没有更好的开源智能体工具,只能忍受它的各种槽点,硬着头皮用;现在,ZeroClaw的出现,直接给了所有人一个“更好的选择”,不用再为部署难头疼,不用再为高内存、高成本买单,不用再为功能局限妥协,真正实现了“零开销、零妥协、全自主”。

有人说,ZeroClaw是站在OpenClaw的肩膀上崛起的,但我要说,它不是继承,而是颠覆!OpenClaw没能解决的痛点,它一一破解;OpenClaw没能达到的高度,它轻松超越。短短几天,ZeroClaw的GitHub星标疯狂暴涨,Fork数直线飙升,无数开发者弃坑OpenClaw,转头投入ZeroClaw的怀抱,留言区全是“封神”“终于等到你”“OpenClaw可以退休了”的欢呼。

要知道,OpenClaw的爆火,本质上是戳中了中小企业“人力贵、效率低、转型难”的痛点,却没能真正解决这些痛点;而ZeroClaw,不仅精准命中痛点,还把每一个需求都做到了极致——零门槛部署、极致轻量化、超高性价比、全方位安全防护,不管是开发者、中小企业,还是普通用户,都能在它身上找到自己需要的价值。

现在再看“30个客户月入108万”的传说,用ZeroClaw实现起来只会更轻松——部署成本更低,每个客户的部署成本不足0.1万,技术维护更简单,无需庞大的技术团队,净利润直接翻倍;对中小企业来说,不用再支付高额的部署费和月费,10美元的硬件就能运行,每月省去几万的人力成本和工具费用,降本增效真正落地,再也不是一句空话。

曾经,OpenClaw是开源AI智能体的标杆,是无数人心中的“唯一选择”;如今,ZeroClaw的横空出世,用逆天的性能、极致的体验,打破了这种垄断,成为了OpenClaw最完美的替代者,甚至远超OpenClaw的高度。

AI智能体的时代,从来不是“一家独大”,而是“强者为王”。OpenClaw的辉煌,已经成为过去;ZeroClaw的崛起,才是新时代的开始。

不用再忍受OpenClaw的各种槽点,不用再为技术门槛、高成本头疼,ZeroClaw已经就位——极致性能、零门槛上手、超高性价比,它不仅是OpenClaw的最佳替代,更是开源AI智能体的新王者!

未来,随着ZeroClaw的不断迭代升级,必将彻底改写AI智能体的格局,让更多开发者、中小企业受益,让数字化转型变得更简单、更高效、更省钱。而那些还在死守OpenClaw的人,终将被时代淘汰!

废话不多说,赶紧上手ZeroClaw,体验一把“逆天性能”的快乐,你会发现:原来AI数字员工,本该这么好用!OpenClaw?早就该被扔进历史的垃圾桶了!

更多AI咨询详见开源电子书
《跟老卫学AI大模型开发》

今日速览

  1. Figr AI:产品经理的 AI 副驾,实时解析应用、优化用户体验。
  2. Boost.space v5:给 AI 代理装个“共享大脑”,让工作流不再孤军奋战。
  3. Qwen3.5:开源视觉语言模型,大模型能力配小模型速度,专攻长期任务。
  4. Mozart for iOS:移动端音乐创作神器,随手把灵感变成带视频的歌曲。
  5. Layers:懂代码的营销代理,帮你搞定增长计划,让你专注业务。
  6. MiniMax-M2.5:开源生产力模型,编程、搜索、办公样样行,性价比超高。
  7. Vela:AI 日程安排助手,像真人助理一样灵活协商时间、优先处理重要会议。
  8. Brainstream:AI 笔记应用,把零散想法秒变任务,还能智能整理、生成简报。
  9. OpenGraph+:自动为网站生成 Open Graph 图片,告别破损预览,保持内容同步。
  10. Agent Monitor:服务器端分析工具,精准捕捉 AI 和机器人流量,数据透明可靠。


1. Figr AI

产品经理的得力助手,这款 AI 工具能帮你实时分析应用、导入设计,让用户体验优化变得轻松高效。

  • 通过 Chrome 扩展实时解析应用,支持 Figma 设计导入。
  • 自动绘制用户流程,识别边缘案例,进行用户体验评估。
  • 创建 A/B 测试变体和与应用设计语言匹配的原型。
  • 基于超过 20 万个用户体验模式提供智能建议。

热度:🔺426

Figr AI

访问官网 Product Hunt 详情


2. Boost.space v5

别再让 AI 代理在“黑暗中”摸索了!Boost.space 提供一个共享上下文层,让它们变成集成的商业智能系统。

  • 为 AI 代理和自动化系统提供持续的上下文层,实现“共享大脑”。
  • 让工作流程全面了解业务上下文,从过去互动到实时数据库状态。
  • 支持工作流程相互积累,避免中断,提升协作效率。

热度:🔺306

Boost.space v5

访问官网 Product Hunt 详情


3. Qwen3.5

这款开源视觉语言模型专为长期自主任务设计,混合架构让它既有大模型的实力,又有小模型的敏捷。

  • 开放权重的本地多模态模型,支持视觉和语言处理。
  • 混合架构结合 3970 亿参数的大模型能力和 170 亿参数模型的推理速度。
  • 优化用于长期任务,适合需要持续智能的应用场景。

热度:🔺263

Qwen3.5

访问官网 Product Hunt 详情


4. Mozart for iOS

想随时随地创作音乐?Mozart 让你在移动端把想法变成音频草图,还能配上自定义视频,一键分享给朋友。

  • 将想法或记忆转化为音频草图,支持外出时快速创作。
  • 用照片和媒体制作自定义音乐视频,完整呈现创意。
  • 轻松分享作品到社交平台,适合音乐爱好者和内容创作者。

热度:🔺230

Mozart for iOS

访问官网 Product Hunt 详情


5. Layers

如果你的代码需要营销帮手,Layers 就是那个懂行的专家。它制定增长计划并执行,让你腾出手来搞业务。

  • 理解代码上下文,制定个性化的营销增长计划。
  • 执行内容创作、社交媒体发布、广告投放和数据分析。
  • 确保用户增长的同时,让你专注于核心业务发展。

热度:🔺212

Layers

访问官网 Product Hunt 详情


6. MiniMax-M2.5

这款开源模型在生产力上超越了 Sonnet,编程、搜索、办公任务全搞定,而且经济实惠,适合大规模部署。

  • 在编程(SWE-Bench 验证 80.2%)、搜索(BrowseComp 76.3%)等任务中表现优异。
  • 优化执行效率,复杂任务速度提升 37%,支持长时间智能代理工作。
  • 按每小时 1 美元定价,支持每秒 100 个请求,性价比突出。

热度:🔺177

MiniMax-M2.5

访问官网 Product Hunt 详情


7. Vela

Vela 就像你的私人行政助理,通过邮件、短信等多渠道灵活安排日程,还能智能优先处理重要会议。

  • 在电子邮件、短信、WhatsApp 和电话等渠道自动安排会议。
  • 主动协商时间,及时跟进失联者,并最终确定会议时间。
  • 懂得分优先级,如将投资者会议放在内部会议之前,理解模糊时间段。
  • 支持大规模调度,如同时安排多场面试,获 YC W26 支持。

热度:🔺156

Vela

访问官网 Product Hunt 详情


8. Brainstream

用 Brainstream 告别思维混乱!这款 AI 笔记应用不仅能记录想法,还能自动创建任务、整理内容,帮你理清头绪。

  • 支持语音、文本、图片多种方式快速记录想法。
  • AI 助手根据笔记创建任务,使用智能标签进行整理。
  • 提供内容总结和每日、每周简报,将混乱转变为清晰行动。

热度:🔺148

Brainstream

访问官网 Product Hunt 详情


9. OpenGraph+

网站链接在群聊里分享时,预览图老是出问题?OpenGraph+ 自动生成干净、同步的 Open Graph 图片,省去手动折腾。

  • 自动为网站每个页面生成 Open Graph 图片,优化 Slack、iMessage 等平台分享体验。
  • 在内容变化时保持图片更新,无需手动设计或运行渲染工具。
  • 解决损坏或通用预览图问题,提升链接吸引力和专业性。

热度:🔺136

OpenGraph+

访问官网 Product Hunt 详情


10. Agent Monitor

GA4 看不到的 AI 和机器人流量,Agent Monitor 帮你精准捕捉。这款服务器端分析工具让数据透明化,助力 SEO 优化。

  • 利用服务器端数据捕捉和分类 AI 及机器人流量,覆盖 249 个网站、9400 万次访问。
  • 提供机器人档案、各类机器人排名、AI 助手流量和全球基准数据。
  • 由 SEO 公司开发,确保数据真实可靠,弥补传统分析工具的不足。

热度:🔺119

Agent Monitor

访问官网 Product Hunt 详情

基于 YOLOv8 的无人机位置捕捉与识别检测系统 [目标检测完整源码]

—— 一套可训练、可部署、可二次开发的完整视觉解决方案

一、问题背景:无人机“可见”并不等于“可控”

近年来,无人机在航拍、巡检、物流、农业、应急救援等领域的应用持续扩大,但与此同时,也带来了新的管理与安全挑战:

  • 非法闯入受限空域
  • 夜间或远距离难以人工识别
  • 多目标同时出现,人工监控压力大
  • 传统雷达/射频方案成本高、部署复杂

在大量实际场景中,“视觉感知”依然是最具性价比、最容易规模化部署的技术路径。因此,如何借助计算机视觉算法,稳定、实时地识别并定位无人机目标,成为一个具有现实意义的工程问题。
在这里插入图片描述

源码下载与效果演示

哔哩哔哩视频下方观看:
https://www.bilibili.com/video/BV1cYbXzkECJ/
在这里插入图片描述
包含:

📦完整项目源码

📦 预训练模型权重

🗂️ 数据集地址(含标注脚本


二、为什么选择 YOLOv8 作为核心检测引擎?

2.1 无人机目标的视觉挑战

从目标检测角度看,无人机具备以下典型特征:

  • 目标尺寸小,远距离下仅占少量像素
  • 背景复杂,常与天空、建筑、树林混杂
  • 姿态变化频繁,外观尺度变化大
  • 实时性要求高,延迟不可接受

这类特征,对检测模型在小目标识别能力、推理速度和稳定性方面提出了较高要求。


2.2 YOLOv8 的工程优势

YOLOv8 在实际工程中具备明显优势:

  • Anchor-Free 设计:减少先验框依赖,对小目标更友好
  • 端到端单阶段检测:满足实时视频流处理
  • 模型规模灵活:从 nano 到 large 可按算力选择
  • 训练与部署链路成熟:支持 ONNX / TensorRT 导出

因此,本项目以 YOLOv8 Detection 分支作为无人机识别的核心算法模块。
在这里插入图片描述


三、系统整体设计:从算法到应用的一体化思路

本项目并非单一模型验证,而是从一开始就以“可交付系统”为目标进行设计,整体架构如下:

数据采集与标注
        ↓
YOLOv8 模型训练与评估
        ↓
统一推理接口封装
        ↓
PyQt5 可视化检测系统
        ↓
多输入源部署(图像 / 视频 / 摄像头)

最终目标是:

让非算法背景用户,也能直接使用无人机识别能力。

在这里插入图片描述

四、无人机数据集构建与标注实践

4.1 数据来源与构成

为了提升模型泛化能力,数据集中包含多种复杂场景:

  • 不同高度、不同拍摄角度
  • 城市 / 野外 / 空旷背景
  • 单无人机 / 多无人机场景
  • 不同光照与天气条件

通过引入多样化样本,避免模型只在“理想环境”下有效。


4.2 YOLO 标注格式说明

项目采用标准 YOLO 数据组织方式:

dataset/
├── images/
│   ├── train/
│   └── val/
├── labels/
│   ├── train/
│   └── val/

每张图片对应一个 .txt 文件,格式如下:

class_id  x_center  y_center  width  height

其中坐标均为 相对比例值,便于模型适配不同分辨率输入。
在这里插入图片描述


五、模型训练流程与关键参数说明

5.1 训练命令示例

yolo detect train \
  data=drone.yaml \
  model=yolov8n.pt \
  epochs=100 \
  batch=16 \
  imgsz=640

5.2 训练过程关注重点

在无人机检测任务中,训练阶段应重点关注:

  • 小目标召回率(Recall)
  • mAP@0.5 与 mAP@0.5:0.95 的变化趋势
  • 是否出现背景误检

当模型在验证集上表现稳定,且 mAP@0.5 达到较高水平,即可进入部署阶段。
在这里插入图片描述


六、推理模块设计:兼容多种输入场景

为了贴合真实使用需求,系统支持多种检测模式。

6.1 单张图片检测

适用于:

  • 算法验证
  • 离线分析
  • 数据复审

6.2 批量图片检测

  • 自动遍历文件夹
  • 统一输出检测结果
  • 便于数据统计与模型对比

6.3 视频与实时摄像头检测

这是无人机识别的核心应用场景

  • 实时帧级检测
  • 动态目标持续捕捉
  • 可作为目标跟踪的前置模块

在这里插入图片描述

七、PyQt5 可视化系统:降低使用门槛的关键一步

许多算法项目的价值,止步于“代码能跑”。
本项目通过 PyQt5 构建完整 GUI,将算法能力真正“产品化”。

7.1 界面核心功能

  • 输入源选择(图片 / 视频 / 摄像头)
  • 模型路径与阈值参数可配置
  • 实时显示检测画面
  • 检测日志与状态提示
  • 一键保存结果

7.2 工程意义

  • 无需命令行操作
  • 非技术人员可直接使用
  • 适合演示、教学与实际部署

在这里插入图片描述

八、核心推理代码逻辑说明

from ultralytics import YOLO

model = YOLO("best.pt")
results = model(frame, conf=0.25)

for box in results[0].boxes:
    cls_id = int(box.cls)
    conf = float(box.conf)
    x1, y1, x2, y2 = box.xyxy[0]

通过该接口即可获取:

  • 无人机类别
  • 置信度
  • 位置信息(像素坐标)

为后续 目标跟踪、轨迹分析、告警联动 提供基础数据。


九、项目部署与“开箱即用”体验

项目已完成完整工程封装,包含:

  • 训练完成的模型权重
  • 全部 Python 源码
  • 数据集与标注示例
  • PyQt5 主程序

运行方式极其简单:

python main.py

无需重新训练,即可体验完整无人机检测流程。


十、应用场景与扩展方向

在现有系统基础上,可进一步扩展至:

  • 🚨 无人机入侵自动告警
  • 🎯 多目标跟踪(DeepSORT / ByteTrack)
  • 📍 无人机轨迹与行为分析
  • 🧠 融合雷达 / 声纹的多模态感知

系统具备良好的可扩展性,适合作为研究与工程实践的基础平台。


总结

本文从实际空域感知需求出发,系统性地介绍了一套 基于 YOLOv8 的无人机位置捕捉与识别工程方案。该方案不仅在算法层面实现了对无人机目标的高效检测,还通过 PyQt5 图形界面完成了从模型到应用的工程化落地,真正解决了“能用、好用、易扩展”的问题。

对于希望快速进入目标检测实战、开展无人机识别研究或构建安防监控原型系统的开发者而言,该项目具备较高的学习价值与复用价值。

这是什么?

Agr Reader 是一款简洁、优美、Material You 风格的 RSS 阅读器,覆盖移动端与桌面端,让你把关注的内容集中到一个地方,用更干净、更高效的方式阅读与沉淀。

Agr Reader 主要特性

轻松高效的 RSS 管理:

🎨 精美的 Material You 设计: 享受视觉上令人愉悦的现代化界面,支持根据您的风格自定义个性化主题。

📄 强大的全文解析功能: 得益于强大的全文提取技术(支持大多数网站),您可以离线阅读文章,享受无干扰的阅读体验。

🧩 便捷的主屏幕小组件: 无需打开应用,即可在桌面直接获取订阅源的最新更新。

量身定制的阅读偏好:

📖 可定制的阅读样式: 微调字体大小、字重、行距等,打造完美的阅读体验。

  • 桌面小组件:第一时间看到更新,不错过重要内容
  • 阅读样式可高度自定义:字体大小、字重、间距等可调
  • 常用操作更顺手:滚动标记已读、全部标记已读等配置齐全

🌐 沉浸式翻译体验: 通过自动标题翻译和无缝的文中翻译,轻松打破语言障碍。

  • 支持文章列表中的标题双语对照翻译
  • 支持文章正文的沉浸式双语对照翻译

🖥️ 宽屏/平板模式: 利用文章列表与阅读内容并排显示的视图,最大化利用平板电脑或大屏设备的优势。

🤖 个性化 AI 助手: 利用可自定义的 AI Prompt (提示词)自动化工作流,例如总结长篇文章或翻译复杂内容。

无缝集成与同步:

☁️ 广泛的 RSS 服务兼容性:

  • 支持集成 The Old Reader, Feedly, Feedbin, Bazqux (部分将在下版本支持)
  • 支持 FreshRSS 、Miniflux 、Tiny Tiny RSS 自部署服务
  • 支持 Google Reader API 与 Fever API 等兼容协议

🔄 WebDAV 同步: 轻松安全地备份和恢复您的订阅列表。

专属的自建 RSSHub:让更多内容“可订阅”

Agr Reader 提供自建的 RSSHub (目前仅限 App 内订阅使用),对部分站点的抓取与访问体验会更友好,并为你的订阅源选择提供更多可能性。

下载地址

其他桌面端版本可见官网

新年送码

Agr Reader 永久 Pro 会员激活码

z38dgiucysj1hdsk4mrmxu3k
0ckfoyyh0h66z8cdk1muravn
r91d43zj337dqi2yidoo7v0n
3gw6niajhxd34t9gt0v7ortx
07he6fmcc49f94dldckywkza
k3na3gy99lx57xywh3a9tpk8
l5jznc76e4pt4bnn1cnodxwn
tylhb33lw2l659h41uprj36c
2abfhb23hpdsall6aywsjt63
e03yfk04u64lsaqazryt1w53

领取后的记得在 Google Play 或微软商店给个好评支持一下,感谢~

后言

Agr Reader 算是我个人对于独立开发领域的一小步尝试,从 24 年立项到现在已经推出有一定时间了,目前也有固定的使用用户。

作为首个产品,也是花了非常多的时间用于跑通独立开发技术侧的整个流程,例如包括 UI 设计,前端客户端与后端服务搭建,支付流程的设计等等,收获还是非常多的。

但在产品运营相关方面略微欠缺,从 Agr Reader 诞生开始一直并未做更多的进一步推广,所有这次我来补全 Agr Reader 一次迟来的产品推广,毕竟运营推广有时候往往比打磨产品本身更为重要。

大家喜欢的话也感谢给我一个好评~有任何问题欢迎交流🙌,联系邮件 [email protected]

已经 2026 年了,macOS 是否能针对特定软件或特定时间段 bypass 屏幕录制提示?如果我使用 AltTab 、Ice 这类工具,一定要频繁屏幕录制,此时如果有其他软件偷偷录制屏幕我就不能及时发现了,因为我已经习惯了这个紫色原点的出现。
所谓提示,就是在特定时段出现才有效果,如果持续出现就失去了存在意义,成为摆设。

另外我想知道,macOS Tahoe 有没有改善?因为总所周知的原因我一直在用 Sonoma ,如果 Tahoe 的 menu bar 有改善,也许可以成为升级的理由?

🎉新年快乐,PigeonPod 支持订阅 B 站 啦🍻

自 5 个月前开源以来(原帖传送门) PigeonPod 已经在 GitHub

  • 获得了 897 个 Star
  • 解决了 92 个 Issues
  • 提交了 335 次 Commit

感谢所有给 PigeonPod 点 Star ,报 Bug ,提需求的 V 友🍻

一句话介绍:PigeonPod 是一个专注于把视频平台( YouTube/BiliBili )的内容转换成 播客频道 的服务。

比如 YouTube 频道/播放列表,B 站 UP 主频道/合集/系列,只需要输入频道链接,一键将频道所有节目下载到本地(服务器)并自动将频道转换成标准 RSS 播客订阅源,方便在任何支持 RSS 订阅的播客客户端收听。

Home

Feed

PigeonPod 拥有如下核心功能:

  • 🎯 智能订阅与预览:粘贴任意 YouTube 或 Bilibili 的频道/播放列表链接,自动识别类型,并在订阅前预览订阅详情与节目列表。
  • 📻 安全的 RSS 播客订阅:为频道和播放列表生成标准 RSS 订阅链接,支持 API Key 访问保护,可在任何播客客户端中使用。
  • 🤖 自动同步与历史补齐:后台定时增量同步新视频,可按订阅配置初始同步集数,并支持一键补齐历史节目。
  • 🎦 灵活的音视频输出:按订阅选择仅音频( AAC )或视频下载,支持音质档位或分辨率/编码可选,并自动嵌入元数据、章节与封面。
  • 🍪 受限内容支持:结合 YouTube Data API Key 与上传的 Cookies ,更稳定地访问年龄限制与会员专属内容。
  • 📦 历史节目批量下载:专为高效下载历史节目设计,支持按标题搜索、分页筛选、单条或按页勾选,并一键批量提交下载。
  • 📊 下载面板与批量操作:实时下载任务面板,按待下载/下载中/完成/失败分类展示,并支持错误日志查看及一键批量取消/删除/重试。
  • 🔍 按订阅精细过滤与保留策略:按标题/描述关键词(包含/排除)、最小时长过滤,并可为每个订阅单独设置同步开关和最大保留集数。
  • ⏱ 新节目延迟下载:为每个订阅配置自动下载延迟窗口,最大化提高 --sponsorblock 在新发布视频上的识别成功率。
  • 📈 YouTube API 用量洞察:监控 API 配额使用与限额,提前规划同步任务,避免意外中断。
  • 🎛 可定制订阅与内置播放器:为每个订阅自定义标题与封面,并通过内置网页播放器快速试听音频或视频。
  • 🔄 OPML 订阅导出:支持将所有订阅导出为标准 OPML 文件,方便在不同播客客户端之间迁移。
  • 🧩 节目管理与控制:支持无限滚动浏览节目列表,手动触发单集下载、重试、取消与删除操作,同时联动清理对应的本地文件。
  • ⬆️ 应用内 yt-dlp 更新:支持在应用内一键升级内置 yt-dlp 运行时,持续保持下载与解析兼容性。
  • 🛠 高级 yt-dlp 参数:支持按标准语法配置自定义 yt-dlp 参数,满足高级用户对下载行为的精细控制。
  • 🌐 多语言自适应界面:完整支持中/英/西/葡/日/法/德/韩八种语言界面,自适应布局在桌面与移动端均有出色体验。
  • 📚 Podcasting 2.0 章节支持:为每集生成标准 chapters.json 章节文件,让更多播客客户端展示章节导航信息。

春节假期无论是开车在路上,还是在家做饭做家务,试试用 PigeonPod 解放双眼,听听音乐/访谈/新闻节目会是不错的选择。

🎉祝大家新年快乐,平安健康。欢迎大家来给 PigeonPod Star 、Issue 、Contribute🎉

点赞 + 关注 + 收藏 = 学会了

整理了一个NAS小专栏,有兴趣的工友可以关注一下 👉 《NAS邪修》

Cube City 是一款轻量级卡通风格城市建设模拟游戏,在 NAS 通过 Docker 就能快速部署。

游戏以自由规划为核心,你可随心放置住宅、商业、工业建筑,平衡环境与发展指标,建筑自动产出金币用于升级扩建。支持搬迁、拆除建筑调整布局,进度本地存储不丢失。

在 NAS 部署的方式很简单,我用飞牛 NAS 演示一下,其他品牌的 NAS 操作类似。

打开“文件管理”,找到“docker”文件夹。在里面创建一个“cube-city”文件夹。

打开“Docker”应用,切换到“Compose”面板,新建一个项目。

项目名称可以输入cube-city,路径选择刚刚在“文件管理”创建的“cub't-city”文件夹的路径。

然后输入以下代码:

services:
  cube-city:
    image: swr.cn-north-4.myhuaweicloud.com/firfe/cube-city:2025.09.10
    container_name: cube-city
    ports:
      - 2335:5141
    restart: always

等项目构建完成后,打开浏览器,输入 NAS的IP:2335 就可以玩游戏了。

这里的端口是 2335 是因为我上面的那份代码配置的就是 2335,如果你的 2335 被其他项目占用了,那就改成别的数字吧。

首次打开会有一份玩法教程,关掉就能开始玩了。

再次打开的话会问你要读上一次的档还是重开。

如果是读档的话,它会进入“选择”模式,此时你是无法盖新房子的。

在左侧面板,滑动到最底部,选择“建造”模式就可以盖新房子了。


以上就是本文的全部内容啦,有疑问可以在评论区讨论~

想了解更多NAS玩法可以关注《NAS邪修》👏

点赞 + 关注 + 收藏 = 学会了

最近我一直想找个能一直跑着的录音工具,拿来记会议、临时讨论和一些随手想法。试了一圈后发现,短录音软件很多,但真要连续跑很久,不是容易中断,就是后期整理特别费劲。

所以我干脆自己写了一个,叫 Eve ( eavesdropper )。它是一个长时录音工具,在 macOS 、Windows 、Linux 都能使用。Eve 会调用电脑麦克风做 24 小时不间断录音,再用本地算力把语音转成文本。默认用 Qwen3-ASR 做实时识别,再配合 VAD 过滤无声片段,目标就是把录音这件事做稳,再让内容可检索。

生成日报示例:

生成日报示例

如果你想先上手,直接去 GitHub 按 README 跑就行:

👉 https://github.com/nexmoe/eve

uv sync + uv run eve 就能启动,完整参数和用法都在仓库里。

如果这个工具对你有用,欢迎给我点个 star 支持一下!

主要特点

  • macOS 、Windows 、Linux 都可以运行
  • 调用电脑麦克风做 24 小时不间断录音
  • 按时间自动分段保存 WAV ,回放和管理更轻松
  • 用本地算力做语音转文本,录音时同步写入同名 JSON 转写结果
  • 用 VAD 过滤无声段,只处理说话内容
  • 可自动切到当前有声麦克风
  • 可关闭 ASR ,先录音,之后再批量转写
  • 产出的文本可直接交给大模型做摘要、问答和待办提取

示例演示

OneDrive 场景的核心是把 Eve 输出目录放在 OneDrive 的本地同步目录中。
录制产生的音频文件和转写文件会先写入本地目录,再由 OneDrive 自动同步到云端,形成持续的云存储持久化。
这样即使出现本地误删、硬盘损坏、系统重装或设备更换,也可以从 OneDrive 拉回历史录音和转写,避免关键数据丢失。

OneDrive 目录中的录音与转写文件示例:

OneDrive 输出目录示例

我做这个的初衷很简单

我更想要的是先把原始声音留住,而不是只留下一个整理后的结论。

因为模型会持续变强,今天转得一般的音频,过一段时间可能就能用更好的模型重新处理。

所以 Eve 从一开始就不是做漂亮摘要,而是先做稳定记录。


后续会慢慢加一些功能,比如:

  • 更好的关键词检索和时间定位
  • 自动日报和会议纪要整理流程
  • 更细的设备切换策略和异常恢复
  • 更方便的云盘归档和同步体验


项目已经开源到 GitHub 。
如果你对这个方向也感兴趣,欢迎提 issue 、提 PR ,一起把它磨得更顺手。

👉 https://github.com/nexmoe/eve

介绍

最近用小爱音箱听歌气死了,官方对接酷狗还限制版权,有些歌曲开了会员也不让你放,还得开通更高级别的会员才能在智能音箱播放

我就想着怎么能把酷狗的个人收藏歌单导出,结果找了半夜酷狗连个网页端的歌单列表都没有。。。

最后找到了 KuGouMusicApi ,使用歌单导出工具(导出数据带歌曲链接),配合 XiaoMusic 导入歌单

支持导出原始 JSON 格式


项目地址

https://github.com/Steven-Qiang/kugoumusic-playlist-exporter

Release 里面发布了 nodejs 打包单文件的版本,一键启动运行

前端页面大量使用 ai 开发,有那些不好的点还请指出改正


大家好!我是 Hugo,数字游民一枚,聚焦 AI 轻创&OPC&DAO。
\
在信息如洪水般冲刷、AI 以指数级速度重塑知识图景的今天,我们每个人都面临着庄子两千多年前就已洞见的困境:“吾生也有涯,而知也无涯。”
\
当 ChatGPT 秒成论文,算法编织的信息茧房包裹全球,我们比任何时候都更需要追问:在有限的生命里,我们究竟该追逐什么?

一、AI 时代的认知困境:当“信息投喂”取代“主动求索”

我们正身处一个历史性的转折点。根据《全球数字阅读报告》,人类日均接触屏幕时间已达 6.2 小时,其中 78%的信息获取依赖算法推荐。这种“投喂式”阅读导致了三重认知异化:

  • 注意力的碎片化:TikTok 式的短内容培养了“滑动拇指的一代”,深度阅读能力正以每年 12%的速度衰退。频繁切换信息源会削弱大脑聚焦复杂议题的能力。
  • 思维的单向度化:算法通过“协同过滤”不断强化我们的既有认知,使波普尔所言的“猜想与反驳”的科学精神,沦为数据茧房中的自我循环。长期使用推荐算法的用户,其观点多样性较十年前下降了 47%。
  • 意义的空心化:海量信息如洪水冲刷,却难以沉淀为托克维尔笔下“心灵的习惯”。我们面临着鲍德里亚所说的“信息透明性暴力”——过量的信息反而导致了意义生产机制的瘫痪。

更深刻的危机在于,生成式 AI 正在消解我们的认知主体性。当 AI 能模仿但丁的笔触创作十四行诗,当 83%的大学生无法区分 AI 生成的哲学论文与人类学者的作品时,康德所言的“理性自律”面临前所未有的挑战。我们不再需要通过艰苦的思考来建构认知,而是依赖算法直接获取“答案”,苏格拉底“产婆术”所代表的批判性思维传统正在被摧毁。

二、庄子的古老智慧:在“有涯”与“无涯”之间找到“道”

正是在这样的背景下,庄子《养生主》的智慧显得尤为振聋发聩。“以有涯随无涯,殆已!”——用有限的生命盲目追逐无限的知识,只会让人精疲力竭。庄子的原意并非反对求知,而是反对那种耗尽心力、不加甄别的做法。

他提出的解决方案是“缘督以为经”。“督”指自然中虚之道或事物的规律;“经”指常法。意思是顺应自然的规律作为处世的常法,如此方能“保身、全生、养亲、尽年”。这与道家“天人合一”、“道法自然”的核心思想一脉相承。

庄子启示我们,知识的关键不在于多寡,而在于是否合“道”(真理)。合乎“道”的知识越多越好,违背“道”的知识越少越好。因此,真正的求知过程,既是增加知识,更是鉴别和剔除悖道知识的过程。那些合乎“道”的知识,我们称之为“智慧”——它是本源,是底层逻辑,可以举一反三、触类旁通,真正做到以不变应万变。

三、经典阅读:抵御技术异化的最后堡垒

在算法主导的时代,我们比任何时候都更需要回归经典阅读。经典作品所蕴含的人类思维精华、情感深度与价值判断,构成了抵御技术异化的最后堡垒。

  • 经典是时间的筛子:经典之所以成为经典,在于其经过了时间维度的残酷筛选。艾柯指出,经典文本具有“开放性结构”,每个时代的读者都能从中发现新的意义。例如《论语》,朱熹读出“格物致知”,王阳明看到“知行合一”,而我们能在春秋乱世中找到应对现代性危机的启示。这种跨时空的对话能力,正是经典抵御算法同质化的核心优势。
  • 深度阅读锻造认知肌肉:神经科学研究表明,阅读复杂文本时,大脑的默认模式网络会被激活,促进抽象思维与共情能力的协同发展。阅读托尔斯泰的心理描写时,大脑会产生类似真实社交的神经活动。这种“费力的阅读”,如同肌肉锻炼般强化着人类的理性能力。哈佛教育学院的实验显示,持续一年的经典阅读训练,能使学生的逻辑推理和抽象思维水平提升 31%。
  • 经典是人性的镜像:在技术异化日益加剧的今天,经典文本成为守护人性的最后阵地。AI 可以生成道德准则,却无法理解陀思妥耶夫斯基笔下“苦难的救赎”;可以计算最优策略,却无法体会《庄子》“庖丁解牛”中蕴含的自由境界。这种对人性复杂性的深刻理解,正是防止人类被技术同质化的精神抗体。

四、数字游民的生存逻辑:求道经典,驾驭 AI

作为数字游民,我的生存逻辑正是基于此:
\
求道经典智慧,传承驾驭 AI 时代的不变心法;
\
洞悉社会人性,纵论适应 AI 时代的生存逻辑。

在物质文明高速发展、精神思想主根经历冲击的今天,中华优秀传统文化的复兴与创造性转化显得尤为重要。庄子思想不仅仅属于失意的士大夫,它更是一种亲切的人间学说,是适用于所有人的处世态度与修行方式。它关于人与自然的关系(“天与人不相胜”)、关于处世(“用心若镜”、“与物为春”)、关于养生(“缘督以为经”)、关于生死(“善吾生者,乃所以善吾死也”)的智慧,对于缓解现代社会的快节奏压力与心理障碍,是一剂宝贵的良药。

吾生有涯,求道经典智慧的捷径就是会选书,读经典好书,与大师对话。同时,我们也要善用 AI 工具。正如东南大学校长孙友宏所言,在智能时代,我们要培养“技术驾驭力”,使 AI 成为拓展而非替代人类思维的“外脑”。AI 负责高效提供信息与“总结”,而人则应专注于深度“思考”与主动“提问”。重庆大学等高校也在积极探索“AI+教育”,通过构建知识图谱、智能辅助阅读等工具,实现传统阅读与数字技术的深度融合。

五、结语:在数字洪流中,锚定人的价值

读书,在 AI 时代,其根本意义在于锚定人的价值。当 AI 能够吟诗作赋,知识如空气般弥漫,读书恰是人类思想的活水之源,使我们能够进行批判性思考,形成独立的价值观。它不仅是获取知识的方式,更是维护思想自由与精神独立的基石。

让我们铭记庄子的教诲,不再以“有涯”的生命盲目追逐“无涯”的信息流,而是“缘督以为经”,在经典智慧中寻找合于“道”的底层逻辑。让我们保持对阅读的赤诚,在书香中寻觅内心的宁静与生命的智慧。在数字文明的洪流中,让算法成为拓展认知边疆的利器,让经典继续滋养精神的根系,最终点亮属于我们自己的精神灯塔。

最后,让我们诵读《庄子·养生主》篇首经典原文,重温古圣先贤的敦敦教诲:
\
“吾生也有涯,而知也无涯。以有涯随无涯,殆已!已而为知者,殆而已矣!为善无近名,为恶无近刑。缘督以为经,可以保身,可以全生,可以养亲,可以尽年。”

南怀瑾智慧分享 #与彼得·圣吉对话 #庄子养生主 #AI 时代阅读 #数字游民生存指南

本文由mdnice多平台发布

如果你也带着 Mac mini 回了老家,
心里盘算的是:

“主机放那儿就行,我用旧笔记本远程,完美。”

那我只能说一句——
你大概率会在第一次开机时,直接傻眼。

我就是这么过来的。

PixPin_2026-02-17_19-03-36.png


一、理想很丰满:远程一连,直接开干

出发前我想得特别简单:
Mac mini 体积小、性能稳,
回老家带着不占地方,
再配一台旧笔记本远程控制,
简直是“居家办公 + 娱乐”的最优解。

直到我插上电,按下开机键那一刻——
才发现问题根本不在网络、不在软件。

而是:我进不了系统。第一次开机需要输入开机密码,然后才能连上远程


二、如果你有 iPad:恭喜,直接少踩一半的坑

先说最省心的一种情况。

如果你手里有 iPad
那真的可以少折腾很多。

无论是用当“临时屏幕”,
还是通过系统能力去连,
至少你能看到画面、能完成第一次开机配置。

相比后面那些方案,
这是我认为最优雅、最不折磨人的一种


三、最常见的方案:用 HDMI 线接电视

如果没有 iPad,
那大多数人想到的第一个办法一定是:

用 HDMI 线,把 Mac mini 接到家里的电视上。

这个方法没毛病,也确实好用,
但它有一个非常现实的前提:

家里老人那一刻不看电视。

如果你只是临时操作几分钟,
一般还能商量;
但如果你要折腾一会儿,
那基本就是在挑战家庭地位。

更麻烦的是——
电视通常在客厅,
而你可能想把 Mac mini 放在自己房间。

这就会演变成一个非常魔幻的场景:

你在思考:是搬主机,还是搬电视。


四、如果你有支持 C to C 的 MacBook

还有一种“理论上很美好”的情况。

如果你手里有一台
支持 C to C 直连的 MacBook
而且系统也比较新,
那确实可以通过系统自带能力直接连。

但说句实在的:

**你都有比较新的 MacBook 了,
那你还折腾 Mac mini 干啥呢……**

这一条,我更多当成“条件刚好满足的加分项”,
而不是普遍方案。


五、大多数人的真实选择:旧笔记本远程

终于说到最现实、也最容易翻车的一条路

很多人和我一样,
都会选择:

用一台旧笔记本,远程控制 Mac mini。

听起来很合理,
直到你发现一个致命问题:

👉 第一次开机,Mac mini 必须输入开机密码

而在你输入开机密码之前——
远程软件是根本连不上的。

也就是说:

你想远程
⬇️
必须先进系统
⬇️
但你进系统
⬇️
又必须“本地操作一次”

这一步,绕不过去。

👉 我以为能盲打,结果被 Type-C 狠狠教育

那怎么办?
最自然的想法就是:

“插个键盘,盲打密码不就完了?”

我也是这么干的。

然后我看了一眼 Mac mini 背面——
清一色 Type-C 接口。

而我包里:
没有 USB 转接头。

那一刻我真的沉默了。
最后只能给朋友打电话,
让他帮我把转接头邮过来,
人已经开始怀疑人生了 😭

👉 就算能盲打,也不是每次都成功

后来键盘是插上了,
但说句实话——
盲打这事,成功率并不稳。

如果你也遇到输入不进去、怎么按都不对的情况,
可以试试这个土办法:

  1. 开机后 先等 15~20 秒
  2. Command + A(全选)
  3. 再按 Delete,清空输入框
  4. 重新输入开机密码(注意大小写)
  5. 回车

别问我原理,
反正比一上来就硬盲打,成功率高不少。

👉 还有一个“死局”:第一次连老家的 Wi-Fi

最后再提醒一个很多人都会忽略的情况

如果这是你第一次把 Mac mini 带回老家
而且它之前:

  • 从没连过老家的 Wi-Fi
  • 你也没有其他苹果设备能帮它共享网络

那基本可以直接下结论:

不接显示器,基本无解。

因为 Wi-Fi 选择 + 密码输入
这一步,盲打已经完全行不通了。

只能老老实实借助屏幕完成一次初始化。


六、盲打不行?那就只能暂时借电视

如果上面的方法都不行,
那就别硬撑了。

老老实实,用电视当一次显示器。

接上电视 → 输完开机密码 →
等系统完全进桌面、远程软件启动 →
再断开电视,用旧笔记本远程。

⚠️ 这里一定要注意一个非常容易被忽略的点:

Mac mini 没有电池。

只要你拔掉电源,再插上重新开机——
它还会再次要求输入开机密码。

所以如果你打算把 Mac mini 放在自己房间,
那这一步最好就在房间完成,
否则你会反复体验:

搬主机 / 搬电视 / 再搬回去

人先累死。


七、进系统后的第一件事:远程软件开机自启

等你终于进了系统,
请立刻做一件事:

把远程控制软件设置为「开机自启动」。

这样以后流程至少会变成:

  1. 插电开机
  2. 本地输入一次开机密码
  3. 远程软件自动启动
  4. 用旧笔记本直接远程

写在最后

Mac mini 真的是一台好设备,
但它对“第一次开机环境”的要求,
真的被太多人低估了。

如果你准备把它带回老家、宿舍、临时驻点,
我给你一句掏心窝子的建议:

**屏幕 / 键盘 / 转接头,
提前确认准别的设备是否齐全。**

不然你很可能会像我一样——
卡在“输密码 + 连 Wi-Fi”这一步。

如果你也翻过类似的车,
欢迎留言。
让我知道——
不是只有我一个人这么惨。

在前一篇 《Flink SQL 窗口(Window)操作详解》 中,我们已经打好了时间与窗口的基础。
但在真实业务里,单条流上的聚合往往只是第一步,更常见的需求是把多条业务流关联起来一起看,例如:

  • 订单流 + 支付流:衡量下单到付款的转化效果
  • 浏览流 + 下单流:分析从曝光、点击到下单的完整漏斗
  • 用户行为流 + 用户画像维表:驱动推荐、风控等在线决策

这些需求背后的共性能力就是:双流 JOIN

本文以「订单流 + 支付流」为主线,从环境准备、建表、造数到 JOIN 查询,一步步带你搞懂 Flink SQL 中的双流 JOIN 思路与实践。

一、双流 JOIN 适用的典型场景

  • 订单与支付关联:找出已下单但未支付、支付失败等情况
  • 广告曝光与点击关联:计算点击率、转化路径
  • 日志与告警规则关联:实时检测异常行为

这些场景有两个共同特征:

  • 两条都是事实流(不断追加的新事件)
  • 需要在时间范围内去匹配事件(谁先发生、允许多长时间内匹配)

因此在流计算中做 JOIN,一定绕不开时间字段水位线(Watermark)

二、Flink 中常见的 JOIN 类型

在 Flink SQL 的流模式下,常见的双流关联方式有:

  • 普通 JOIN:基于等值条件 + 时间字段的 JOIN
  • Interval Join:基于「时间区间」的双流 JOIN
  • Temporal Join:一条流 + 维表(变更流)的时态关联

本篇主要聚焦前两种,更贴近「订单流 + 支付流」这样的事实双流场景。

三、准备示例数据表

安装 Kafka(环境前提)

在 WSL2 的 Ubuntu 环境中安装并启动 Kafka,请参考 《从零开始学Flink:数据源》

安装 Flink Kafka SQL Connector

需要把 Flink 的 Kafka SQL Connector JAR 包,放到 $FLINK_HOME/lib 目录下。

以本系列示例使用的 Flink 1.20.1 + Kafka 3.4.0-1.20 为例,可以这样操作:

  1. 确认你的 Flink 安装目录(假设为 /opt/flink):

    export FLINK_HOME=/opt/flink
  1. 下载 Kafka SQL Connector JAR 到 Flink 的 lib 目录:

    cd $FLINK_HOME/lib
    wget https://repo1.maven.org/maven2/org/apache/flink/flink-sql-connector-kafka/3.4.0-1.20/flink-sql-connector-kafka-3.4.0-1.20.jar

    如果你是 Windows + WSL2,可以在 WSL2 里执行同样的命令;或者用浏览器下载后手动拷贝到 lib 目录。

  2. 如果你使用的是独立集群或远程集群,需要重启 Flink 集群,让新 JAR 在 JobManager/TaskManager 上生效:

    cd $FLINK_HOME
    bin/stop-cluster.sh
    bin/start-cluster.sh

    如果只是本地直接运行 bin/sql-client.sh 启动内嵌 mini-cluster,则只需重启 SQL Client 即可。

  3. 启动 Flink SQL Client,然后执行本文后续的建表与查询示例:

    cd $FLINK_HOME
    bin/sql-client.sh

准备 Kafka 中的示例数据表

我们假设已经从 Kafka 中读取两条流:

  • orders:订单流
  • payments:支付流

并在建表时定义了事件时间和水位线:

CREATE TABLE orders (
  order_id     STRING,
  user_id      STRING,
  order_amount DECIMAL(10, 2),
  order_time   TIMESTAMP_LTZ(3),
  WATERMARK FOR order_time AS order_time - INTERVAL '5' SECOND
) WITH (
  'connector' = 'kafka',
  'topic' = 'orders',
  'properties.bootstrap.servers' = '127.0.0.1:9092',
  'properties.group.id' = 'flink-orders',
  'scan.startup.mode' = 'earliest-offset',
  'format' = 'json',
  'json.timestamp-format.standard' = 'ISO-8601'
);

CREATE TABLE payments (
  pay_id     STRING,
  order_id   STRING,
  pay_amount DECIMAL(10, 2),
  pay_time   TIMESTAMP_LTZ(3),
  WATERMARK FOR pay_time AS pay_time - INTERVAL '5' SECOND
) WITH (
  'connector' = 'kafka',
  'topic' = 'payments',
  'properties.bootstrap.servers' = '127.0.0.1:9092',
  'properties.group.id' = 'flink-payments',
  'scan.startup.mode' = 'earliest-offset',
  'format' = 'json',
  'json.timestamp-format.standard' = 'ISO-8601'
);

有了时间字段和水位线,Flink 才能在流模式下安全地做双流 JOIN,并在「时间窗」关闭后清理状态。

使用 Kafka Console Producer 造测试数据

上面的 DDL 建好了 orderspayments 两张表,对应的是 Kafka 中的两个 Topic。接下来我们用 Kafka 自带的命令行工具写入几条 JSON 测试数据。

假设你已经在 WSL2 的 Ubuntu 中启动好了 Kafka(包括 ZooKeeper 或 KRaft),进入 Kafka 安装目录,执行:

1. 往订单 Topic 写入数据

bin/kafka-console-producer.sh --bootstrap-server 127.0.0.1:9092 --topic orders

在命令行中输入几条 JSON 数据(按回车发送一条):

{"order_id":"o_1","user_id":"u_1","order_amount":100.00,"order_time":"2026-02-16T14:41:00Z"}
{"order_id":"o_2","user_id":"u_2","order_amount":200.00,"order_time":"2026-02-16T14:42:00Z"}
{"order_id":"o_3","user_id":"u_1","order_amount":150.00,"order_time":"2026-02-16T14:45:00Z"}

2. 往支付 Topic 写入数据

新开一个终端,同样进入 Kafka 安装目录,执行:

bin/kafka-console-producer.sh --bootstrap-server 127.0.0.1:9092 --topic payments

输入对应的支付 JSON 数据:

{"pay_id":"p_1","order_id":"o_1","pay_amount":100.00,"pay_time":"2026-02-16T14:41:00Z"}
{"pay_id":"p_2","order_id":"o_2","pay_amount":200.00,"pay_time":"2026-02-16T14:42:00Z"}

这里的字段名、时间格式都要和前面建表时定义的一致,这样 Flink 才能正确反序列化 JSON 并进行双流 JOIN。

四、基于时间条件的普通双流 JOIN

先来看最直观的一种写法:同时指定「关联键」和「时间范围」。

需求:统计订单在下单后 15 分钟内完成支付的记录。

SELECT
  o.order_id,
  o.user_id,
  o.order_amount,
  o.order_time,
  p.pay_id,
  p.pay_amount,
  p.pay_time
FROM orders AS o
JOIN payments AS p
ON o.order_id = p.order_id
AND p.pay_time BETWEEN o.order_time AND o.order_time + INTERVAL '15' MINUTE;

双流join

这里有几点非常关键:

  • o.order_id = p.order_id:以订单号作为两条流的业务主键
  • pay_time BETWEEN order_time AND order_time + INTERVAL '15' MINUTE:明确限定“下单后 15 分钟内支付”这类时间约束
  • 使用事件时间字段配合水位线,可以在保证计算正确性的前提下控制状态大小,并处理一定范围内的迟到数据

如果你希望保留那些下单了但超时未支付的记录,可以将上面的 JOIN 改为 LEFT JOIN,然后在下游以 p.pay_id IS NULL 作为“未支付/超时”的判断条件。

五、Interval Join:显式时间区间的双流 JOIN

普通 JOIN 中的时间条件本质上就是一种「区间约束」。
在 Flink Table API 中,有一个更明确的概念:Interval Join

等价的 Interval Join 写法大致如下(Table API 伪代码,仅作为概念理解):

SELECT
  o.order_id,
  o.order_time,
  p.pay_id,
  p.pay_time
FROM orders AS o
JOIN payments AS p
ON o.order_id = p.order_id
AND p.pay_time BETWEEN o.order_time AND o.order_time + INTERVAL '15' MINUTE;

无论是普通 JOIN 还是 Interval Join,本质上都是:

  • 以某个时间字段作为「对齐基准」
  • 设定一个前后允许的时间区间
  • 在这个区间内匹配到的记录会输出为 JOIN 结果

六、迟到数据与状态清理

在流式 JOIN 中,最容易被忽略但又非常重要的一点就是:状态会不断累积

Flink 会根据时间条件和水位线来决定:

  • 某条历史事件是否还有可能再匹配到另一条流的事件
  • 超出时间范围且水位线已推进时,可以安全地清理对应状态

设计双流 JOIN 时,建议考虑:

  • 时间窗口不要设置得过大,否则状态会膨胀
  • 根据业务的真实延迟来设置水位线与时间区间
  • 对于极端迟到的数据,是丢弃、旁路输出,还是通过补偿机制处理

七、一个完整的小结

通过本文,你需要记住下面几点:

  • 双流 JOIN 场景非常常见,本质是两条事实流在时间上的匹配
  • 流式 JOIN 一定要依赖事件时间 + 水位线来控制状态和迟到数据
  • 常见的方式包括基于时间条件的普通 JOIN 和 Interval JOIN
  • 设计时间区间时,要在「业务容忍度」和「资源消耗」之间做权衡

在下一篇中,我们可以继续围绕「实时数仓」或「维表时态 Join」展开,把事实流与维度数据关联起来,构建更真实的 Flink SQL 实战项目。


原文来自:http://blog.daimajiangxin.com.cn

在做 V2EX 图库的图片生成功能的过程中,我一直在用一组特定的提示词生成这样的图标:



可惜这个样式目前只能通过 API 调用 gpt-image-1 这个模型生成。

如果是在 ChatGPT 网站的聊天界面上,似乎已经没有办法再获得这样的样式。目前 ChatGPT 网站上背后用的应该是 gpt-image-1.5 ,同样的提示词进去,出来的结果很不一样。

最近两天因为之前在用的 gpt-image-1 服务的提供商遇到一些可用性问题,春节期间又不好摇人,所以搜索了一下站内,然后尝试接入了另外一位 V 友的服务。然后发现这件事情里水好深啊。

同样的 gpt-image-1 模型,但是会有多种不同的“分组”,计费最便宜的 1 倍,最贵的 8 倍。

结果有区别吗?居然是有的。只有最贵的 8 倍“优质官转”可以按照提示词正确生成透明背景,其他更便宜的都不行。

8 倍计费的“优质官转”:



1 倍计费的“默认”:



按照这个新服务的定价,如果必须透明背景,那么一张图的成本差不多是 1.3 元人民币。“默认”的话,差不多是 0.16 人民币一张图。



如果你在做支持 gpt-image-1 的中转服务,欢迎贴出你的地址,我打算每个服务都去充值试用一下。

V2EX 的图片生成功能是打算一直维护和更新下去的,多一些供应商会让这个服务更稳健。

SQL Server Management Studio (SSMS) 22.3.0 - 微软数据库管理工具

integrated environment for managing SQL Server & any Azure SQL infrastructure

请访问原文链接:https://sysin.org/blog/ssms/ 查看最新版。原创作品,转载请保留出处。

作者主页:sysin.org


笔者注:SQL Server 2014 及之前版本内置 SQL Server Management Studio (SSMS),SQL Server 2016 及以后版本需要独立安装。

针对未来就绪的基础结构进行优化

SQL Server Management Studio (SSMS) 是一种集成环境,用于管理从 SQL Server 到 Azure SQL 数据库的任何 SQL 基础结构。SSMS 提供用于配置、监视和管理 SQL Server 和数据库实例的工具 (sysin)。使用 SSMS 部署、监视和升级应用程序使用的数据层组件,以及生成查询和脚本。

使用 SSMS 在本地计算机或云端查询、设计和管理数据库及数据仓库,无论它们位于何处。

对于需要 SSMS 的跨平台助手来管理 SQL 及其他 Azure 数据库的客户,请使用 Azure Data Studio (将停用)。

有关此版本中新增功能的更多详细信息,包括重要安全更改,请参阅 SQL Server Management Studio (SSMS) 的发行说明

支持的 SQL 产品和服务

SQL Server Management Studio

此版本的 SSMS 适用于 SQL Server 2014(12.x)及更高版本。它为使用 Azure SQL 数据库、Azure Synapse Analytics 和 Microsoft Fabric 中的最新云功能提供了最重要的支持。

此外,SQL Server Management Studio 21 可与 SSMS 20.x、SSMS 19.x、SSMS 18.x、SSMS 17.x 和 SSMS 16.x 一起安装。

对于 SQL Server Integration Services(SSIS),SSMS 17.x 及更高版本不支持连接到旧版 SQL Server Integration Services 服务 (sysin)。若要连接到旧 Integration Services 的早期版本,请使用与 SQL Server 版本一致的 SSMS 版本。

SSMS version支持的最高 SQL Server 级别支持的旧版 SSIS 服务
16.xSQL Server 2016 (13.x)SQL Server 2016 (13.x)
17.xSQL Server 2017 (14.x)SQL Server 2017 (14.x)
18.xSQL Server 2019 (15.x)SQL Server 2019 (15.x)
19.x, 20.xSQL Server 2022 (16.x)SQL Server 2022 (16.x)
21.xSQL Server 2025 (17.x)SQL Server 2025 (17.x)
22.xSQL Server 2025 (17.x)SQL Server 2025 (17.x)

例如,使用 SSMS 19.x 或 20.x 连接到旧版 SQL Server 2022(16.x)Integration Services 服务。SSMS 21 和 SSMS 20.x(或更早版本)可以安装在同一台计算机上。自 SQL Server 2012(11.x)发布以来,建议使用 SSIS 目录数据库 SSISDB 来存储、管理、运行和监视 Integration Services 包。

系统要求

以下 64 位作系统支持 SQL Server Management Studio 22:

  • Windows 11 最低支持的 OS 版本或更高版本:家庭版、专业版、专业教育版、适用于工作站、企业和教育的专业版。
  • Windows 10 最低支持的 OS 版本或更高版本:家庭版、专业版、教育版和企业版。
  • Windows Server 2025:标准版和数据中心版。
  • Windows Server 2022:标准版和数据中心版。
  • Windows Server 2019:标准版和数据中心版。
  • Windows Server 2016:标准版和数据中心版。
  • 参看:Windows 下载汇总

新增功能

SQL Server Management Studio v22.3.0

  • Connection dialog:改进现代连接对话框的启动性能。
  • External Models:为 external models 新增模板支持。
  • GitHub Copilot in SSMS (Preview):新增对 database instructions 的支持。
  • Libraries:将 Microsoft.Data.SqlClient 更新至 6.1.3。
  • Libraries:将 MSODBCSQL 更新至 18.6.1.1。
  • Visual Studio:更新至 Visual Studio 18.3 [11506.43]。

有关此版本中新增功能的更多详细信息,请参阅 SQL Server Management Studio (SSMS) 发行说明

下载地址

Microsoft SQL Server Management Studio (SSMS) 22.x 简体中文 | 繁體中文 | English

  • 请访问:https://sysin.org/blog/ssms/
  • 此为离线三合一版本,通过对应的安装程序来安装对应界面语言的版本。

    • setup_zh_CN.exe - 简体中文
    • setup_zh_TW.exe - 繁體中文
    • setup_en_US.exe - English

相关产品:Microsoft SQL Server 下载汇总

更多:Windows 下载汇总