2 月 4 日,昆仑天工面向全球正式发布「天工 Skywork 桌面版」,即桌面端应用 Skywork Desktop。

 

据介绍,Skywork 桌面版的设计宗旨是击穿 AI 生产力上限,将 AI Agent 推向下一时代。其直接在本地执行任务,无需上传文件到云端。它可以直接读取电脑上的海量文件,进行汇总、整理,并基于内容生成新产物。同时,它以“内容理解”为核心,而非“文件格式”:无论是图片、视频、表格、PPT 还是各类文档文件,都能在统一语义层下被理解、归类、执行任务,且支持多任务并行。

 

2025 年 5 月,Skywork 面向全球发布“AI 版 Office” Skywork Super Agents(即 Skywork 网页版),极大提升了近亿用户的工作效率。如今,Skywork 桌面版的正式推出,让 AI Agent 不再只是被动等待指令而是主动理解你的意图、随时响应你的工作需求。

 

官方介绍,Skywork 桌面版的产品目标是走进并融入桌面端最后一公里,成为每个人工作的 OS 助手。这意味着 AI 第一次真正走进桌面办公现场,从“等你喂材料”进化为“直接理解整个项目”,开始成为能看懂项目、理解上下文、主动干活的 OS 级同事。

Skywork 桌面版让 AI 开始解决各种零散、复杂、少量使用场景的长尾办公问题,让工作效率全面升级。昆仑天工表示,Claude Cowork 的问世验证了用户在工作场景下对于“工作任务执行”的巨大需求,OpenClaw(前身为 Clawdbot、Moltbot)的出现更是反映了用户对于“本地电脑/桌面端执行操作”的真实、迫切渴望。

 

而当前,Skywork 桌面版要做的,则是更智能、更强的高阶桌面 AI。相比当前产品,Skywork 桌面版首先实现了 Windows 原生覆盖,满足了大量使用 Windows 的用户和工作场景需求,可以直接处理本地历史文件和复杂项目场景,无需迁移或适配。

 

其次,相比 Claude Cowork 仅支持 Claude 模型,Skywork 桌面版进化成为“Gemini 版 Claude Cowork”,不仅支持 Claude 模型,还同时支持 Gemini 模型。用户可以在 Claude Opus 4.5、Claude Sonnet 4.5 和 Gemini 3 Pro 模型之间选择,亦可启用“auto”模式,由系统根据任务类型智能推荐最适合的模型,实现更高效、更精准的任务处理。

 

再者,为打通“思考”与“执行”的壁垒,Skywork 桌面版内置集成了 100+个经过精选的、真正有用 Skills,涵盖 Office 三件套生成、网页生成、图片生成、视频生成等类型。系统可根据任务自动筛选并推荐最适合的 Skills 和模型,提高多任务处理效率,让用户操作更省心。用户亦可手动选择 Skills 和模型去解决多任务场景痛点,让操作更灵活。

 

除了在产品初始配置上使用更先进模型和功能设计,Skywork 桌面版在任务生成质量、处理速度和安全方面也做了优化提升。尤其在安全方面,Skywork 桌面版所有操作均在本地虚拟机隔离环境中完成,无需上传文件到云端。所有任务基于本地文档生成内容,减少联网搜索或盲目推理导致的错误输出。

前提概要,楼主 30 来岁,没啥谈吐,但也不随变吐痰,毕业就去了北京从事钱少事多的猎头工作,赶上两拨地产,和互联网的红利,后来脑子一热,开了个猎头公司,和在 20 年投资中概互联。随后一切清零。然后找了个工作混到了 25 年春节。


在 25 年年底的时候我有两个考虑 1 、做烘焙蛋糕店。2 、回老家自己 SOHO 做猎头。

一、(烘焙店)后来去调查后,发现能不能赚钱完全取决于位置和装修,现在都是公式化的配方味道基本上不会有大的区别,我已经亏怕了直接 pass

二、SOHO 猎头自己在家做了半个月,这个成单回款周期基本上 2-6 个月,被父母说教,不得不放弃全职 soho 当个兼职干干还可以。

先汇报一下。我是去河南省会郑州做了房产中介 ,卖了 9 套房子。赚了大概 14 万左右。

我觉得这个工作很适合过度,特备是心情不好,工作受挫的人来干,以及身体不太好的朋友,可以大量和人沟通,face to face 很爽,不用整天对着电脑屏,另外楼主本身就是《梦想改造家》和宜家爱好者,在我从业之前我就没事喜欢看房产网站,对区域啥的都很熟悉,加上我从来都不忽悠客户,前期会损失很多客户,后期都老客户介绍很爽,加上我嘴皮子还行,整了个抖音天天直播,直播一年粉丝 400 多个。。。。。虽然很低,但是转化还可以。全是自然流。

刚开始入行的时候,我是在贝壳一家加盟店,各位朋友可以理解成链家(加盟版)夫妻店(这个绝对避雷)干了 3 个月我就提桶跑路自己干了,我主要受不了整天让我给客户打骚扰电话以及我们推荐一些很坑的房子,都是以佣金为目的。 不过有一说一这个老板还挺大方,会员工发三个月底薪 3K ,还有 50%的提成。真正让我觉得必须要离开是因为我同事 A 哥家孩子生病去医院,这个老板在在办公室讲越穷的人事情越多,这 LOW 了,受不了走了。

我干了三个月我就把这个行业摸清楚了,怎么找二手房源,怎么谈价格,过户之类的流程,包括新房怎么去和开发商谈合作。我自己也没有租店面就在出租屋里开始在抖 ,红薯上直播。

( PS 我为啥不做租房,因为租房赚的少,而且郑州有人才公寓。
加上大部分房东不退押金,我没法管控影响我口碑)

最开始 50-80 万预算的客户很多,我服务几个以后发现这个预算的客群,预算有限,要求比较高,投入产出比不高,我就不做这个价位段的客户,只做 120-500 的客户(客群基本上都是改善客户,或者刚结婚买婚房的,太便宜的买不到合适的房子)超过 500 也没做因为我不懂。把这个价格段的客户分给我同行,他们成单会给我 30%的分成。

难点

1 、跳单: 什么是跳单就是 客户跟着我看房,也谈好价格了,最后偷偷私下联系房东交易。

解决:基本上无解,因为没有支持这块的法律,除非签订了独家委托协议。

我遇到过三次跳单,都是 35-50 岁左右的小学老师,后来老师这个职业的客户我也分给同行。

2 、返佣: 中介本来卖一套房子赚 5 万,为了增加客户的黏性以及同行的恶意抢夺客户

会把 5 万中的 2-4 万给客户。(现在新房基本上很难卖)

新房自己去售楼部和通过中介去价格是一样的,不会因为通过中介而贵,

很多客户会误解是把钱加 到了放价里。

解决方案:打明牌,恶意竞争的同行大部分人是没有公司的,他们是通过代理机构或者门店上 班。他们的佣金会被平台扣掉 40%左右,比如佣金 10 万,他们到手税前是 6 万,我直 接给客户返 6 万,比他们赚的还多,他们就没法和我恶意竞争。

中介在新房里唯一的作用的是“知道低价,避免去给领导申请”拉扯的过程。了解市场情况能节省时 间匹配到适合你的房子。

3 、投入产出比太低:老板、平台、同事、分佣。

现在二手房基本上都会挂靠平台,郑州主要是安居客和贝壳,就是 58 和链家。

就拿标杆贝壳链家举例 : 一套 100 万的二手房收佣 2.8 万

10%的平台抽佣,2 千的谈判室强制使用费 为了好计算结余 2 万 4

A 中介把房子传到平台上,A 中介可以分 45%=1 万(到供职门店)
B 中介把房子卖掉分掉 2.4-1=1.4 万 (到供职门店)

假如 B 中介上班的公司给他 50%的提成,他的收入就是 1.4 万*50%

这一切建立在中介无底薪无社保,带客户自己请客户吃饭。

我属于幸运的,能稳定的出单,90%的人 2 个月卖一套就不错了。

我看了很多帖子,大多都提到了 FNConnect 。是不是我没用 FNConnet ,直接公网 ip https 暴露的,能逃过这一波么?
没有 FNConnect ,黑客也不知道我机器的存在吧。难不成他把所有 ip 所有端口号都扫一遍?

当然出问题的这几天,我的飞牛关机了,晚上回家开机看看有没有问题。

Last: 我一直担心的问题,还是出现了。。。。幸好我的飞牛只存电影,重要资料都存储在 ubuntu 里,遵循不用不开机,用完就关机的原则。但仍然有一部分暴露在外的端口是 http 。。。

需要测试某项目与 ARM 的兼容性,准备装一台 ARM 主机,需要全功能的 Linux 或 Windows 桌面环境。理论上最好的方案也许是 Mac mini ,只是价格有点高。之前尝试过电视盒子安装 Armbian ,虽然能进桌面但没能驱动 GPU ,OpenGL 完全跑不动。似乎驱动支持的比较好的只有友善系列?

一项可能彻底改变未来票据、合同、报告等日常文档处理方式的技术突破,正从一家中国AI公司的实验室走向全球开发者的电脑。

模型登顶

智谱AI正式发布并开源专业级OCR模型GLM-OCR。这个模型以仅0.9B的极小参数量,在权威文档解析榜单OmniDocBench V1.5上取得了94.6分的顶尖成绩。

其性能已逼近谷歌的通用大模型Gemini-3-Pro。

OCR作为将图片中的文字转换为可编辑文本的技术,早已应用多年。传统方案常在海量标准印刷文档中表现良好,但面对手写公式、复杂表格、带印章文件或多语言混排的“疑难杂症”时,往往力不从心。

GLM-OCR的出现,专为攻克这些真实业务中的“硬骨头”而来。

性能跃升

GLM-OCR的“小尺寸、高精度”特性背后,是一系列创新技术的有力支撑。

模型采用“编码器-解码器”架构,集成了自研的CogViT视觉编码器。创新性地将多Tokens预测损失引入OCR模型训练,并采用全任务强化学习,显著提升了模型在复杂版式下的识别精度和泛化能力。

更关键的是其 “版面分析→并行识别”的两阶段技术流程

它先理解文档的整体结构布局,再进行精准的文字识别,这使得它处理一份复杂的跨页财务报表时,能像人类一样先看清表格框架,再读取其中的数字。

极致性价比

GLM-OCR的强大不止于精准,更在于其极致的效率和令人震撼的低成本。

在速度上,其处理PDF文档的吞吐量可达每秒1.86页,处理图片可达每秒0.67张,显著优于同类模型。更重要的是其成本控制,通过API调用,价格仅为0.2元/百万Tokens

这意味着,花费1元人民币,理论上可以处理约2000张A4扫描件或200份10页的PDF文档。

相比传统OCR方案,其成本仅为约十分之一,真正将专业级文档解析能力推向了“白菜价”时代。这种极致的性价比,使其不仅能被大型企业采用,也让中小型团队甚至个人开发者用得起专业级的文档处理能力。

场景突破

GLM-OCR针对六大高难度业务场景进行了专项优化,展现出强大的鲁棒性。

复杂表格解析上,它能精准理解合并单元格、多层表头等复杂结构,并直接输出标准HTML代码,无需人工二次制表。

对于手写体与代码,模型能准确识别教育、科研场景中的手写数学公式,以及程序员屏幕截图中的代码,解决了长期存在的痛点。

信息结构化提取方面,它可以从各类发票、身份证、银行卡等卡证票据中,智能提取关键字段,并输出标准的JSON格式数据,无缝对接银行、保险、物流等行业的自动化系统。

模型还具备出色的印章识别多语言混排处理能力。这意味着一份盖有红色公章的中英文混合合同,也能被准确无误地识别和解析。

变革意义

GLM-OCR的意义远不止发布一个性能优异的模型。

开源策略,意味着完整的SDK与推理工具链已向全球开发者开放。任何人都可以下载、使用并根据自身需求进行调整,这极大加速了技术的普及和创新应用的诞生。

其次,它对检索增强生成(RAG) 等前沿AI应用提供了坚实基础。RAG系统依赖高质量的结构化文档数据,而GLM-OCR高精度的识别能力和规整的Markdown/JSON输出格式,正为此提供了理想的数据底座。

从行业影响看,金融、政务、教育、物流、保险等领域将率先受益。银行无需再雇佣大量人力手动录入票据信息,学校可以快速数字化海量的历史手写试卷,物流公司能自动处理成千上万的运单。

一个高效率、低成本的智能文档处理时代,随着GLM-OCR的开源正在加速到来。

边缘部署

智谱官方还特别强调,GLM-OCR非常适合高并发及边缘计算场景。

它支持vLLM、SGLang和Ollama等主流推理框架部署,显著降低了部署门槛和算力开销。这意味着企业可以在自己的服务器上,甚至是在靠近数据源的边缘设备上高效运行该模型,无需将所有敏感文档上传至云端,更好地保障了数据安全和隐私

例如,一家医院可以在内部服务器上部署GLM-OCR,直接处理患者的病历和检查报告,既满足了效率需求,又严格遵守了医疗数据的安全规定。


智谱AI宣布未来将持续迭代GLM-OCR,计划推出更多尺寸版本,并将能力拓展至更多语种及视频OCR领域。当1元钱可以处理2000页文档时,全社会信息数字化最后一公里的障碍正被技术的力量迅速推平。

在汽车后市场服务数字化浪潮下,移动洗车管家小程序系统应运而生。该系统以微信小程序为核心载体,兼顾 PC 端使用,由闪电科技开发并提供服务,通过整合 “线上预约 - 线下服务 - 会员管理 - 代理商协作” 全流程功能,为洗车服务行业打造高效、便捷的数字化解决方案。系统不仅支持实时订单抢单、上门 / 到店双模式预约,还具备完善的会员营销、多门店管理及财务对账功能,满足不同商家的技术部署需求。

一、功能介绍:全链路覆盖洗车服务需求
移动洗车管家小程序系统的功能设计围绕 “用户体验优化” 与 “商家运营提效” 两大核心,涵盖订单、会员、门店、财务、系统配置等多个维度,具体可分为以下几类:

(一)核心订单与服务功能
多模式预约与接单
支持 “预约到店洗车”“预约上门洗车” 两种服务场景,同时提供 “实时订单抢单” 功能,附近技师可快速响应订单,银川兴庆区人民政府、建发东方公寓 B 座等区域已实现 “附近 40 位技师” 的高效覆盖,缩短用户等待时间;

精细化服务项目管理
提供外观清洗、内饰清洗、打蜡等标准化服务项目,商家可通过 “项目管理” 模块新增、删除或编辑服务内容,适配不同车型(如轿车)的需求;

便捷下单与支付
用户可选择绑定车辆信息(如示例中 “轿车 | 11555555 | 银色”“京 A454544”),在线选择服务后,支持 “余额支付”“代金券抵扣” 两种支付方式,下单流程清晰,结算步骤简单。

(二)商家运营与管理功能
会员与营销体系
包含 “会员卡计次” 功能,支持商家推出次卡类产品;同时提供 “充值营销”“会员卡营销” 工具,帮助商家提升用户复购与粘性;

多门店与代理商协作
搭载 “多门店系统” 与 “代理商系统”,商家可新增、管理门店信息,配置不同门店的服务范围,代理商则能参与订单协作,扩大服务覆盖;

员工与技师管理
支持新增员工、设置员工角色权限,技师信息可关联订单,方便商家分配任务与结算佣金;同时提供 “接单佣金设置” 功能,灵活调整技师报酬;

财务与对账管理
涵盖 “订单对账”“会员对账” 模块,自动统计订单收入、会员充值金额,生成财务报表,减少人工核算误差;此外支持 “支付设置”,对接多种支付渠道。

(三)系统配置与用户体验功能
基础设置
可配置 “站点信息”“服务协议”“使用帮助”,自定义模板消息内容(如下单告知、订单状态变更通知),还能设置 “虚拟号” 保护用户隐私;

用户信息管理
合规获取用户微信昵称、头像、性别、地区等基础信息,同时支持获取位置信息,用于匹配附近门店与技师;用户可在 “我的” 模块查看订单历史、车辆信息、余额与会员卡状态;

硬件接入支持
系统预留硬件接入接口,可对接共享洗车机等设备,拓展服务场景,实现 “线上预约 - 线下硬件服务” 的无缝衔接;

数据与信誉保障
提供 “应用评分”“信誉指数” 展示(当前均为 5.00 分),商家可查看用户评价,优化服务;同时源码已加密,保障系统安全,避免核心功能泄露。

二、适用场景与行业价值:解决行业痛点,赋能多方角色
(一)适用场景
线下洗车门店数字化转型
传统洗车店可通过系统实现 “线上引流 - 预约锁客 - 会员复购”,减少到店客户等待时间,提升门店坪效;尤其适合多门店连锁品牌,通过 “多门店系统” 统一管理各门店订单与服务标准。

上门洗车服务团队运营
上门洗车团队可利用 “实时订单抢单”“位置匹配” 功能,快速响应附近用户需求,技师无需线下门店,降低运营成本;同时通过 “余额支付”“代金券” 提升用户支付便捷性。

汽车后市场代理商拓展业务
代理商可借助 “代理商系统” 整合区域内技师与门店资源,为用户提供标准化洗车服务,同时通过 “佣金设置” 激励技师接单,扩大服务覆盖范围(如银川南门广场、鼓楼等商圈)。

共享洗车机运营商配套服务
共享洗车机运营商可接入系统,实现 “线上预约使用共享洗车机 + 线下自助服务”,用户通过小程序预约设备、支付费用,运营商则能远程管理设备订单与收入。

(二)行业价值
对商家:降本增效,提升竞争力
降低获客成本:通过微信小程序触达海量微信用户,无需依赖线下传单、线下门店引流;

减少人工成本:自动化订单分配、财务对账,减少门店前台与财务人员工作量;

提升用户粘性:会员体系与营销工具可促进用户复购,如会员卡计次、充值送代金券等活动,增加用户留存。

对用户:便捷高效,优化服务体验
打破时间与空间限制:用户无需到店排队,可随时在线预约上门或到店服务,选择 “立即服务” 或指定时间;

服务透明可控:可查看附近技师数量、门店位置、服务项目价格,订单状态实时更新,避免 “隐形消费”;

隐私与支付安全:虚拟号设置保护个人手机号,余额支付、代金券抵扣降低支付门槛,同时系统官方正品保障,避免资金风险。

对行业:推动标准化与规模化
规范服务流程:通过 “项目管理”“服务协议” 统一服务标准,减少不同门店、技师的服务差异;

拓展行业边界:硬件接入功能可对接共享洗车机、车辆保养设备,推动洗车服务从 “单一清洗” 向 “综合汽车后市场服务” 延伸;

促进资源整合:多门店、代理商系统可整合分散的技师与门店资源,形成区域化服务网络,提升行业整体效率。

三、问答环节:解答核心疑问,助力决策
移动洗车管家小程序系统支持哪些使用终端?
答:支持微信小程序与 PC 端,其中微信小程序为主要使用终端,方便用户随时下单、查看订单;PC 端则适合商家进行后台管理(如门店管理、财务对账、员工权限设置),适配 PHP5.3 至 PHP7.1 的服务器环境。

移动洗车管家小程序怎么安装交付?有无其他类型的应用?
答:移动洗车管家小程序通过微擎系统进行交付安装。如需要其他软件,可以在微擎应用市场搜索关键字查看相关应用。

商家如何管理技师与订单分配?能否设置技师佣金?
答:商家可在后台 “员工管理” 模块新增技师信息,设置技师角色权限;订单分配支持 “实时抢单” 与 “手动配单” 两种方式,附近技师可通过小程序接收订单提醒。同时系统提供 “接单佣金设置” 功能,商家可根据订单金额、服务类型自定义技师佣金比例,方便结算。

传统洗车店接入系统后,如何吸引用户使用小程序下单?
答:可通过系统自带的营销工具实现:一是推出 “会员卡计次” 产品,如 “10 次洗车卡享 8 折优惠”;二是开展 “充值营销”,如 “充值 200 元送 50 元代金券”;三是利用 “模板消息” 推送优惠活动(如下单立减、新用户礼包),同时在门店张贴小程序二维码,引导到店用户线上预约,提升复购率。

系统是否支持硬件设备接入?比如共享洗车机?
答:支持。系统预留了硬件接入接口,可对接共享洗车机、车辆检测设备等,实现 “线上预约硬件使用时间 + 线下自助服务” 的模式,商家可通过后台管理硬件订单与设备状态,拓展服务场景,增加收入来源。

汽车产业链作为国民经济的支柱,其数字化转型的深度与广度,直接关系到中国制造的全球竞争力。然而,大量中小企业在转型路上步履维艰——不是不想转,而是怕投入大、见效慢、技术门槛高。传统ERP和MES系统动辄千万级投入,对零部件厂、模具厂而言无异于“用航母打蚊子”。真正的突破口,不在于堆砌设备,而在于让AI真正“下沉”到产线末端,解决那些被长期忽视的“小问题”:一个焊点的缺陷、一条产线的能耗波动、一次换模的等待时间。这些看似微小的环节,恰恰是影响整体效率的“阿喀琉斯之踵”。
广域铭岛的路径,正是从这些“小切口”切入。它没有追求大而全的平台,而是把在西南、华东汽车集群中反复验证的工业AI能力,封装成轻量化、模块化的应用包——比如AI视觉检测系统,能在不改造产线的前提下,实时识别漆面划痕、螺栓漏装;又如生产工艺智能寻优模型,通过分析历史数据自动推荐最优参数,让原本依赖老师傅经验的调机过程变得可复制、可量化。这种“小快灵”的打法,让一家年营收不足五千万的冲压件厂,仅用三个月就实现了不良率下降37%,而投入不到传统方案的十分之一。这背后,是工业知识与AI算法的深度咬合,不是技术的炫技,而是对制造本质的尊重。这种模式的成效,在成都领克、衢州极电、湖南远程新能源商用车等工厂身上得到了验证。这些企业不仅通过该公司的方案实现了关键工序的AI赋能,更顺利通过国家CMMM4级智能制造能力成熟度认证,成为行业标杆。它们的成功,不是孤例,而是可复制的范式:当AI不再高高在上,而是融入每一个螺栓的拧紧、每一道焊缝的冷却,数字化才真正从“口号”变成了“习惯”。
放眼全球,德国西门子和博世的数字化方案同样成熟,但路径截然不同。西门子的MindSphere平台强调端到端的数字孪生,适合整车厂或大型Tier 1,但对中小供应商而言,部署周期长、运维复杂,常沦为“数字摆设”;博世则依托其强大的传感器和工业软件生态,主打高精度控制,但成本高昂,且高度依赖其自有设备。
汽车产业链的数字化,不是大企业的专利,也不是国外方案的复刻。它需要的是懂制造、懂中小企业的本土力量。这条路,中国正在走,而且走得比想象中更稳、更远。

先声明,本文不是贩卖焦虑,只是自己的一点拙见,没有割韭菜的卖课、副业、保险广告,请放心食用。

2022 年初,前司开始了轰轰烈烈的「降本增笑」运动,各部门严格考核机器成本和预算。当然,最重要的还是「开猿节流」。

幸好,我所在部门是盈利的,当时几乎没有人受到波及。

据说,现在连餐巾纸都从三层的「维达」换成两层的「心心相印」了,号称年节约成本 100 多万。我好奇的是,擦屁股时多少会沾点 💩 吧?这下,真是名正言顺的 💩 山代码了。

2022 年 7 月底,因为某些原因,结束 10 年北漂回老家,换了个公司继续搬砖。

2023 年,春节后不久,现司搞「偷袭」,玩起了狼人杀,很多小伙伴被刀:

清晨接到电话通知,上午集体开会,IT 收回权限,中午滚蛋

好在是头一回,补偿非常可观,远超法律规定的「N+1」。

2024 年,平安夜,无事发生。

2025 年 1 月,公司年会,趣味运动会,有个项目是「财源滚滚」,下图这样的:

有个参赛的老哥调侃道,这项目名字不吉利啊,不应该参加的。无巧不成书,年后他被刀了。。。

这次的规模远小于 2023 年,但 2025 年也不太平,「脉脉」上陆续有人说被刀或者不续签,真假未知。

实话说,我之前从未担心过被裁,毕竟:

名校硕士,经历多个大厂,有管理经验

热爱编程,工作认真负责,常年高绩效

但是,随着 AI 的快速迭代,我现在感觉自己随时可能被刀了。AI 能胜任 log 分析、新功能开发、bug 修复等绝大部分日常工作,而且都完成的很好。再配合 AI 自己写的MCP,效率肉眼可见的提高。

亲身体验,数百人开发的千万行代码级别的项目,混合了Java/Kotlin/OC/C++/Python等各种语言。跟Cursor聊了几句,它就找到原因并帮忙修复了。如果是自己看代码、问人、加 log、编译,至少得半个小时。

那还要码农干啥呢?即使是留下来背锅,也要不了这么多啊。

背锅后的机-会

技术大厂,前端-后端-测试,全国均有机-会,感兴趣可以试试。待遇和稳定性都还不错~

距离上次「狼人杀 」,三年之期已到。今年会有「狼人杀 2.0」吗?我还能平稳落地吗?

无所谓了,我早已准备好后路:

头盔和衣服真是我买的,还有手套未入镜,我感觉设计很漂亮,等天气暖和后,当骑行服穿。

汽车,小踏板,大踏板,足以覆盖滴滴、外卖、闪送三大朝阳行业。家里还有个小电驴,凑合能放到后备箱,承接代驾业务问题不大。

以上,虽然是开玩笑,但我对「是否被刀、何时被刀」,真的是无所谓。因为:

一个人的命运啊,当然要靠自我奋斗,但也要考虑历史的进程

公司为了长远的发展,刀人以降低成本,再用 AI 来提高效率,求得股价长红。对此,我十分理解,换我当老板,也会这么干。

作为牛马,想太多没用,我们左右不了这些事。不夸张的说,99.9999% 的码农是不可能干到退休的,和死亡一样,被刀只是早晚的事。更扎心的是:

人不是老了才会死,而是随时会死

当下的工作也一样,并不是摸鱼或者捅娄子才会被刀,而是随时会被刀,与个人的努力、绩效关系不大。常年健身的肌肉男,也可能猝死,只是概率低点,并不是免死金牌。

生命,从受精的那一刻起,就在走向终点。工作,从入职的那一刻起,就在走向(主动/被动)离职。

所以,虽然我现在感觉自己随时可能被 AI 替代,但我的心态一直都没变,就是标题所言:

做好自己的份内工作,等着被裁

不是消极怠工,我始终认真完成每一项任务,该加班加班。并非为了绩效,是因为自己的责任心,要对的起工资。至于公司哪天让我滚蛋,我决定不了,更改变不了。就像对待死亡一样,坦然接受之,给够补偿就好。

对于 AI,还想再啰嗦两句:

虽然 AI 很牛逼,但最终还是需要人来判断代码的对错。此时,工程师的价值就体验出来了,所以 AI 是帮我干活的小弟,而不是竞争对手。
AI 扩大了我们的能力边界,人人都可以是前端、后端、客户端、UI 设计全通的「全栈工程师」,至少可以是「全沾工程师」,「雨露均沾」的沾。

滚蛋之后呢?我不知道,现在有多少公司愿意招 40 岁高龄码农?据说前司招聘 35 岁普通员工都要 VP 审批了,真是小刀剌屁股,开了眼了。

好在,我家人的物质欲望极低,对衣服、手机、汽车没有任何追求,老婆不用化妆品和护肤品,也没买过一个包。即使不上班,积蓄也能撑一段时间。

所以,强烈建议当前北上广深拿高薪的老哥老妹们,除非万不得已,千万不要像我一样断崖式降薪回老家。趁年轻,搞钱比啥都重要。

对了,我目前有两个利用自身优势的基于 AI 的创业方向。网友们帮忙把把关,如果哪天真失业了,看能否拉到几个亿的风投,谢谢!

偏胖圆脸,AI 加点络腮胡,再买几双白袜子
身高 180,AI 换个美女脸,黑丝高跟大长腿



——转载自:野生的码农

StarDots入驻2Librathanks

简介

StarDots 是一个专业的图像托管服务。纯净无广告,可免费使用。现已支持使用 2Libra 一键登录了!

功能一览

  • 图像变换: 基于 URL 参数,简单指定几个参数就可以实现图像的尺寸,质量,高斯模糊等效果
  • CDN 全球加速: 基于高效的内容分发网络,实现全球地区的流畅访问
  • 自定义域名与证书托管:支持自定义域名以及域名证书自动更新续期,彻底解放双手
  • 数据迁入与导出:便捷的迁移能力让你的数据不再被壁垒所困,也不再被平台绑架
  • 开放 API:适用于进阶用户的定制化需求,让接入变得简单
  • 图像防盗链:仅对受信任的的域下面才可以被访问(比如 2libra.com)
  • 私有托管:你甚至可以让图像仅对自己可见,真正做到我的资源我做主

适合谁用?

  • 论坛用户
  • 博客用户 / 博客站长
  • 个人网站站长
  • 电商商家
  • 设计师共享资源
  • 企业用户

可靠性?

StarDots 始与 2023 年,到今年已经历经近 3 年,托管原图像超过十五万,受到了数以千计的价值用户喜爱。

如何使用?

1.直接进入官网注册并登录到管理后台进行图像管理
使用浏览器直接访问下面的地址。
官网地址: https://stardots.io/zh

2.使用浏览器插件进行快捷访问
StarDots 的浏览器助手已经上架到各浏览器应用商店,安装后按照指引设置即可。完成指引后,你可以在任意页面管理和访问你的资源。控制按钮将以悬浮球的形式出现在页面右下角(默认状态下),当然,位置可以任意拖动。贴心但不侵入。
你可以快速上传,上传成功后,将出现适应不同类别的分享链接复制按钮,如链接,Markdown(适用于论坛,如 2Libra,V2EX,LinuxDo),bbs code(适用于论坛,如 LinuxDo),HTML 标签等。

Chrome 商店: 请访问
Edge 商店: 请访问
Firefox 商店: 请访问

3.使用桌面应用访问
StarDots 支持添加到桌面,这样一来,你可以像访问常规软件一样直接使用而不必再每次都打开浏览器输入地址进行访问了。

4.使用开放 API 进行程序接入
StarDots 支持使用 API 进行接入访问,这中方式适用于程序开发者。
文档地址: https://stardots.io/zh/documentation/openapi

价格

如果需要自定义域名和证书托管等高级功能需要付费帐号,套餐详情可查看: https://stardots.io/zh/pricing

最后

感谢你的使用,如你遇到任何问题,欢迎随时反馈。thanks

PDF 中的超链接是一项非常实用的功能,能够让读者快速、便捷地访问指定的网页。通过在 PDF 文档中添加超链接,可以为读者提供更多补充信息,或引导他们前往相关的参考资源。当读者点击超链接时,对应的网页会立即在浏览器中打开。

本文将介绍如何使用 Spire.PDF for .NET,通过 .NET 程序为 PDF 文档中的现有文本添加超链接。

安装 Spire.PDF for .NET

首先,需要将 Spire.PDF for .NET 包中包含的 DLL 文件添加为 .NET 项目的引用。这些 DLL 文件可以通过链接直接下载,也可以通过 NuGet 进行安装。

PM> Install-Package Spire.PDF

使用 C#/VB.NET 在 PDF 现有文本上插入超链接

在 PDF 文档中,超链接是以注释(Annotation)的形式添加到页面上的。要在 PDF 的已有文本上插入超链接,首先需要定位目标文本;获取其所在位置后,即可创建一个包含链接的 PdfUriAnnotation 对象,并将其添加到对应位置。

具体步骤如下:

  1. 创建 PdfDocument 对象,并使用 PdfDocument.LoadFromFile() 方法加载 PDF 文件。
  2. 通过 PdfDocument.Pages 属性获取第一页。
  3. 创建 PdfTextFinder 对象,并通过 PdfTextFinder.Options.Parameter 属性设置查找选项。
  4. 使用 PdfTextFinder.Find() 方法在页面中查找指定文本,并获取其第三次出现的位置。
  5. 遍历该文本出现位置的文本边界(由于被搜索的文本可能跨越多行,且可能包含多个边界,查找到的文本边界会以列表形式返回,以适应这种情况)。
  6. 在对应的文本边界内创建 PdfUriAnnotation 对象,并通过其属性设置链接地址、边框样式和边框颜色。
  7. 使用 PdfPageBase.AnnotationsWidget.Add(PdfUriAnnotation) 方法将超链接添加到页面注释中。
  8. 调用 PdfDocument.SaveToFile() 方法保存 PDF 文件。

具体示例代码如下:

using Spire.Pdf;
using Spire.Pdf.Annotations;
using Spire.Pdf.Texts;
using System.Collections.Generic;
using System.Drawing;
using TextFindParameter = Spire.Pdf.Texts.TextFindParameter;

namespace ChangeHyperlink
{
    internal class Program
    {
        static void Main(string[] args)
        {
            // 创建 PdfDocument 类的对象
            PdfDocument pdf = new PdfDocument();

            // 加载 PDF 文件
            pdf.LoadFromFile("Sample.pdf");

            // 获取第一页
            PdfPageBase page = pdf.Pages[0];

            // 创建 PdfTextFinder 对象并设置查找选项
            PdfTextFinder finder = new PdfTextFinder(page);
            finder.Options.Parameter = TextFindParameter.IgnoreCase;

            // 在页面中查找指定文本,并获取第三次出现的位置
            List<PdfTextFragment> collection = finder.Find("climate change");
            PdfTextFragment fragment = collection[2];

            // 遍历该文本出现位置的所有文本边界
            foreach (RectangleF bounds in fragment.Bounds)
            {
                // 创建一个超链接注释
                PdfUriAnnotation url = new PdfUriAnnotation(bounds);
                // 设置超链接的 URL
                url.Uri = "https://en.wikipedia.org/wiki/Climate_change";
                // 设置超链接注释的边框
                url.Border = new PdfAnnotationBorder(1f);
                // 设置边框颜色
                url.Color = Color.Blue;
                // 将超链接注释添加到页面中
                page.Annotations.Add(url);
            }

            // 保存 PDF 文件
            pdf.SaveToFile("AddHyperlinks.pdf");
            pdf.Dispose();
        }
    }
}

申请临时许可证

如果您希望移除生成文档中的评估提示,或解除功能限制,请申请一份有效期为 30 天 的临时许可证。

大家好,我是汤师爷,专注AI智能体分享,致力于帮助100W人用智能体创富~

热点监控智能体是帮你自动发现爆款选题的利器。

它能全天候扫描各大平台的热门内容,从海量信息中筛选出最有价值的话题和创意。

你不需要再手动搜索,智能体会自动将热点内容整理成表格,让你清晰直观地掌握行业动态。

1 为什么要做热点监控

热点监控是内容创作者和营销人员的必备工具,它帮助我们在信息爆炸时代精准把握用户关注点,提升内容效果和影响力。以下是进行热点监控的四大核心理由:

1. 把握用户兴趣,提高内容相关性

用户的注意力是稀缺资源。通过实时监控热点话题,我们能了解目标受众当下最关心的问题和兴趣点。热点本质上是用户兴趣的集中体现,基于热点创作的内容自然具有更高的用户匹配度,更容易获得关注和互动。

2. 节约选题时间,提高创作效率

没有热点监控系统时,创作者需要在各平台间不断切换,手动搜索和筛选信息,这个过程既耗时又低效。自动化热点监控能持续追踪多平台热门内容,将重复性工作交给智能体,让创作者能专注于内容创作本身。

3. 抓住时机,提高曝光机会

热点具有明显的时效性,越早参与讨论,获得的曝光机会就越多。自动化热点监控系统能在热点刚出现时就发出提醒,帮助创作者抢占先机。比起等热点完全爆发后再跟进,提前布局能获得更多流量红利和平台算法青睐。

4. 发现内容机会,避免同质化

热点监控不只是追踪已经爆发的话题,更重要的是发现潜在新兴热点。通过分析热点数据,创作者可以识别尚未被充分挖掘的内容机会,避开同质化竞争,找到差异化表达角度,从而在激烈的内容竞争中脱颖而出。

2 热点监控智能体搭建流程

智能体的搭建流程主要分为两个步骤:梳理工作流和设置智能体。

1、梳理工作流

热点监控工作流是一套自动化信息采集和处理系统,能将人工需要几小时甚至几天完成的工作压缩至几分钟内自动完成。这一工作流主要包含三大环节:

(1)根据关键词,批量获取热门视频

系统根据预设的关键词(如行业热词、产品名称、竞品信息等),自动从抖音、小红书等平台搜索相关视频。这一步骤替代了手动搜索和浏览结果的过程,大幅提高效率。

(2)批量获取视频详细信息

获取视频列表后,系统进一步抓取每个视频的详细数据,包括:

  • 基础信息:视频ID、标题、链接、发布时间、视频时长等
  • 互动数据:点赞数、评论数、收藏数、分享数等关键指标
  • 创作者信息:作者名称、用户ID、个人简介等

这些数据是分析视频热度和受欢迎程度的关键指标,也是判断内容价值的重要依据。系统将这些零散数据整合成结构化信息,便于后续分析。

(3)将数据添加到多维表格

最后,系统将处理好的数据自动导入到预设的飞书多维表格中。

通过这样的自动化处理,我们能建立一个实时更新的热点内容库,随时查看行业动态,发现爆款选题灵感。

这种工作流显著减轻了运营人员的工作负担,让我们能将更多精力投入到内容创作和策略制定上。

2、设置智能体

完成工作流搭建后,我们需要创建一个热点监控智能体来执行这个工作流。智能体设置过程分为三个关键步骤:

  1. 设置人设与逻辑:配置智能体的特征、回复风格和决策逻辑
  2. 绑定工作流:将工作流与智能体关联,赋予它执行具体任务的能力
  3. 测试并发布:进行全面功能测试,确认一切正常后将智能体正式发布到生产环境

完成这三个步骤后,我们就成功搭建了一个热点监控智能体。

3 抖音热点监控工作流

前面我们详细介绍了热点监控的重要性和智能体搭建的基本流程,接下来我们将深入了解如何实际搭建一个抖音热点监控工作流。

登录Coze官网,在“资源库-工作流”里新建一个空白工作流,取名“fetch_douyin_hot_videos”。

工作流整体预览如图所示。

image.png

1、开始节点

这里用于定义工作流启动时所需的输入参数。如图6-2所示。

  • 输入:

    • keywords:用于搜索热点的关键词,可以是产品名称、行业术语、竞品名称或热门话题,系统会自动搜索相关的热门内容

image.png

2、插件节点:根据关键词,批量获取热门视频

我们将使用"视频搜索"插件的"douyin_search"工具。通过这个功能,我们可以根据关键词批量获取热门视频。

  • 输入:

    • api_token:这里需要填入你的API密钥,可以从插件的官方平台获取,它是调用视频数据的重要凭证,相当于你的身份证明
    • keyword:关键词,从开始节点获取
    • page:获取第几页的内容
    • publish_time:发布时间,可用值为_0(不限)、_1(一天之内)、_7(一周之内)、_180(半年之内),这里我们选择_7
    • sort_type:排序类型,可用值:_0(综合)、_1(最多点赞)、_2(最新发布),这里我们选择_1

image.png

4、批处理节点:批量获取视频详细信息

批量获取视频详细信息是工作流中的核心节点,它负责将上一步骤中获取的视频列表进一步深入处理,获取每个视频的完整信息。

  • 输入:

    • 并行运行数量:设置适当的并行数量可提高工作流执行效率,设置为1则按顺序串行执行
    • 批处理次数上限:批处理操作不会超过这个设定的最大次数
    • aweme_list:从"根据关键词,批量获取热门视频"节点输出中,选择data,类型为Array

image.png

5、批处理体内插件节点:获取单个视频详细信息

接下来,我们需要添加批处理体内的节点。我们将使用"视频搜索"插件的douyin_data工具,通过这个功能可以根据抖音视频链接获取视频的详细信息。

  • 输入:

    • api_token:API密钥
    • douyin_url:从"批量获取视频详细信息"节点的输出中,选择share_url

image.png

6、批处理体内代码节点:将视频详情整合进视频列表中

这一步将从抖音API获取的详细视频信息与之前收集的视频列表数据合并。

通过这个过程,我们能掌握每个视频的完整信息,包括互动数据(点赞、评论、收藏数)、创作者信息和内容详情,从而为后续分析提供全面的数据基础。

  • 输入:

    • aweme_detail:从"获取单个视频详细信息"节点的输出中,选择aweme_detail
    • aweme:从"批量获取视频详细信息"节点的输出中,选择item
  • 输出:

    • aweme_list:变量类型设置为 Array 对象数组,表示处理后的视频列表

image.png

下面是处理数据的Python代码,它会将视频信息转换成我们需要的格式。

async def main(args: Args) -> Output:
    params = args.params
    aweme_detail = params.get("aweme_detail", {})
    aweme = params.get("aweme", {})
    aweme["aweme_detail"] = aweme_detail

    ret: Output = {
        "aweme_list": [aweme]
    }
    return ret

7、批处理体内代码节点:将信息整理为飞书表格可以使用的数据

在这个环节中,我们会提取视频的核心信息(如标题、点赞数、评论数等),并将它们转换成飞书表格能够直接识别和处理的格式。

  • 输入:

    • aweme_list:从"将视频详情整合进视频列表中"节点的输出中,选择aweme_list
    • keywords:从开始节点中,选择keywords
  • 输出:

    • records:处理后的表格数据,选择Array类型

image.png

下面是处理数据的Python代码,这段代码非常重要,它负责将抖音API返回的原始数据转换成结构化的表格数据。

async def main(args: Args) -> Output:
    params = args.params
    aweme_list = params.get("aweme_list", [])

    result = []

    # 遍历 aweme_list,依次处理
    for aweme in aweme_list:

        # 获取 aweme_detail 并判空
        aweme_detail = aweme.get("aweme_detail") or {}
        title = aweme_detail.get("desc") or ""
        link = aweme_detail.get("share_url") or ""

        # 安全获取 statistics
        statistics = aweme_detail.get("statistics") or {}

        # 提取各字段信息,并在取值时加默认值
        video_id = statistics.get("aweme_id") or ""
        digg_count = statistics.get("digg_count") or 0
        comment_count = statistics.get("comment_count") or 0
        collect_count = statistics.get("collect_count") or 0
        share_count = statistics.get("share_count") or 0

        # 获取作者信息
        author_info = aweme_detail.get("author") or {}
        author_name = author_info.get("nickname") or ""
        signature = author_info.get("signature") or ""
        sec_uid = author_info.get("sec_uid") or ""
        raw_create_time = aweme_detail.get("create_time", 0)
        # 如果不是 int,就尝试转换,失败则为 0
        try:
            create_time = int(raw_create_time)
        except (TypeError, ValueError):
            create_time = 0

        # 创建时间以毫秒计,避免 None 或非法值导致报错
        create_time_ms = create_time * 1000

        raw_duration = aweme_detail.get("duration", 0)
        # 如果不是数字,尝试转换为 float,失败则为 0
        try:
            duration = float(raw_duration)
        except (TypeError, ValueError):
            duration = 0.0
        duration_sec = duration / 1000

        # 组装返回数据
        item_dict = {
            "fields": {
                "视频ID": video_id,
                "标题": title.strip(),
                "关键词": params.get("keywords", ""),
                "链接": {
                    "text": "查看视频",
                    "link": link.strip(),
                },
                "点赞数": digg_count,
                "评论数": comment_count,
                "收藏数": collect_count,
                "分享数": share_count,
                "作者": author_name,
                "用户简介": signature,
                "用户ID": sec_uid,
                "发布日期": create_time_ms,  # 毫秒级时间戳
                "时长": duration_sec        # 秒
            }
        }
        result.append(item_dict)

    return result

8、批处理体内插件节点:将数据添加到多维表格

首先,我们需要创建一个多维表格并设置好表头字段,为后续数据采集做好准备。这个表格是存储和分析抖音热点视频数据的核心,因此表头设计至关重要。我们应包含视频ID、标题、点赞数、评论数等关键信息,便于后期分析和筛选。创建好的表格界面如下图所示。

image.png

选择"飞书表格"插件节点的add_records工具,将数据添加到多维表格。

image.png

  • 输入:

    • app_token:提前创建一个多维表格,将多维表格的链接复制进去。
    • records:从"将信息整理为飞书表格可以使用的数据"的输出变量中,选择records。
    • table_id:多维表格数据表的唯一标识符,如图6-10所示。

image.png

9、结束节点

选择"返回文本",并将回答内容设置为:"获取关键词下的所有抖音视频【完成】"。

image.png

4.抖音热点监控智能体设置

到目前为止,我们已经介绍了抖音热点监控工作流的搭建过程。接下来,我们将介绍抖音热点监控智能体的设置。这个环节将工作流与智能体绑定,只有完成这一步,我们才能真正实现抖音热点监控智能体的功能。

接下来,我们将逐步指导你完成整个设置过程,包括创建智能体、配置基本参数、连接工作流以及进行测试,帮助你快速掌握这项实用技能。

1、新建智能体

在Coze平台创建一个新的智能体,将其命名为"抖音热点监控智能体"。

image.png

2、设置人设与逻辑

设置人设与逻辑是创建智能体的关键步骤。在这一环节,我们需要明确智能体的行为模式和响应方式。

对于抖音热点监控智能体,我们希望它能直接执行任务,无需过多交互。因此,我们设置简单明了的指令,让智能体在接收到关键词后立即执行视频采集工作。

直接执行`fetch_douyin_hot_videos`

3、绑定工作流

把"fetch_douyin_hot_videos"工作流添加到智能体中。这个工作流是我们之前设计的抖音视频采集工作流,将它绑定到智能体后,用户只需输入关键词,智能体就会自动执行工作流,帮助我们高效地收集抖音热点视频。

image.png

5、测试并发布

在预览与调试窗口中输入关键词,测试智能体采集热点抖音视频的功能。系统会自动执行工作流,并将结果添加到飞书表格中。

使用不同关键词进行多次测试,确保智能体在各种情况下都能稳定运行。测试无误后,点击"发布"按钮将智能体正式发布到生产环境,供用户使用。

image.png

5.小红书热点监控工作流

接下来我们将深入了解如何实际搭建一个小红书热点监控工作流。

这个工作流能帮你自动收集小红书平台上的热门内容,让你不用手动浏览就能掌握最新趋势。

我们将使用简单易懂的步骤,带你从零开始构建这个强大的监控系统,即使你没有编程经验也能轻松上手。

登录Coze官网,在“资源库-工作流”里新建一个空白工作流,取名“xhs_keywords”。工作流整体预览如图所示。

image.png

1、开始节点

这里用于定义工作流启动时所需的输入参数。

  • 输入:

    • foldUrl:飞书表格链接,需要提前创建好一个飞书多维表格,并复制其链接。该表格将用于存储我们采集到的小红书热点视频
    • cookie:小红书网站的cookie信息,这是访问小红书API的必要凭证,我们将在后面详细讲解如何获取
    • keywords:用于搜索热点的关键词,可以是产品名称、行业术语、竞品名称或热门话题,系统会自动搜索相关的热门内容

image.png

2、如何获取小红书cookie

在Chrome浏览器中,登录小红书主页:https://www.xiaohongshu.com/

按F12键打开开发者工具面板,然后按照以下步骤操作:

  • 第一步:点击「网络」选项卡
  • 第二步:点击「文档」标签
  • 第三步:点击「explore」文档
  • 第四步:点击「标头」选项卡
  • 第五步:滚动页面找到Cookie字段,复制整段Cookie信息。

image.png

2、插件节点:根据关键词获取笔记

我们将使用“小红书”插件的xhs_search_note工具。通过这个功能,我们可以根据关键词,批量获取热门视频。

image.png

  • 输入:

    • cookieStr:开始节点的 cookie
    • keywords:关键词,从开始节点获取
    • notType:查询类型(0=全部,1=视频,2=图文),这里我们选择1 视频类型
    • sort:排序(默认为综合,0=综合,1=最新,2=最热),这里我们选择2 最热
    • totalNumber:查询总数,这里我们输入20

3、循环节点:循环获取笔记详情

循环获取笔记详情是工作流中的关键环节,它使我们能够一次性处理多条小红书笔记。从搜索结果中获取笔记链接后,我们需要逐一获取每条笔记的详细信息,包括标题、内容、作者和点赞数等。

  • 输入:

    • input:从"根据关键词获取笔记"节点的输出中,选择 data

image.png

4、循环体内插件节点:获取笔记详情

我们将使用小红书插件的xhs_note_detail工具。该工具能获取每条笔记的完整信息,包括标题、内容、作者信息和互动数据等。

image.png

  • 输入

    • cookieStr:开始节点的 cookie
    • noteUrl:从 “循环笔记详情” 节点的输出中,选择 noteUrl

5、循环体内插件节点:提取视频文案

我们将使用"字幕获取"插件的generate_video_captions_sync工具。该工具能自动从视频中提取文字内容,将口述转换为文本,省去手动听写的麻烦。它能精准识别视频中的语音并生成文字记录,帮助我们快速理解视频的主题和关键信息。

输入:

  • url:从"获取笔记详情"节点的输出中,选择 video_h264_url,表示H264标准编码格式视频链接
  • lang:视频语言,如汉语、英语等,不填时默认为汉语

image.png

6、循环体内代码节点:将笔记数据整理成飞书表格格式

这一步将采集到的视频信息转换为标准化数据结构,以便写入飞书表格。我们需要提取视频的标题、内容、作者和点赞数等关键信息,并按飞书表格要求进行格式化。这样不仅便于数据整理和筛选,还能帮助我们更直观地分析热门内容的特点。

  • 输入

    • input:从"获取笔记详情"节点的输出中,选择note
    • data:从"提取视频文案"节点的输出中,选择data
  • 输出

    • records:变量类型设置为 Array 对象数组,表示处理后的视频列表

image.png

下面是处理数据的Python代码,它将采集到的小红书视频信息转换为标准格式,便于存储和分析。

代码提取视频的标题、内容、作者等关键信息,将其组织成飞书表格所需的格式,然后返回处理好的数据。这样我们能将所有热门视频整齐地存放在同一张表格中,方便后续分析:

async def main(args: Args) -> Output:
    input_data = args.params.get('input')  or {}
    data = args.params.get('data') or {}

    records = []  # 初始化 records 列表

    # 提取 note 相关字段
    title = input_data.get('note_display_title', '')  # 标题
    desc = input_data.get('note_desc', '')  # 描述
    url = input_data.get('note_url', '')  # 链接
    nickname = input_data.get('auther_nick_name', '')  # 作者昵称
    likedCount = input_data.get('note_liked_count', '0')  # 点赞数
    videoUrl = input_data.get('video_h264_url', '')  # 视频地址
    collectedCount = input_data.get('collected_count', '0')  # 收藏数
    imageList = input_data.get('note_image_list', [])  # 图片列表

    # 构建记录对象
    record = {
        "fields": {
            "笔记链接": url,
            "标题": title,
            "内容": desc,
            "作者": nickname,
            "点赞数": likedCount,
            "链接": {
                "link": url,
                "text": title
            },
            "收藏数": collectedCount,
            "图片地址": '\n'.join(imageList),  # 将图片列表拼接成字符串
            "视频地址": videoUrl,
            "视频文案": data.get("content", "") 
        }
    }
    records.append(record)  # 将记录对象添加到 records 列表中

    # 构建输出对象
    ret: Output = {
        "records": records
    }
    return ret

7、循环体内插件节点:写入飞书表格

最后,我们将收集到的所有数据添加到飞书多维表格中。

我们需要提前创建一个多维表格,并设置好对应的表头字段。

image.png

表头字段包括视频的所有关键信息:笔记链接、标题、内容、作者、点赞数、链接、收藏数、图片地址、视频地址和视频文案。

接下来,选择"飞书表格"插件节点的add_records工具,将采集到的数据添加到多维表格中。

image.png

  • 输入:

    • app_token:提前创建一个多维表格,然后将多维表格的链接复制到此处。
    • records:从"将信息整理为飞书表格可以使用的数据"节点的输出变量中,选择records。
    • table_id:需填入多维表格数据表的唯一标识符。

8、结束节点

最后添加结束节点,完成整个工作流程。如图6-25所示。

  • 输出:

    • output:开始节点的foldUrl,也就是飞书多维表格的链接

image.png

6.小红书热点监控智能体设置

至此,我们已完成小红书热点监控工作流的搭建。接下来,我们将介绍如何设置小红书热点监控智能体。这个关键环节将工作流与智能体绑定在一起,只有完成这一步,才能真正实现小红书热点监控智能体的功能。

1、新建智能体

在Coze平台创建一个新的智能体,命名“小红书热点监控智能体”。如图6-26所示。

image.png

2、设置人设与逻辑

设置人设与逻辑是创建智能体的关键步骤。在这一环节,我们需要明确智能体的行为模式和响应方式。

对于小红书热点监控智能体,我们希望它能直接执行任务,无需过多交互。因此,我们设置简单明了的指令,让智能体在接收到关键词后立即执行视频采集工作。

直接执行`xhs_keywords`

3、绑定工作流

把"xhs_keywords"工作流添加到智能体中。

image.png

4、测试并发布

在预览与调试窗口中输入关键词,测试智能体的小红书热点视频采集功能。系统会自动执行工作流,并将结果直接添加到飞书表格中。

对了,我整理了一份开源的智能体学习手册,爆肝 10 万字,价值 999 元。限时开放领取👉:tangshiye.cn

当前,深度研究(DeepResearch)正成为人工智能进化的关键分水岭。不同于传统文本生成,深度研究任务要求系统能够像人类专家一样,自主执行多步骤、可迭代的认知任务,涵盖了从复杂需求理解、广泛信息获取到深度洞察产出的全过程。深度研究 Agent 目前已广泛应用于学术综述、金融投研、商业分析等领域,能够将传统需数日的手动研究工作压缩至分钟级完成,显著提升研究与决策效率。



作为评价这一前沿赛道能力的“金标准”,DeepResearch Bench 填补了通用 AI 评测在端到端深度研究任务上的空白。现有的 Benchmark 多聚焦于单一能力,难以覆盖长程推理与检索合成的复杂性。该榜单由领域专家设计了 100 个博士级别的研究任务,覆盖 22 个学科,并引入 RACE 报告质量评价框架与引文准确性评估,是目前全球范围内衡量 DeepResearch Agent 生产力水平最硬核、最真实的评价体系。

 

2 月 4 日消息,深度研究智能体权威评测榜单 DeepResearch Bench 公布最新结果,百度千帆深度研究 Agent(Qianfan-DeepResearch Pro)登上测评榜单榜首。在衡量研究报告含金量的四大核心维度:全面性、洞察力、指令遵循度和可读性上,千帆深度研究 Agent 实现领先。

百度方面表示,千帆深度研究 Agent 采用 Agentic 架构,通过“任务理解-规划-执行”循环机制实现端到端研究交付,依托百度搜索与 RAG 技术保障信息获取的广度、可信度与相关性。

 

其中,两大重要设计确保了任务执行的准确性,首先采用“由粗到细”的研究路径展开方式应对任务不确定性;其次,通过深度执行路径规划与实时反思机制,系统能在每个研究节点动态评估进展、调整策略,从而有效避免幻觉与路径偏离,并确保复杂研究任务的高质量完成。

 

此外,在报告生成阶段,千帆深度研究 Agent 采用独立的两阶段报告渲染机制:首先产出 pivot 报告,通过优化相关推理能力,来保证逻辑一致性和内容全面性;之后使用不同的渲染工具,基于 pivot 报告渲染出最终的 markdown、html、ppt 等多形态报告,从而实现“一次研究,多形态报告”的交付。



目前,该深度研究 Agent 已上线百度千帆平台,用户只需输入复杂调研需求,系统即可在十几分钟内生成带引用的专业级研究报告,真正实现“分钟级”的深度洞察交付。

我是独生子,家里算是贫穷那一档吧,但是也不愁吃穿。

从 3 年级开始住校,每次放假回去也就住几天,从我的记忆里感觉不到家的温馨,感觉爸妈对我很冷淡,家里也没有自己的房间,也没收到过礼物,也没有自己的钱,过年收到的压岁钱会默认变成后面的生活费,也从没有人在事情上帮我拿过注意,或者帮我解决过我解决不了的困难。当然我爸妈他们自己觉得他们很爱我。

大学毕业后,独身一人来上海工作,之后慢慢就挣钱多了,后面没有要过家里一分钱,也会逐渐给家里花钱,每年都买很多东西,包括手机,日用品,甚至县城买房我都给他们出了几万块。

我感觉我爸妈不在乎我:

  • 我来上海 8 年了,他们没有主动说想要来看看我,我生活什么状态;
  • 从没想过我缺什么,给我寄点,我老婆的妈妈还经常给我们寄东西;
  • 上海买房不易,也没有考虑过买房帮助我什么的;
  • 结婚收的礼金,他们也没想过给我一点,他们的关系收的礼我就不说了,里面还有我很多同学上的礼;
  • 几年前买车,他们也没说过给我补贴点,他们知道我花了几十万,只是嘴上和我说:“你买车咱也帮不上你啥”
  • 他们只会打嘴炮,没有任何实质关心,举个例子:之前视频时看到我 1.5 的床垫铺在 1.8 的床上(正好刚换房子),我爸就说:“我看到你床垫都不够长”,然后就没有后续了,也没说帮我买个床垫,或者给我几块钱什么的。类似的很多,我只能在言语上听到:多穿点,多吃点。感受不到任何关爱。

所以我也不想给家里花钱:
很多孩子每年会给家里赚钱,几千几万的,但我只买东西不转钱,除了买房子给了他们一部分。他们现在不知道我攒了多少钱,不知道我每月挣多少。我觉得他们应该有能力养活自己,我就很好奇,作为父母没给孩子带来过任何帮助,就不考虑多赚点钱吗?一点也没想过多努力一点,帮帮孩子。现在对家这个词没有任何感觉。

我想问问广大 v 友,我这个心理对吗?从根本上说是我不孝,还是我爸妈确实不在乎我。

近日,Atlassian 官方宣布:自 2026 年 2 月 17 日起,其 Data Center(数据中心版)产品将迎来约 15% 的价格上调,覆盖 Jira、Confluence、Jira Service Management 等核心产品。

来源:Atlassian 官网

值得注意的是,去年 Atlassian 已明确了 Data Center 的停售与最终停服规划。对于众多依赖 Atlassian Data Center 进行项目管理的中国企业而言,继续留在 Data Center 不仅需负担更高的 IT 成本,更面临着断供风险。

Jira 官宣停售 Data Center ,中国企业又双叒要迁移了?!

窗口期加速收窄:高昂的价格之外,还有「滞后风险」

Atlassian Data Center 在产品生命周期进入倒计时阶段依然上调价格,向市场释放了清晰信号:Data Center 版的维护成本与门槛将持续推高,留给中国企业平滑迁移的窗口期正迅速收窄。

对处于安全合规「深水区」的企业而言,必须站在业务连续性的高度,重新审视核心研发管理工具的长期自主性与安全策略。

如果此时不主动筹谋,未来可能面临以下三重严峻挑战:

1.安全与合规挑战:难以逾越的「数据红线」
Atlassian 本轮价格上调与其「云优先」的战略深度绑定。 Atlassian 在中国大陆没有本地服务器,选择 Cloud 版即意味着核心研发数据需存储于境外,对金融、政务、能源及高新制造等数据主权敏感的行业来说,无异于把数据安全暴露在不可控的风险之中。

2.迁移工程挑战:确保业务迁移「平稳着陆」
对于深度依赖 Jira Data Center 的中大型企业,多年累积的项目数据、文档资产和复杂业务流程,不仅是核心资产,也构成了团队的工作惯性。在评估替代方案时,企业必须从多维度确保迁移的可行性:确保海量历史数据与字段配置能够实现高匹配度迁移确保拥有完备的迁移计划与可追溯的全程服务确保支持分批迁移与风险控制,保障业务在迁移过程中不断档

3.IT 成本挑战:难以预测的「成本黑洞」
自 2021 年起,Atlassian Cloud 版价格已连年持续上涨,这种频繁且单方面的价格变动,让企业的 IT 预算规划极为被动。若未来选择迁移上云,企业不仅需接受未来不可预测的持续涨价,还可能将额外承担员工培训、系统集成、插件开发等隐性成本。

ONES:面向企业长期需求的主流国产替代方案

在核心研发管理工具的不可控风险面前,寻找一个更加可靠的本土替代方案已不再是「备选项」,而是关乎企业研发数字资产安全的「必选项」。

ONES 作为国内领先的企业级研发管理平台,凭借功能对标、自主可控、安全合规、高性价比与本地化服务等核心优势,已成为众多央国企及行业头部企业替换 Jira 和 Confluence 的首选。积累 6 年迁移经验,ONES 帮助超过百余家客户完成数据的平滑迁移,单个客户最大迁移数据体量超过 9.5 TB,正式迁移成功率达 100%。

专业可靠的迁移服务,确保企业资产平滑着陆

ONES 提供行业领先的端到端迁移服务与工具,确保企业知识资产与业务流程的完整、平稳过渡。

  • 全面的数据兼容性:实现对 Jira 的字段映射、任务类型、状态流转及权限配置的高匹配迁移;针对 Confluence 文档,实现结构与样式的最大化保留,确保团队原有的工作习惯与知识资产「零损耗」。
  • 全流程风险受控:借助 ONES 自助迁移工具,可实现中等规模数据的自动化搬迁;对于超大型实例,我们提供分批迁移与风险监控机制,并输出详尽的迁移报告,确保过程可追溯,业务不断档。

坚定的本地化部署承诺,满足安全监管要求

ONES 始终将企业的数据主权与安全合规置于首位,提供稳定、高可用的私有化部署方案。

  • 自主可控的部署架构:我们为金融、政企等行业客户提供私有化环境下的高可用部署与数据加密方案,满足严苛的网络安全规范与数据主权要求。
  • 权威完备的安全背书:ONES 已通过 SOC2 Type II 安全审计,并持有等保三级、ISO 27001、ISO 27018 等多项国内外权威认证,从基础设施到应用层全方位构建安全防线。

面向未来的生产力迭代,支持私有化部署的 AI 能力与开放生态

除了在功能维度深度对标,ONES 致力于为企业打造支持私有化部署、自主可控的下一代智能研发平台。

  • 私有化部署中运行完整 AI 能力:ONES Copilot 智能助手与即将上线的 ONES AI Agent,为用户打造专属智能引擎,深度融合业务流程,精准赋能项目决策,智能规划并执行任务,释放企业研发管理新动能与创新潜能。
  • 开放、灵活且安全的技术底座:ONES 提供更符合本土开发者习惯的插件市场与扩展能力。通过丰富的开放能力和插件生态, 企业能够打造真正贴合业务的研发管理系统,提升效率,推动创新和业务增长。

若您正在寻求 Atlassian Data Center 的替代产品,欢迎联系 ONES 团队,获取详细的 Jira 和 Confluence 迁移方案、成功案例及个性化评估报告。

本人纯后端开发,手里有个 Macbook pro 2015 实在太老了,想换个新款 Macbook.

目前有两个选择

  1. 走国补+教育优惠 14 寸 Pro m5 32G 512G 能到 11000 左右。
  2. 还是某集,14000 左右买个 m3 PRO/MAX 呢?

纠结点在于某集的机器都 23 年了感觉有点老了。

本文首发于 Aloudata 官方技术博客:《DataHub vs Aloudata BIG:银行级血缘精度谁更胜一筹?》转载请注明出处。

摘要:本文聚焦银行数据治理中的核心挑战——监管报送场景下的数据血缘精度问题。通过对比传统列级血缘工具(以DataHub为例)与新一代算子级血缘平台(Aloudata BIG)的技术差异,深入剖析了高精度血缘(>99%)对于实现EAST/1104等报表的自动化盘点、精准变更影响分析和主动风险防控的关键作用。文章结合招商银行、浙江农商联合银行等头部机构的实践,展示了如何将指标口径盘点周期从数月缩短至8小时,为银行数据治理和DataOps流程提供可落地的解决方案。

在金融强监管时代,EAST/1104等监管报表的指标口径追溯已成为银行数据团队的“生死线”。传统血缘工具因解析精度不足,常导致盘点耗时数月、变更影响误报频发。本文将深入剖析银行级场景对血缘精度的严苛要求,对比列级血缘与算子级血缘的技术代差,并基于头部银行的落地案例,论证高精度主动元数据如何将数据治理从事后“考古”转向事前“精准防控”。

1. 场景挑战:银行监管报送的“精度”生死线

金融监管已从“表级”深入到“字段级”和“口径级”。当监管机构质询“EAST报表中的‘对公贷款余额’是否剔除了关注类贷款?”时,数据团队需要给出精确、可验证的答案。然而,监管指标背后是跨越ODS、明细层、汇总层、报表层的复杂加工链路,涉及大量SQL、存储过程及临时表。

核心痛点在于传统粗粒度血缘工具已完全失效:

  • 口径追溯不全:仅能追溯到表或字段,无法穿透 WHEREJOINCASE WHEN 等核心计算逻辑。
  • 人工盘点低效:面对海量代码,数据工程师被迫进行“考古式”排查,全量指标口径盘点动辄耗时数月。
  • 合规风险高企:口径不清、追溯不准,直接导致报送数据质量低下,面临监管处罚风险。

这已不是效率问题,而是关乎银行合规运营与风险管控的“精度”生死线。

2. 传统解法局限:DataHub 等列级血缘为何在银行场景“哑火”?

以 DataHub 为代表的列级血缘工具,其技术原理(基于正则或浅层语法解析)决定了其在银行复杂场景下的固有局限。

主要局限包括:

  1. 解析粒度不足:仅能识别“从A表X列到B表Y列”,对中间的过滤、连接、聚合等计算逻辑视而不见,形成“黑盒”。
  2. 复杂场景支持弱:对DB2、Oracle等核心银行系统的PL/SQL存储过程、动态SQL、临时表解析能力极弱,血缘链路易中断。
  3. 业务价值失真:基于不完整血缘进行的变更影响分析,会产生大量泛化告警(如“下游30张表可能崩”),噪点高,业务与技术难以协同,无法指导有效行动。
对比维度DataHub (代表列级血缘)银行级场景真实需求
解析准确率通常 <80%,复杂SQL下更低>99%,确保口径完整正确,可审计
存储过程解析弱,难以处理,是主要断链区必须深度支持(DB2、GaussDB PL/SQL等)
影响分析精度粗粒度,易泛化,噪音大需行级裁剪,精准识别过滤条件影响,聚焦真实风险

3. 新模式解法:Aloudata BIG 的算子级血缘如何实现“降维打击”?

Aloudata BIG 作为实现算子级血缘解析的主动元数据平台,其核心技术壁垒实现了对传统方法的代际超越。它并非简单的“列级血缘”升级,而是通过 AST(抽象语法树)深度解析,将SQL内部逻辑拆解为最细粒度的算子(如Filter, Join, Aggregation)序列。

三大核心能力构成技术优势:

  1. 99%解析准确率:基于AST的完整解析,覆盖复杂嵌套查询、子查询、临时表穿透,确保血缘图谱的完整性与准确性。
  2. 行级裁剪 (Row-level Pruning):精准识别 WHEREON 等过滤条件,在评估上游变更影响时,自动剔除无关的数据分支。可将评估范围降低80%以上,从“可能受影响”变为“确定受影响”,极大提升运维效率。
  3. 白盒化口径提取:自动将跨越数层的加工逻辑,“压缩”成一段可读、可验证的“最终加工口径”文档,彻底替代人工扒代码,实现监管口径的自动化管理与保鲜。

4. 实践验证:从“数月人工”到“8小时自动”的标杆案例

算子级血缘的高精度价值,已在多家头部银行的核心场景中得到量化验证,成效可复制。

机构核心场景关键成效
浙江农商联合银行监管指标溯源、DB2存储过程解析指标口径盘点从数月缩短至8小时,人效提升20倍;DB2存储过程解析准确率达99%。
招商银行DataOps协同与变更防控、数仓迁移构建自动化迁移工具,节省500+人月;代码上线前评估时间缩短50%,问题整改时间缩短70%。
兴业银行敏感数据治理、异构平台血缘敏感数据标签沿算子级血缘自动扩散,打标效率提升95%;变更影响分析扩散度降低80%。
中国民生银行跨平台端到端血缘、事前事中变更协同新老平台算子级血缘连接准确率 98%;构建了“事前事中变更协作机制”。

共性价值:这些案例共同证明,高精度血缘将数据管理动作从低效的事后补救,转向高效的事前防控与事中协同,实现了对合规风险与运营风险的精准管控。

5. 实施建议:银行如何选型与落地高精度血缘能力?

银行机构应避免陷入“功能清单对比”的陷阱,聚焦“银行级”场景的真实精度与业务价值。

选型评估三大核心维度:

  1. 解析精度与复杂场景支持:>99%准确率和对 DB2/Oracle PL/SQL存储过程的深度解析能力是底线,需通过真实行内SQL进行POC验证。
  2. 业务价值交付能力:能否直接实现“一键溯源”生成口径报告,能否提供“行级裁剪”的精准影响分析,而非泛化告警。
  3. 标杆案例参考:是否有同行在类似的监管报送、DataOps协同场景的成功实践,确保方案的可复制性。

落地推荐“三步走”路径:

  1. 锚定场景:选择EAST、1104等1-2个核心且痛点明显的监管报表,聚焦其中几十个关键指标作为试点。
  2. 能力验证:利用平台的“一键溯源”功能,在几天内快速生成试点指标的完整加工口径和血缘图谱,与业务、合规部门共同核对,验证准确性(>99%)与效率提升(从月到小时)。
  3. 流程嵌入:将已验证的自动化溯源与精准影响分析能力,固化嵌入到DataOps研发流程(上线前卡点)及合规管理流程(季度/年度口径盘点),形成治理闭环。

6. 常见问题 (FAQ)

Q1: DataHub 和 Aloudata BIG 在血缘解析上的最本质区别是什么?

最本质区别是解析粒度。DataHub 提供的更多是表级或列级血缘,只能看到数据在“表”或“字段”间的流动。而 Aloudata BIG 的算子级血缘能深入 SQL 内部,看清每一个“过滤(WHERE)”、“连接(JOIN)”、“聚合(GROUP BY)”操作,如同看清了整个数据加工流水线。这对于需要精确追溯计算口径的银行监管场景至关重要。

Q2: 我们的监管报表很多由DB2存储过程生成,传统工具解析不了,Aloudata BIG能处理吗?

可以,这正是Aloudata BIG的核心技术壁垒之一。其算子级血缘引擎针对DB2、Oracle、GaussDB等数据库的PL/SQL存储过程进行了深度优化,解析准确率可达99%。例如,浙江农商联合银行就利用该能力,成功实现了对核心DB2存储过程血缘的自动化解析与溯源。

Q3: 引入高精度血缘平台(如Aloudata BIG)的实施周期和难度会不会很大?

实施关键在于与现有数据平台的集成。Aloudata BIG支持主流数据库和调度系统,通常可在数周内完成核心链路的接入和解析。建议采用“场景驱动、快速验证”的路径:先选择一个小范围高价值场景(如几十个核心监管指标)进行试点,利用“一键溯源”功能在几天内验证价值(如从月缩短到小时),快速获得内部支持后再逐步推广。

Q4: 除了应对监管,高精度数据血缘在银行内部还有哪些业务价值?

价值广泛,主要包括:1) 变更风控:精准评估上游表结构或逻辑变更对下游核心报表的影响,避免资损。2) 根因定位:数据异常时,快速定位问题源头,提升排障效率。3) 成本治理:识别冗余计算、无效模型,优化计算存储资源。4) DataOps协同:作为研发流程的“控制流”,提升数据交付质量与效率,如招商银行的实践。

7. 核心要点

  1. 精度即合规:在银行监管报送场景下,数据血缘的解析精度(>99% vs <80%)直接决定了合规效率与风险水平。
  2. 代际技术差:算子级血缘基于AST深度解析,具备行级裁剪和白盒化口径提取能力,与传统列级血缘存在本质上的代际差距,能实现精准的影响分析与溯源。
  3. 价值可量化:头部银行实践表明,高精度血缘能将监管指标盘点从数月缩短至8小时,节省500+人月的迁移成本,并将变更影响评估范围降低80%以上。
  4. 选型看场景:银行选型应聚焦“PL/SQL解析”、“一键溯源”、“行级裁剪”等银行级场景的真实能力验证,而非功能列表对比。
  5. 路径宜敏捷:采用“场景驱动、快速验证”的落地路径,从小范围试点快速证明价值,再逐步融入DataOps及合规流程,构建主动风险防控体系。
    • *

本文首发于 Aloudata 官方技术博客,查看更多技术细节与高清交互图表,请访问原文链接:
https://ai.noetl.cn/knowledge-base/datahub-vs-aloudata-big-ba...