MacBook Apple Care 快到期了,要不要用掉?
之前有次意外进水,还好及时关机送去直营店处理,还能正常使用。
3 月份 apple care 就要到期了,是否有必要用 apple care 把主板换掉,需要自费 2000+。配置是 MacBook Pro M1 32G 1T 。
xiaohack博客专注前沿科技动态与实用技术干货分享,涵盖 AI 代理、大模型应用、编程工具、文档解析、SEO 实战、自动化部署等内容,提供开源项目教程、科技资讯日报、工具使用指南,助力开发者、AI 爱好者获取前沿技术与实战经验。
之前有次意外进水,还好及时关机送去直营店处理,还能正常使用。
3 月份 apple care 就要到期了,是否有必要用 apple care 把主板换掉,需要自费 2000+。配置是 MacBook Pro M1 32G 1T 。
Spring Cloud 系列简介简介:从单体架构到分布式架构,再到微服务架构,一路经历走来spring框架也一直在与时俱进,回顾下来感觉做Java开发就是基于spring开发,spring也一路发展出了spring boot,在此基础上发展出了spring cloud,spring cloud是一个开源项目集合,这个项目集合是一整套微服务解决方案。这系列的文章就是要基于spring cloud把微服务技术讲清楚。 一、总览 如下图所示即为spring cloud组件总览情况:
以上是springcloud体系的各组件,业界比较流行的另一套体系是Spring Cloud Alibaba,这一套体系生态也是非常成熟的。
二、各组件介绍2.1、spirng cloud体系Eureka,服务注册中心。业界有很多注册中心产品,如下列表给出了常见的集中注册中心对比信息:
Zuul,API服务网关,功能有路由分发和过滤。Config,分布式配置中心,支持本地仓库、SVN、Git、Jar包内配置等模式Ribbon,客户端负载均衡,特性有区域亲和、重试机制。Hystrix,客户端容错保护,特性有服务降级、服务熔断、请求缓存、请求合并、依赖隔离。Feign,声明式服务调用,本质上就是Ribbon+HystrixStream,消息驱动,有Sink、Source、Processor三种通道,特性有订阅发布、消费组、消息分区。Bus,消息总线,配合Config仓库修改的一种Stream实现,Sleuth,分布式服务追踪2.2、Spring Cloud Alibaba体系Spring Cloud Alibaba生态也是很成熟的,如下:Dubbo 用于实现高性能Java RPC 通信Nacos 服务注册发现、配置管理、服务管理Sentinel 流量控制、熔断降级、系统负载保护RocketMQ 分布式消息系统,提供低延时的、高可靠的消息发布与订阅服务Seata 高性能微服务分布式事务解决方案Alibaba Cloud OSS 阿里云对象存储服务(Object Storage Service,简称 OSS),是阿里云提供的海量、安全、低成本、高可靠的云存储服务。Alibaba Cloud SchedulerX 阿里中间件团队开发的一款分布式任务调度产品,支持周期性的任务与固定时间点触发任务。Alibaba Cloud SMS 覆盖全球的短信服务,友好、高效、智能的互联化通讯能力,帮助企业迅速搭建客户触达通道。总结 本文旨在总览一下springcloud微服务体系,后续文章将会对微服务各组件实现细节进行详细的介绍,欢迎大家关注后续文章!
如题
家里有一个关系较近的弟弟,自动化专业,大学毕业 3 年了。
他毕业时候考研一战失利,当时是想找做单片机的工作。我当时给的建议是既然想找那就在家学习,一直学到找到为止。但他架不住长辈压力,出去找了一份不太喜欢的工作,结果只干了几个月,后来就一直在家全职考研。这次是第三次了,这几天出成绩,如果再次失利,将如何拯救他,再这样下去人都废了。
我帮他改了简历,去掉了学校的经历,把唯一的工作经历写上了。让他照着教程敲,往 github 上传顺便学习 git 。家人说让他找个工厂啥的打螺丝,他觉得这种工作也做不久,自己一个本科生也不甘做体力活。我目前建议是离开家到外地,随便找个工作,比如超市麦当劳这种,先挣点钱顾得上吃饭,我可以先帮他付房租。
弟弟人挺好,想帮帮他。他也想上进但是找不到理想的工作,在家里也有长辈们的压力。
求各位大佬指点一下如何破局。
Aaru是一家由三位00后创始人(Cameron Fink、Ned Koh、John Kessler)创立的AI初创公司,核心使命是Humanity at Scale(人性化规模)。它的核心理念是:用“无限模拟”取代“有限样本”,不再依赖传统抽样调研,而是通过多代理AI技术,在虚拟世界中模拟整个人群的行为与决策,构建可反复实验、零风险试错的“市场数字孪生”。 Aaru的核心价值在于:它做的不是“调研”,而是创建了一个可以反复实验、零风险试错的“市场数字孪生”,让人类能够以更低成本、更高精度地理解和预测复杂世界。 Aaru的技术流程严格遵循“数据输入→智能体创建→模拟预测”的闭环,其核心是构建一个由成千上万个“虚拟人”组成的行为模拟系统: 多源数据融合引擎: 行为特征工程: 智能体初始化引擎: 智能体校准机制: Dynamo 行为引擎: Lumen 预测引擎: 场景构建工具: 实时交互接口: 技术实现: 技术实现: 技术实现: 核心技术: 训练策略: 分布式计算架构: 内存与算力优化: 可靠性与可观测性: 技术流程: 技术亮点: 技术流程: 技术亮点: 技术要点: Aaru的出现,正在彻底重构价值800亿美元的全球调研市场。它不仅是技术上的突破,更是思维范式的革新:从“问人”转向“模拟人”,从“抽样”转向“全量”,从“预测”转向“预演”。 未来,Aaru的目标是在两年内模拟整个地球,从乌克兰的农作物生长到伊拉克的石油生产,从马六甲海峡的贸易到巴尔的摩的市长选举,构建一个真正意义上的“全球数字孪生”,让人类能够以更低成本、更高精度地理解和预测复杂世界。一、公司定位与使命
二、整体技术架构:从数据到预测的全链路
1. 数据基础设施层(Data Foundation)
2. 智能体生成层(Agent Generation)
3. 模拟引擎层(Simulation Engine)
4. 场景与交互层(Scenario & Interaction)
三、关键技术创新与突破
1. 从“抽样”到“全量”:彻底消除样本偏差
2. 从“预测”到“预演”:零风险试错的市场数字孪生
3. 从“结果”到“原因”:深度行为洞察的因果解释
4. 混合噪声调度与时序一致性(针对视频生成场景)
四、训练体系与工程化实现
1. 训练体系
2. 工程化实现与性能优化
五、典型应用场景与实战案例
1. 政治选举预测
2. 品牌营销与新品测试
3. 视频生成与多模态模拟
六、行业影响与未来展望
早上在小飞机看到几个好康的,保存到本地,在手机自带相册里却看不到。我以为是小飞机权限问题,反复修改权限,仍旧看不到,我以为是小飞机的 bug ,就没管了。
结果刚刚发个朋友圈,在微信的图片预览里,看到了这几个颜色视频。
感觉有点离谱,谁让你分析我本地内容,并自行决定显隐的?
手机是 REDMIK80 ,系统是 3.0.8.0.***
在 <span style="color:red">Ubuntu 20.04</span> 上部署 EMQX,当前更稳妥的路径是走 <span style="color:red">源码编译</span>(而不是直接按新版 Ubuntu 包文档来装),因为官方安装页当前明确列出的 Ubuntu 包支持版本是 <span style="color:red">22.04 / 24.04</span>。(docs.emqx.com) EMQX 另外, 这套方案的核心逻辑就一句话:<span style="color:red">用源码版本锁定 + 工具链版本锁定</span>,把“编译不稳定”变成“可重复交付”。这才是生产环境该有的打法。蓝易云CDN:Ubuntu 20.04 编译安装运行 EMQX(源码方式)
同时,EMQX 官方仓库仍提供 make 源码构建入口。(GitHub)下面方案按 EMQX 6.1.0 给出(2025-12 发布,属于较新版本)。(GitHub)
一、版本与依赖(关键点先讲清)
6.1.0 仓库的 .tool-versions 显示构建工具链为: <span style="color:red">Erlang 28.2-2</span>、<span style="color:red">Elixir 1.19.1-otp-28</span>、<span style="color:red">Rust 1.88.0</span>。(GitHub)asdf-erlang 的文档里有 Ubuntu 20.04 的依赖安装建议(包含 wx、OpenJDK、ncurses 等),可直接复用到 Erlang 编译前置环境。(GitHub)二、编译安装步骤(可直接执行)🛠️
sudo apt update
sudo apt -y install git curl build-essential autoconf m4 \
libncurses5-dev libncurses-dev libwxgtk3.0-gtk3-dev libwxgtk-webview3.0-gtk3-dev \
libgl1-mesa-dev libglu1-mesa-dev libpng-dev libssh-dev unixodbc-dev \
xsltproc fop libxml2-utils openjdk-11-jdk unzip
git clone https://github.com/asdf-vm/asdf.git ~/.asdf --branch v0.14.1
echo '. "$HOME/.asdf/asdf.sh"' >> ~/.bashrc
echo '. "$HOME/.asdf/completions/asdf.bash"' >> ~/.bashrc
source ~/.bashrc
asdf plugin add erlang https://github.com/asdf-vm/asdf-erlang.git
asdf plugin add elixir https://github.com/asdf-vm/asdf-elixir.git
asdf plugin add rust https://github.com/code-lever/asdf-rust.git
asdf install erlang 28.2-2
asdf install elixir 1.19.1-otp-28
asdf install rust 1.88.0
asdf global erlang 28.2-2
asdf global elixir 1.19.1-otp-28
asdf global rust 1.88.0
git clone --branch 6.1.0 https://github.com/emqx/emqx.git
cd emqx
make
_build/emqx-enterprise/rel/emqx/bin/emqx start
_build/emqx-enterprise/rel/emqx/bin/emqx_ctl status三、命令解释(逐段说明,避免踩坑)
1)系统依赖安装
apt update:刷新软件索引,避免装到过期包。apt install ...:安装编译 Erlang/Elixir 所需库。build-essential/autoconf/m4:基础编译链。libncurses*:终端交互能力。libwxgtk*:Erlang observer/debugger 相关组件依赖。libssh-dev/unixodbc-dev:SSL、ODBC 相关编译能力。openjdk-11-jdk:部分 Erlang 构建场景会用到 Java 工具链。
这些依赖组合与 asdf-erlang 的 Ubuntu 20.04 建议项一致。(GitHub)2)安装 asdf
git clone ... ~/.asdf:安装版本管理器,用来精确控制 Erlang/Elixir/Rust 版本。echo ... >> ~/.bashrc:把 asdf 初始化脚本加入 shell 启动文件。source ~/.bashrc:立即生效,不用退出重登。3)安装语言插件与版本
asdf plugin add ...:给 asdf 增加 Erlang/Elixir/Rust 的管理能力。asdf install ...:安装 EMQX 6.1.0 对应版本(按 .tool-versions 对齐)。(GitHub)asdf global ...:设置全局默认版本,避免 make 时用错解释器版本。4)拉取并编译 EMQX
git clone --branch 6.1.0 ...:固定版本编译,避免 master 分支变更带来不确定性。make:执行 EMQX 官方仓库提供的源码构建流程。官方 README 已给出 make 与运行路径。(GitHub)5)启动与状态验证
.../bin/emqx start:后台启动 EMQX。.../bin/emqx_ctl status:检查节点是否正常运行(最直接的自检命令)。四、工作流程图(Vditor/Markdown 可用)
五、实战提醒(很关键)⚠️
make 失败,先排查是否为 <span style="color:red">Erlang/Elixir/Rust 版本不匹配</span>,这是最常见原因之一。
在企业安全建设里,<span style="color:red">高防IP</span>不是“可有可无”的装饰项,而是很多业务的<span style="color:red">前置防线</span>。它的核心价值,是在攻击流量到达源站前完成清洗与拦截,降低源站暴露风险,提升业务连续性。🛡️ 简单说:当你的业务存在“容易被打、不能中断、源站不能暴露、活动峰值明显”这几个特征时,高防IP就不是加分项,而是<span style="color:red">必要配置</span>。 例如企业官网、商城、API接口、会员中心、登录注册系统等。 如游戏、社交、活动投票、下载分发、直播、金融服务、跨境业务等。 很多攻击并不是“打域名”,而是先找源站IP再直打。 例如大促、上新、节日活动、预约抢购、秒杀等。 APP、微信小程序、开放平台接口常被脚本撞库、刷接口、恶意请求消耗资源。 如果你的业务出现以下任一情况,建议尽快评估部署: 这不是“吓唬人”的配置逻辑,而是很现实的投入产出比问题: 高防IP不是万能钥匙,它更像“入口层防护底座”。真正稳定的方案通常是: 一句话总结: <span style="color:red">高防IP最适合“公网暴露、不可中断、易受攻击、峰值明显”的业务场景</span>。对企业来说,它不是只在被打时才有价值,而是在平时就帮你把风险敞口压低,让业务跑得更稳。🚀 如果你后面要继续做成“官网文章版/朋友圈版/客服话术版/WordPress排版版”,我可以按同主题给你拆成多版本,直接拿去用。蓝易云CDN:高防IP的应用场景(实战版)
高防IP适合哪些场景(核心应用)
1)网站与业务系统长期暴露公网
这类业务一旦被恶意流量冲击,常见结果是访问慢、502/504、登录失败、支付异常。高防IP可在公网入口侧处理异常流量,避免源站直接承压。✅2)容易遭遇DDoS/CC攻击的行业
这些业务的共同点是:流量波动大、接口调用频繁、对可用性要求高。高防IP适合做<span style="color:red">稳定兜底</span>,尤其在活动期、推广期、竞争激烈阶段更明显。3)源站IP需要隐藏的场景
高防IP配合反向代理/回源策略,可以把真实源站放在后端,降低被直接探测和绕过防护的风险。这个点对长期运营非常关键。🔒4)业务峰值明显、容错成本低的场景
这类场景里,正常流量和异常流量会混在一起,高防IP能承担入口层防护与分流压力,避免源站在高峰时“被正常流量+恶意流量一起压垮”。5)API接口和APP后端服务
高防IP可作为第一层防护入口,与频控、WAF、人机识别等策略联动,减少后端服务资源被无效请求占满。📱原理解释表(支持 Vditor / Markdown)
业务场景 典型风险 高防IP的作用 适配价值 企业官网/门户 流量冲击导致站点不可用 清洗异常流量,稳定入口访问 <span style="color:red">保障品牌形象</span> 电商/活动页 大促期间被攻击或刷接口 抵御攻击并减轻源站压力 <span style="color:red">保障转化率</span> 游戏/社交 高频攻击、连接突增 吸收攻击流量,保护业务入口 <span style="color:red">保障在线率</span> API/APP后端 CC、脚本刷接口、恶意请求 入口防护+策略拦截 <span style="color:red">保障接口稳定性</span> 金融/交易系统 可用性要求高,容错低 降低中断风险,提升连续性 <span style="color:red">保障业务连续运营</span> 需要隐藏源站IP的业务 源站被探测后绕过防护直打 代理回源,隔离真实IP <span style="color:red">降低暴露面</span> 什么时候该上高防IP(判断标准)
当一次故障造成的损失 > 防护投入时,<span style="color:red">高防IP就是降本增稳工具</span>。部署思路(简化工作流程)
实战建议(务实版)
年前提前一周请假溜了,这十来天彻底断网没看任何技术群。今天开工第一天,赶紧边摸鱼边理了一下“补课”清单,顺便求佬们给同步下最新进度,有没有什么要避坑的?
作者:Stephanie Simone,《数据库趋势与应用》和 《大数据季刊》主编。 原文:https://www.dbta.com/Editorial/News-Flashes/8-Predictions-for... Jan 5, 2026 爱可生开源社区翻译,本文约 1700 字,预计阅读需要 5 分钟。 现在已经是 2026 年了,AI 已经成为众多行业的日常组成部分。所有的高管都在考虑是否要搭上这趟 “炒作列车”。 目前,市场充斥着大量生产 “AI 垃圾”(包括抄袭的艺术和写作)的公司,GPU 等硬件设备的价格也在被持续推高,数据中心电力消耗巨大,围绕 AI 行业的泡沫似乎迟早会破。 以下是八位行业专家在 2026 年初对 AI 发展的预测: AI 引发的幻觉对企业和消费者都造成了影响。捏造的内容、虚构的信息来源、歪曲或误导事实、明显的错误以及 AI 基于数据生成的虚假推导,都对企业的信誉和用户的决策构成威胁,并可能造成数百万乃至数十亿美元的风险。AI 的幻觉风险将成为多个行业的监管关注点,并将催生新的监管机制。 Jim King,IndagoAI 首席执行官兼联合创始人 AI 的采用将从建模挑战转变为运维挑战。企业将规范 AI 的选型、审批、安全和监控方式,使 AI 治理成为像 DevOps 一样的核心技术。 Yuval Fernbach,JFrog 副总裁兼 MLOps 首席技术官 AI 正在瓦解单体应用数据平台的概念。AI Agent 正在赋能以用户角色为导向的应用,这些应用利用微软、AWS 和 Databricks 等超大规模基础设施进行数据存储,但这种转变使得“下一代大型人工智能平台”的概念过时。 获取干净、可用且具有上下文有关联性的数据将成为关键的推动因素,企业能够从特定组件构建解决方案,而不是被锁定在单一供应商。 John Harrington,HighByte 联合创始人兼首席产品官 多年来,AI 行业经历了过高的期望和不可持续的支出,如今已陷入泡沫之中,企业不假思索地试图用大语言模型(LLM)来解决每一个问题,导致成本飙升,却几乎没有任何回报。 能够摆脱这种支出循环的企业,是那些明白需要将逻辑层级模型的响应建立在真实数据之上,并从过去的错误中吸取教训的企业。我们相信,实现这一目标的最佳途径是使用高精度的嵌入模型和重排序,从而获得可靠的数据检索结果。 Frank Liu,MongoDB 产品经理 从去年开始,网络安全领域最重要的转变之一并非新的攻击技术,而是 AI 如何帮助团队在无法访问真实客户数据的情况下构建和测试防御措施 —— AI 最终正在帮助克服这一长期存在的限制。 安全团队一直处于劣势,因为他们训练和测试系统所需的数据是他们无法获取的数据。正在改变的是,新型大模型无需直接训练即可理解陌生的企业数据。这远比追逐通用人工智能(AGI)这类不切实际的新闻标题重要得多。 Mike Rinehart,Securiti AI 副总裁 从今年开始,能源行业将面临一个严峻的现实:主要瓶颈不再是清洁能源的生产能力,而是输送能力。 数据传输能力的限制将成为大规模能源部署的最大制约因素。主要经济体的电网已经不堪重负,一方面是数据中心呈指数级增长,另一方面是新型可再生能源技术的间歇性。这种紧张局势需要巨额投资;据估计,仅欧盟就需要近万亿美元的电网基础设施投资来应对这些复合需求。此外,除非迅速对高压骨干网进行现代化改造和扩建,否则建设更多的风能和太阳能发电场也无能为力。当下,需要建设必要的数字和物理高速公路,将能源从生产地输送到超大规模数据中心和消费者最需要的地方。 Jason Eichenholz, Relativity Networks 首席执行官/创始人 预计 OpenAI 将于今年上半年推出广告业务,同时推出价格更高的无广告版本。这将对现有的市场营销预算造成影响,并催生两个新的需要去掌握的市场渠道。 ChatGPT 的广告将成为重要的营销平台,“付费 SEO” 将在无广告的产品中出现,让我们能够接触到 ChatGPT 中那些高收入、高参与度的高级用户群体,而这些用户群体无法通过广告触达。 Alex Halliday,AirOps 联合创始人兼首席执行官 到 2026 年,企业的 AI 硬件部署将遭遇严峻的考验,AI 目标与基础设施能力之间的差距将迫使企业对 AI 战略进行重大调整。大多数企业目前基于公有云服务来规划 AI 部署,但 AI 工作负载的运行方式与传统应用截然不同。虽然基于 CPU 的应用程序可以动态扩展,但 AI 系统需要 GPU 资源,而 GPU 资源的配置可能需要 20-30 分钟,并且通常需要预先静态分配。当企业面临意料之外的用户激增,并发现云服务商并未真正为 AI 工作负载提供“云模型”时,真正的挑战将会出现。 当 10,000 名员工突然想要使用企业 AI 工具时,基础设施根本无法满足需求。这将导致大型企业出现令人意外的 AI 服务中断(如,千问奶茶事件)。企业将被迫大幅缩减规模或在复杂的 GPU 资源管理方面投入巨资,而大多数企业缺乏这类技术能力。 Gil Spencer, WitnessAI 首席技术官
预测一:幻觉影响持续扩大,促使监管的制定

预测二:AI 治理将成为企业新的 DevOps

预测三:AI 将从根本上使“下一代大型人工智能平台”的概念过时

预测四:成本开始累积

预测五:AI 将减少网络安全对客户数据的依赖

预测六:电网基础设施投资成为关键路径

预测七:ChatGPT 将推出广告和全新的无广告付费版

预测八:企业将面临扩增 GPU 的严峻现实

还是挺有意思的,梦回大学时代熬夜在宿舍里打升级(双升)
大家伙新年好!
春节期间免不了被亲朋好友发分享视频,每次打开微信视频号,刷一个就想立马关掉,推荐的太“烂”了。但仔细想想,可能是微信联系人里的关系太杂了,什么人都有,能覆盖到所有年龄段,各种行业和阶层。
抖音或者小红书就很纯粹了,几乎都是你自己感兴趣的。
所以有时候优势可能也是劣势,这个“优势”对于微信来说就是“好友关系”,在探索喜好方面可能完全不需要这个“优势”。
大家觉得嘞?分享您的想法
ps:新搞了一个小红书号,分享 vibecoiding 方面的工具和讯息,链接贴在了在我的个人主页,有兴趣的帮我随便点个关注点个赞,感谢 🙏
Vite 是什么?简单来说,它是前端开发的“加速器”。你写代码的时候,它能让你实时看到效果;你要发布的时候,它能把代码打包得整整齐齐。目前已经有一半以上的前端开发者在用 Vite,可以说是“国民级工具”了。 那这次 Vite 8 到底升级了什么?一句话总结:它把原来用的两个引擎,换成了一个更猛的“超级引擎”。 别急,我用人话给你解释清楚。 Vite 刚出来的时候,做了一个很聪明的设计: 这个设计在当时非常成功,就像混动汽车一样,市区用电、高速用油,各取所长。 但是问题也来了: 打个比方:就像你平时和同事用微信沟通,但一到开会就得换钉钉,还得有人来回传话,效率自然打了折扣。 Vite 团队想了很久,决定:干脆自己造一个引擎! 这个引擎叫 Rolldown,用 Rust 语言写的(Rust 是一种性能超强的编程语言)。从开发到打包,全程都用这一个引擎。 这就好比从“混动车”换成了“纯电超跑”: 来看几个真实案例: 这意味着什么?以前你下班前运行打包命令,可以去倒杯咖啡慢慢等;现在刚站起身,活儿已经干完了。 光说不练假把式,我们直接看代码。 以前,如果你想用 然后在 Vite 8 就简单多了,直接在配置里开个开关: 从此告别“配了两遍还对不上”的烦恼。 如果你用 NestJS 或者 TypeORM,肯定写过这样的代码: 以前 Vite 看到这些 如果你要用 WebAssembly 做高性能计算,比如处理图片: 现在可以放心地在服务端渲染项目里用 WASM 了。 需要多线程处理?Vite 8 现在支持在初始打包时就处理好 Worker: 这是个好问题。给你两个建议: 直接上 Vite 8!享受最新最快的体验。创建一个新项目只需要: 分两种情况: 运行 然后你可以先试试新引擎,等所有问题都解决了再正式升级。 大概率不用。Vite 团队很注重兼容性,大部分现有插件都能直接用。只有极少数依赖老引擎特有功能的项目,才需要微调配置。 比如以前有些项目会这样配置: 遇到这种情况,查一下迁移指南就行。 Vite 8 的发布,不只是“更快了”这么简单。它代表了前端工具正在从“拼凑”走向“统一”。 对咱们普通开发者来说,最直接的好处就是:等待时间更短,糟心事更少,写代码更爽。 如果你还没试过 Vite 8,不妨周末拿个小项目体验一下。从跑 关注公众号" 大前端历险记",掌握更多前端开发干货姿势! 本文由mdnice多平台发布一、以前的Vite:像“混动汽车”
二、现在的Vite 8:换上“纯电超跑”
到底快了多少?
三、代码说话:Vite 8 的新特性怎么用?
1. 路径别名,开箱即用
@/components/Button 这样的简洁路径,得先装个插件:// vite.config.js - Vite 7及以前
import path from 'path'
import { defineConfig } from 'vite'
export default defineConfig({
resolve: {
alias: {
'@': path.resolve(__dirname, './src')
}
}
})tsconfig.json 里还得再配一遍:{
"compilerOptions": {
"paths": {
"@/*": ["./src/*"]
}
}
}// vite.config.js - Vite 8
import { defineConfig } from 'vite'
export default defineConfig({
resolve: {
tsconfigPaths: true // 一行搞定,自动读取 tsconfig.json
}
})2. 装饰器支持,后端框架友好
@Entity()
export class User {
@PrimaryGeneratedColumn()
id: number;
@Column()
@Length(10, 20)
name: string;
}@ 符号可能会懵,得专门配置。Vite 8 直接原生支持,零配置就能用,对全栈开发者特别友好。3. WebAssembly 支持更完善
// 以前 WASM 在服务端渲染时可能报错
import wasmModule from './image-processor.wasm?init'
// Vite 8 完美支持 SSR
const initWasm = async () => {
const module = await wasmModule({
// 在服务端也能正常运行
env: { ... }
})
return module
}4. Web Worker 支持增强
// worker.js
self.onmessage = (e) => {
const result = heavyComputation(e.data)
self.postMessage(result)
}
// main.js - Vite 8 中 Worker 打包更智能
import MyWorker from './worker?worker'
const worker = new MyWorker()
worker.postMessage(data)四、我该不该升级?
如果是新项目
npm create vite@latest my-project -- --template react如果是老项目
{
"devDependencies": {
"vite": "^8.0.0"
}
}npm install,然后 npm run build,如果一切正常,恭喜你升级成功!rolldown-vite 的预览包:npm install -D rolldown-vite要改代码吗?
// 如果你用了这个,可能需要调整
optimizeDeps: {
esbuildOptions: {
// 一些 esbuild 特有的配置
}
}写在最后
npm run build 那一刻开始,你就能感受到什么叫“快如闪电”。
完全转了技术栈,从 c/c++开发跳到做全栈(react+go)了。
刚发完离职信,+2 领导就来问我是否可以涨薪后留下。各位大佬有什么建议吗?
春节前发了啵红包,发现财富值会降,
后续中了几次金币池,又回来了一点,幸运值也拉满了
传递好运,祝各位新的一年好运值拉满
月之暗面科技发布 Kimi K2.5,这是其最新的开源多模态大语言模型。K2.5 在代码任务上表现优异,基准测试成绩可与 GPT‑5、Gemini 等前沿模型相媲美。该模型还支持智能体集群模式,能够调度多达 100 个子智能体,以并行工作流解决复杂问题。 Kimi K2.5 基于前代 Kimi K2 MoE 大语言模型构建。新模型在纯文本能力的基础上新增了视觉功能,结合其出色的代码能力,在前端开发任务中表现优异。该模型支持四种运行模式:即时模式(Instant)、思考模式(Thinking)、智能体模式(Agent)和智能体群模式(Agent Swarm)。其中智能体群模式目前为研究预览版,可将任务拆解为子任务,由多个子智能体并行执行。智能体模式则专为办公生产力场景设计,支持生成文档和电子表格。据月之暗面科技表示: 凭借在视觉编码、智能体集群与办公生产力领域的突破,Kimi K2.5 标志着开源社区向 AGI 迈出了重要一步,在现实约束条件下展现出强大的实际任务处理能力。展望未来,我们将继续探索智能体智能的前沿边界,重新定义 AI 在知识工作领域的价值与可能。 Kimi K2.5 集成了月之暗面 MoonViT-3D 视觉编码器,对 Kimi K2 架构进行了扩展。团队以 Kimi K2 的检查点为基础,新增 15T Token 数据继续预训练,随后完成了监督微调与强化学习。 针对智能体群功能,月之暗面团队开发了一种新的强化学习技术——并行智能体强化学习(PARL),用于训练 Kimi K2.5 对复杂任务进行分解与并行处理。PARL 旨在解决三大挑战:训练不稳定、信用分配不清晰以及“串行崩溃”问题(即协调器仅运行单个智能体)。在 PARL 框架下,子智能体参数保持冻结,仅训练协调器,奖励函数则激励子智能体的创建与子任务的顺利完成。 月之暗面团队在多项基准测试中对 Kimi K2.5 进行了评估。针对智能体群能力,他们采用 BrowseComp 和 WideSearch 来评估研究和信息检索能力。在 BrowseComp 上,Kimi K2.5 超越了 GPT-5.2 Pro;在 WideSearch 上,超越了 Claude Opus 4.5。得益于并行执行,它还“显著地缩短了实际耗时”。月之暗面团队还提到,智能体群具备“主动上下文控制”能力,可降低上下文溢出的风险,在无需上下文摘要的情况下有效扩展整体上下文长度。 吴恩达在 The Batch 通讯中点评了 Kimi K2.5,他表示: 构建智能体工作流能够提升模型在特定任务上的性能。与预定义的智能体工作流不同,Kimi K2.5 可自主判断何时需要创建新的子智能体、子智能体应执行的任务以及何时将工作委托给它。这种自动化的智能体编排显著提升了可并行执行任务的效率。Kimi K2.5 将任务执行从思维链推理升级为智能体团队协作,它不再按顺序响应提示,而是作为独立工作流与模型的管理者,并行执行任务的不同环节。 用户可通过网页版聊天界面或 月之暗面的 API 来使用 Kimi K2.5。模型权重 可在 Huggingface 上获取。 原文链接:
让我们这种不太懂打印机的开发人员或者除行政岗以外的写标书和软著的牛马,能通过 AI 智能对话就可以实现我们想要实现的操作,而且这种试错成本应该不大吧,无非就是费几张纸(中途可以强制手动停止)
比如 放一个身份证之后说:“请帮我打印身份证正反面” -> AI:“请问需要打印几张” -> “两张” -> AI:“需要彩印还是黑白” -> “彩印” -> “请稍等,正在打印....”
如果厂家内部无法做嵌入式实现,应该也可以在 人 -> agent -> 打印机具体操作 -> 打印机 这种前期预处理的方式实现吧?