2026年4月

Git-2.15.0-64-bit是 Git 版本控制工具​ 的安装包,写代码、管理项目版本、多人协作必备,程序员基本都要装。

    • *

一、准备工作

  1. 下载安装包

  2. 确认系统版本

    • Win7 / Win10 / Win11 的 64 位系统都能用。
  3. 用管理员身份运行(推荐)

    • 右键 Git-2.15.0-64-bit.exe→ 选“以管理员身份运行”。
    • *

二、安装步骤

  1. 双击运行安装包(如果右键过了就直接双击)。
  2. 弹出“用户账户控制”提示 → 点  “是”
  3. 安装向导欢迎界面 → 点  “Next”
  4. 选择安装路径:

    • 默认是 C:\Program Files\Git,可点  “Browse” ​ 改到其他盘(比如 D 盘)。
  5. 组件选择:

    • 默认勾选的就够了(包括 Git Bash、Git GUI、Windows Explorer integration)。
    • 直接点  “Next”
  6. 开始菜单文件夹:

    • 保持默认 Git,点  “Next”
  7. 选择默认编辑器:

    • 推荐选  “Use Vim as Git’s default editor” (Vim 是经典编辑器)。
    • 新手不熟悉 Vim 可选  “Notepad++” (需提前安装)或  “Visual Studio Code”
    • 选好后点  “Next”
  8. 调整 PATH 环境:

    • 强烈建议选  “Use Git from the command line and also from 3rd-party software” (这样 CMD、PowerShell 都能用 git 命令)。
    • 点  “Next”
  9. HTTPS 传输库:

    • 保持默认  “Use the OpenSSL library” ,点  “Next”
  10. 配置行尾符号转换:

    • 保持默认  “Checkout Windows-style, commit Unix-style line endings” ,点  “Next”
  11. 配置终端模拟器:

    • 保持默认  “Use MinTTY (the default terminal of MSYS2)” ,点  “Next”
  12. 额外选项:

    • 勾选  “Enable file system caching” (启用文件系统缓存,速度快)。
    • 勾选  “Enable Git Credential Manager” (凭据管理器,拉私有仓库方便)。
    • 点  “Install” ​ 开始安装。
  13. 安装完成:

    • 取消勾选  “View Release Notes” (看不看随意)。
    • 点击  “Finish”
    • *

三、验证是否安装成功

  1. 回到桌面,右键空白处 → 选择  “Git Bash Here”
  2. 输入命令:

    git --version

     title=

  3. 回车后显示版本号(如 git version 2.15.0.windows.1)说明安装成功。

我在最新版本中使用 GPT-5.5 的 Codex 插件时,遇到加载对话内容不出来的问题。具体情况如下:

  • 在服务器和 WSL2 中都会出现。
  • 我已更新到最新的 VSCode 版本,更新后 VSCode 自带了一个“聊天”选项。点开“聊天”再切回 Codex ,有时能让 codex 之前加载不出来的对话显示出来。
  • 网络状况正常,看起来不像是网络问题。

我想问一下,有人遇到过类似情况吗?在其他地方看到有人反馈加载卡顿的情况,似乎回退到旧版本就没有这个问题。请问这是 Codex 插件自身的 bug ,还是与 VSCode 的新版本存在兼容性问题?

搞开发的兄弟们大概都踩过这种坑:项目组里除了写代码的,还有搞 UI 设计的、做视频后期的。代码用 Git 或者 SVN 管着挺好,但一遇到那帮设计丢过来动辄几个G的 PSD 源文件、甚至测试那边扔过来的几百兆 SQL dump 文件,整个团队的协同效率直接拉胯。

  • 用 Git LFS 管大文件? 那配置起来简直折磨人。
  • 搞个公司内部的 NAS? 每次外包团队或者异地办公的兄弟想连进来,光是弄 VPN 和调权限就能让运维小哥脱层皮。

上个月我们项目上线前夕测数据,几个G的测试文件在不同的开发机之间传来传去,差点因为版本不统一出了重大发版事故。

转机:CTO拍板的“去中心化”方案

后来 CTO 拍板,说别折腾那些半吊子的局域网开源小工具了,直接上了坚果云的团队版。

说句掏心窝子的话,一开始我是鄙视的,这年头谁还没用过几个网盘啊?能有啥黑科技?结果用了大半个月,我直接在部门群里给它发了个大拇指。

我特意去查了下它的底子。老铁们,现在是2026年,这玩意儿居然是从2011年起家的,稳稳当当跑了超过15年了。在中国互联网圈,能活15年还没被巨头耗死的SaaS产品,绝对是护城河极深。难怪人家能兜得住中银证券、中国石油、清华大学这些绝对的头部客户。

坚果云官网

作为技术人,最让我佩服的是它的底层机制:

核心黑科技一:吊打传统逻辑的“智能增量同步”

咱们平时用普通云盘,哪怕你只是打开一个 500MB 的日志文档,在最后面加了一行字,点保存后,整个文件都得重新传一遍。遇到网络抖动,直接重头再来,砸电脑的心都有。

但坚果云的杀手锏是智能增量同步,它能在后台算出文件被修改的那个“块”,然后只上传你改动的那几KB数据。几百兆的东西,一秒钟不到同步完了。这种级别的算法优化,懂行的自然懂含金量有多高。

核心黑科技二:专治覆盖灾难的“文件历史版本”

有时候代码或者配置表被哪个实习生瞎覆盖了,用传统共享文件夹那是神仙难救。

但在坚果云里,你每一次保存它都在云端切片备份了,这就是它的文件历史版本兜底机制。不仅能直观对比差异,还能随时回滚到以前的任意节点。这不比求爷爷告奶奶找人恢复数据强多了?

极客体验:局域网无感加速与插件生态

实际体验下来,这软件完全就是“无主节点”的感觉。大家只要都在办公室的局域网里,它的 C/S 架构会自动走局域网点对点加速,实现几十台电脑的无感同步,千兆网卡直接跑满。而且它的客户端做得极其克制,不用你改平时梳理文件的习惯。

顺带提一嘴,如果你平时喜欢用 Markdown 写写技术博文或者知识库,它和 ObsidianZotero 这些神仙软件的插件匹配度极高。再搭配上它家那个叫“怡氧”的工具,画画流程图和思维导图,基本上把技术人的日常文档需求全部包圆了。

终极底牌:不用和老板废话的“安全合规”

最后,站在企业 IT 部署的角度,最硬的指标还是安全合规。大家往云端放核心代码或者商业机密,最怕脱库。

坚果云这块做得很绝,直接拿下了公安部信息系统安全等级保护三级备案。各位要知道,这是咱国家给非银行机构发的最高级别非密认证。再加上 AES -256 这种单向哈希加密,下次老板再问你数据放里面安不安全,你直接把这堆头衔甩过去,绝对能让他闭嘴。

**现在坚果云团队版还有免费试用20天:坚果云团队版官网


写在最后

总之,如果你负责你们团队的基础架构设施,或者受够了各种杂乱的文件满天飞,强烈建议你拿它整顿一下团队的工位日常。与其把时间浪费在等进度条上,不如早点打卡下班。

Cloudflare概要介绍了一种参考架构,用于在企业范围内扩展 Model Context Protocol(MCP)部署,并将集中式治理、远程服务器基础设施和成本控制视为生产就绪型代理系统的关键要求。

 

该公告发布之际,基于 MCP 的系统正面临着日益严格的审查。近期有研究指出,此类系统存在即时注入、供应链攻击以及服务器暴露或配置错误等风险,部分研究还证实,在 MCP 集成环境中存在任意代码执行和数据外泄的问题。

 

作为一种将 AI 代理与外部工具及数据源连接起来的开放标准,MCP 将面向代理的客户端与对接企业资源的后端服务器进行了分离。这种抽象化设计使代理能够自主检索数据并执行操作,但也在模型、工具和敏感系统之间引入了新的信任边界。研究人员指出,与传统的大语言模型(LLM)使用方式相比,MCP 架构扩大了攻击面,因为一条提示语就可能触发跨多个系统的连锁操作。

 

学术分析进一步表明,这些风险不局限于实现层面的缺陷,更源于协议层面的设计选择,它们可能会提高攻击代理-工具系统的成功率。

 

Cloudflare 认为,本地部署的 MCP 服务器存在重大的安全隐患,因为它们通常依赖未经审核的软件,而且缺乏集中管理。相反,该公司采用了一种新模式:将 MCP 服务器远程部署在其开发平台上,并由一个集中式的团队进行管理。

 

身份验证通过 Cloudflare Access 进行处理,该服务集成了单点登录(SSO)、多因素身份验证(MFA)以及设备状态和位置等上下文信号。MCP 服务器门户提供了一个统一的界面,用于发现和访问授权服务器,同时允许管理员强制执行数据丢失防护(DLP)规则和精细化工具访问控制等策略。

图片来源:CloudFlare

 

在成本控制方面,该架构还集成了一个“ AI 网关”,位于 MCP 客户端与底层语言模型之间。这使企业能够在不同模型提供商之间路由请求,同时施加使用限制,并在用户层面监控令牌消耗情况。

 

该公司还推出了“代码模式( Code Mode )”,旨在应对 MCP 工具定义日益增长的复杂性。与将每个 API 操作直接暴露给模型不同,“代码模式”将工具接口整合为一小组动态入口点,使模型能够按需发现并调用工具。Cloudflare 表示,此举可将令牌使用量减少多达 99.9%,从而缓解上下文窗口的限制。

 

虽然这些架构控制措施解决了安全性和成本方面的当务之急,但一些分析师认为,根本性的挑战可能不在于单个功能,而在于 MCP 如何融入代理系统的整体架构。Forrester指出,MCP 等协议常被误认为是治理层,但实际上,它们的功能更像是传输或互操作机制,与 RPC 或消息传递系统更为接近,而非策略引擎。

 

随着企业开始引入集中式控制层,这一区别变得尤为重要。最新研究表明,治理、可观测性和策略执行正逐渐成为代理架构中一个独立的“控制平面”关注点,其地位高于工具集成层和编排层。在这个背景下,像 Cloudflare 这样的方法可以看成是控制外部化这一更广泛发展趋势的一部分,而非 MCP 本身固有的特性。

 

声明:本文为 InfoQ 翻译,未经许可禁止转载。

 

原文链接:https://www.infoq.com/news/2026/04/cloudflare-mcp/

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

一、反向海淘赛道的技术挑战

近年来,反向海淘(海外用户购买中国商品)赛道迎来爆发式增长。以 CNFans、超团等为代表的代购平台,正在重塑海外华人的购物方式。然而,支撑日均万单级别的跨境电商交易,对系统架构提出了极高的要求:

  • 高并发采购:需要同时对接淘宝、1688、拼多多等多个国内电商平台,采购峰值时并发请求量巨大
  • 多语言多币种:面向全球用户,需要支持英、法、德、日等多语言界面,以及美元、欧元、日元等多币种实时换算
  • 复杂物流链路:国内仓储→国际运输→海外清关→末端派送,每个环节都需要实时追踪和状态同步
  • 支付合规:需要对接 PayPal、Stripe、微信支付、支付宝等多种支付方式,同时满足各国金融监管要求

TaoCarts 作为成熟的反向海淘跨境电商系统,在架构设计上针对这些挑战做了深度优化。本文将从技术架构角度,深度解析 TaoCarts 的系统设计。

二、整体架构设计

TaoCarts 采用微服务架构,将系统拆分为多个独立部署的服务模块,每个模块负责特定的业务功能:

技术栈选型

  • 前端:Vue.js + Nuxt.js(SSR 提升 SEO)
  • 后端:Node.js + Express / Java Spring Boot
  • 数据库:MySQL(主业务)+ Redis(缓存)+ MongoDB(日志)
  • 消息队列:RabbitMQ(异步任务处理)
  • 搜索引擎:Elasticsearch(商品搜索)
  • 部署:Docker + Kubernetes

三、核心模块技术拆解

3.1 采购服务(Purchase Service)

采购模块是反向海淘系统的核心,TaoCarts 的采购服务实现了以下关键功能:

自动下单机制

  • 对接 1688 API,实现商品搜索、详情获取、自动下单全流程自动化
  • 淘宝/天猫通过浏览器自动化(Puppeteer)模拟操作,绕过反爬机制
  • 拼多多通过官方开放接口实现商品采集和下单

智能拆单/合单算法
用户下单 → 商品来源分析 → 同供应商合并 → 生成采购单
采购完成 → 入库 → 智能合单
同目的地包裹合并 → 国际发货

3.2 订单服务(Order Service)

订单服务采用事件驱动架构(EDA),每个订单状态变更都会触发相应事件:

高并发处理策略

  • 使用 Redis 分布式锁防止重复下单
  • 订单创建写入 MQ,异步处理,削峰填谷
  • 数据库读写分离,查询走从库

3.3 物流服务(Logistics Service)

物流模块是反向海淘最复杂的环节之一,TaoCarts 实现了全链路物流追踪:

  • 国内快递对接:支持顺丰、圆通、中通、韵达等主流快递公司 API
  • 国际物流:对接 DHL、FedEx、UPS 以及邮政小包渠道
  • 海外派送:对接海外本地物流服务商
  • 实时追踪:通过 Webhook + 定时轮询双机制,确保物流状态实时更新

四、性能优化实践

4.1 缓存策略

TaoCarts 采用多级缓存架构:

  • L1 本地缓存 (Caffeine):配置信息、字典数据,手动刷新
  • L2 Redis 集群:商品信息、用户 Session,TTL 30min
  • L3 CDN:静态资源、图片,手动 purge

4.2 数据库优化

  • 分库分表:订单表按用户 ID 哈希分片,单表数据量控制在 1000 万以内
  • 索引优化:核心查询字段建立复合索引,避免全表扫描
  • 慢查询监控:通过 PT-Query-Digest 分析慢查询日志,持续优化

4.3 前端性能优化

  • Nuxt.js SSR 首屏渲染,首屏加载时间小于 1.5s
  • 图片懒加载 + WebP 格式压缩
  • 静态资源 CDN 全球加速(Cloudflare)

五、安全与合规

5.1 数据安全

  • 用户密码 bcrypt 加密存储
  • 敏感信息(手机号、邮箱)脱敏展示
  • API 接口 HTTPS 加密传输
  • 防 SQL 注入、XSS 攻击、CSRF 攻击

5.2 反爬策略

反向海淘系统需要频繁访问国内电商平台,TaoCarts 在反爬方面做了深度优化:

  • 代理 IP 池轮换(500+ 优质代理 IP)
  • 请求指纹随机化(User-Agent、Cookie、Canvas 指纹)
  • 请求频率控制(模拟人类行为,避免触发风控)
  • 验证码自动识别(接入打码平台)

六、总结

TaoCarts 作为成熟的反向海淘跨境电商系统,在架构设计上充分考虑了高并发、多语言、复杂物流、支付合规等核心挑战。通过微服务架构、事件驱动设计、多级缓存、分库分表等技术手段,实现了支撑日均万单级别交易的能力。

对于想要进入反向海淘赛道的创业者来说,选择一套成熟的系统(如 TaoCarts)远比从零自研更高效。自研一套完整的反向海淘系统,通常需要 6-12 个月开发周期,投入 50-100 万研发成本;而使用 TaoCarts,一周即可上线运营,成本仅为自研的 1/10。

了解更多关于 TaoCarts 反向海淘系统的技术细节,请访问官网:https://taocarts.com/

核心配置原则 按字段拆分配置,直接写入技术方案与SLA,不搞模糊表述:

  • 慢变字段(归属地/运营商/ASN):离线库为主,默认日更(周更作为下限);在线查询TTL设24h+。
  • 快变字段(代理/风险画像):仅用在线API,默认1h更新;高对抗业务设5-30min,支持高风险事件强刷

核心避坑

  • 强对抗业务(反作弊、防羊毛):禁用“离线库+长TTL” ,否则容易被黑产利用。
  • 归属地/ASN:不应全量实时回源,仅增加成本和延迟,无实际收益。

标准落地范式 固定TTL + 事件强刷 + 离线兜底 + API补充;绑定3项SLA指标最大允许陈旧度回源率上限、查询P95延迟(≤300ms)。

一. 拆分更新口径(实操步骤)

工程层面建议拆分3项动作,按以下步骤执行:

  1. 数据源更新:对接IP数据云完成供应商对接,确认字段级更新周期(慢变日级、快变小时级),索要更新日志。
  2. 离线库更新:每日固定时间拉取最新库,校验字段完整性,灰度10%流量测试,无异常后全量切换,保留前一版本用于回滚
  3. 缓存刷新:部署本地L1+Redis L2缓存,异常场景(标签突变、强刷触发)绕过缓存,回源结果同步写入Redis。
  4. 落地动作 日志与监控应记录以下字段,用于问题排查:
  • 离线库:版本号上线时间灰度批次
  • 缓存:写入时间TTL时长数据来源(offline/API)
  • API:回源耗时状态码异常类型(超时/限流/失败)

二. 按字段分级(固定配置参数)

2.1 慢变字段:归属地 / 运营商 / ASN

配置动作:离线库日更,在线TTL设24-72h;IPv6解析全覆盖,过滤私网/保留段后再查询。 约束动作不应将此类字段作为强拦截、封禁依据,仅用于展示或辅助判断。

2.2 中变字段:网络类型/机房/企业网络标记

配置动作:默认日级更新;风控/投放场景,更新周期压缩至1-6h,单独配置缓存Key。 约束动作:仅作为辅助参考,不单独触发账号限制、交易拦截等操作。

2.3 快变对抗字段:代理/VPN/风险画像

配置动作仅调用IP数据云在线API,默认1h更新;高对抗业务(广告反作弊/支付风控)设5-30min,独立缓存Key,TTL与更新周期一致。 约束动作:强刷触发时,立即回源更新,更新后同步刷新缓存,不沿用旧值。

三. 量化代价(SLA指标落地)

按以下要求配置,避免拍脑袋调整:

  1. 误杀控制:慢变字段TTL拉至24h+,风控场景降低IP属地权重,叠加设备/行为信号。
  2. 误放控制:快变字段TTL设1h内,高风险动作(大额支付/领券)触发强刷,确保信号实时。

SLA三项硬性指标

  1. 最大允许陈旧度:慢变≤24h,中变≤12h,快变≤1h(高对抗≤30min)
  2. 回源率上限:全局≤10%,高对抗业务≤20%,超上限自动降级至离线兜底
  3. 查询P95延迟:缓存命中≤50ms,回源≤300ms,超时直接降级

四. 六大业务场景(直接复用配置)

业务场景在线缓存TTL快变字段更新周期强刷触发条件字段分工
注册/登录反作弊归属地24h / 风险30-60min≤1h多账号同IP、登录失败≥3次离线:属地/ASN;API:代理/风险
支付借贷风控归属地24h / 风险5-15min≤15min单笔≥5000元、IP属地突变离线:属地;API:全量风险标签
电商防刷/羊毛拦截归属地24h / 风险15-30min≤30min1h内领券≥3张、下单后立即退款离线:属地/ASN;API:代理识别
广告投放反作弊属地6-24h / 风险≤5min≤5min10min内点击≥10次、转化为0离线仅展示;API:代理/风险为主
内容评论安全归属地24-72h / 风险60min≤1h1h内发帖≥5条、被举报≥2次离线:属地;API:风险补充
企业内网审计属地7天 / 风险1-6h≤6h异地登录、访问敏感资产离线为主;API:代理/风险告警

五. 缓存与强刷(实操配置)

5.1 缓存配置

  1. 本地L1缓存:缓存热点IP,TTL设10-30min,拦截高频重复请求
  2. Redis L2缓存:跨实例共享,按场景配置TTL(参考上表),开启持久化
  3. 负缓存:无效IP、查询失败结果,TTL设5-30min,防缓存穿透

5.2 强刷配置

  1. 强刷触发:仅触发高风险场景(参考上表),单IP/账号10min内最多强刷1次
  2. 回源防护:全局API回源QPS设上限,超时(300ms)直接熔断,切离线兜底
  3. 缓存写回:稳定字段(属地)回源即写缓存;波动字段(风险)旁路写,避免噪声污染

六. 监控与验证(落地闭环)

6.1 必加监控指标(实时观测)

  1. 缓存:L1/L2命中率(目标≥90%)
  2. API:回源率、失败率、超时率(超时率≤1%)
  3. 延迟:缓存命中P95≤50ms,回源P95≤300ms
  4. 业务:误杀率(≤0.5%)、拦截成功率、申诉率

6.2 效果验证

  1. A/B测试:同一场景两套TTL策略,并行7天,对比误杀、拦截、延迟指标
  2. 离线回放:调用IP数据云提供的历史黑产样本、拒付订单,复测新旧策略,验证拦截效果

七. 硬性边界(写入研发规范)

  1. 强对抗业务,代理/风险标签应短TTL+强刷,离线库不可作为主力
  2. 采购第三方API,应明确字段级更新周期,拒绝“实时更新”模糊表述
  3. IP风险判定不应一票否决,应叠加设备、行为、账号多维度校验
  4. API故障时,慢变字段用离线库兜底,快变字段标记“未知风险”,保守放行

八. 落地结论总结

8.1 默认字段分工:

  • 归属地/运营商/ASN离线库主用;离线库日更(周更也可作为下限起点);在线缓存24h级或更长
  • 代理识别/风险画像在线API主用或兜底;在线缓存5–60min(按场景);允许高风险事件强刷

8.2 默认系统策略:

  • 分层缓存(本地 + Redis)
  • SLA指标写入方案(最大陈旧度、回源率、延迟)
  • 监控指标部署完成,可实时观测
  • 业务场景配置复用完成,无遗漏

开发者朋友们大家好:

这里是 「RTE 开发者日报」,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real-Time Engagement) 领域内「有话题的技术」、「有亮点的产品」、「有思考的文章」、「有态度的观点」、「有看点的活动」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。

本期编辑:@koki、@鲍勃

01 有话题的技术

1、Qwen 开源 Qwen3.6-27B:27B 稠密多模态模型,智能体编程能力超越 397B 前代旗舰

Qwen 团队宣布开源 270 亿参数稠密多模态模型Qwen3.6-27B。该模型采用非 MoE 稠密架构,在参数量仅为前代旗舰(Qwen3.5-397B-A17B)十五分之一的情况下,在智能体(agent)编程及多模态推理基准上实现了全面超越。

  • Agent 编程性能跨级压制:在核心编程基准 SWE-bench Verified 取得 77.2 分,SWE-bench Pro 取得 53.5 分,并在 Terminal-Bench 2.0(59.3)和 SkillsBench(48.2)上大幅领先于参数规模高达 397B 的前代 MoE 模型。
  • 原生多模态推理引擎:支持图像、视频与文本的统一理解,具备视觉语言「思考模式」(Thinking Mode),其推理性能指标 GPQA Diamond 得分为 87.8。
  • 高效稠密架构设计:作为稠密模型(Dense Model),无需 MoE 路由逻辑,降低了推理延迟与部署复杂度,是主流显存规模环境下获取顶尖编程能力的理想规格。
  • API 引入 preserve\_thinking 功能:阿里云百炼平台即将支持该参数,允许在 API 消息中保留所有前序轮次的思维链(CoT)内容,专门针对复杂智能体任务优化。
  • 工具链深度集成:支持无缝接入 OpenClaw、Claude Code 及 Qwen Code 等第三方编程助手,实现具备上下文感知能力的工程级代码开发。

(@通义实验室)

2、DeepSeek 发布 V4 系列模型:全系标配 1M 上下文,同步开源 1.6T MoE 权重

DeepSeek 正式发布 V4 预览版大模型,包含主打极致性能的 V4-Pro 与主打低延迟的 V4-Flash 两个版本。本次更新全系标配 1M(百万)tokens 上下文长度,并同步开源完整模型权重与配套工具链。开发者无需修改原有的 base_url 即可接入,直接获取具备增强智能体(agent)与代码能力的基座模型。

1.6T MoE 架构与全系 1M 上下文:V4-Pro 采用总参数 1.6T、激活参数 49B 的 MoE 架构,预训练数据量达 33T;全系列(含 V4-Flash)将上下文长度从上一代 V3.2 的 128K 直接跃升至 1M tokens,支持端到端导入完整代码库或百万字文档。

Flash 版本激活参数 13B,输入低至 0.2 元:V4-Flash 采用 13B 激活参数,并引入全新 token 压缩注意力机制与 DSA 稀疏注意力架构。API 采用阶梯计费,缓存命中输入为 0.2 元 / 百万 tokens(未命中为 1 元),输出 2 元 / 百万 tokens。Pro 版本缓存命中输入为 1 元 / 百万 tokens(未命中 12 元),输出 24 元 / 百万 tokens。

新增参数控制与多格式接口兼容:全系列同时支持思考与非思考双模式,开发者可通过新增的 reasoning_effort 参数自定义思考强度;全量支持 Json Output、Tool Calls 与对话前缀续写能力。API 原生兼容 OpenAI ChatCompletions 与 Anthropic 两种接口格式。

全量非阉割开源与 Day 0 框架适配:完整保留与云端 API 一致的全量能力(无功能阉割)并开源模型权重。同步提供微调、量化与推理加速全流程工具链,完成 vLLM、TGI 推理框架及 LangChain、LlamaIndex 等智能体框架的 Day 0 原生适配。

(@极客公园)

3、GPT-5.5 正式发布:更聪明、更省 token

今天凌晨,OpenAI 正式发布旗下最强旗舰模型 GPT-5.5 及 GPT-5.5 Pro,核心能力是接受杂乱、多步骤的复杂任务并自主完成 —— 规划路径、调用工具、校验结果、持续推进,无需用户逐步干预。

  • Terminal-Bench 2.0 得分 82.7%(GPT-5.4 为 75.1%),SWE-Bench Pro 达 58.6%,内部长任务评测 Expert-SWE 达 73.1%,且三项测试均以更少 token 完成;
  • GDPval 跨 44 职业评测获胜或打平比例 84.9%,Tau2-bench Telecom 客服工作流达 98.0%(GPT-5.4 为 92.8%),OSWorld 计算机操作达 78.7%;
  • BixBench 生物信息学评测 80.5%,居已发布分数模型首位;一个内部版本还证明了一个关于 Ramsey 数的长期猜想,并在 Lean 中完成形式化验证;
  • 与英伟达 GB200/GB300 NVL72 系统联合设计,每 token 延迟与 GPT-5.4 持平,同时通过负载均衡优化将 token 生成速度提升超过 20%;同样的 Codex 任务,GPT-5.5 消耗的 token 显著更少

Cursor 联合创始人兼 CEO Michael Truell 表示,GPT-5.5「面对复杂长期任务时能坚持更久而不中途停下」;Every 创始人兼 CEO Dan Shipper 验证了其能独立给出与资深工程师相同的系统重构方案;

一位英伟达工程师甚至表示「失去访问权限感觉就像肢体被截肢了一样」。

( @APPSO)

4、Era 获 1100 万美元融资:推出 AI 硬件编排平台,原生接入超 130 个 LLM

由前 Humane 和 Jony Ive 硬件项目(io)核心成员创立的初创公司 Era 宣布累计完成 1100 万美元融资。该公司针对 AI 硬件推出了一套软件编排与智能体调度平台,为硬件开发者提供处理多模态输入与模型推理的底层基础设施。此举将允许开发者无需自建复杂的模型调度后端,即可快速开发脱离传统 App 交互模式的新型 AI 穿戴设备。

开发者套件原型落地验证:今年 4 月,基于 Era 交付的最小化模块化开发套件(Developer Kit),早期开发者已构建出多款实验性终端,包括:播报特定国家文化笑话的实体纪念品、能根据股票数据预测「今日是否适合辞职」的类手机装置,以及空气质量监测仪。

更多原型作品:https\://primavera.era.world/

原生集成超 130 个 LLM:平台已预置来自 14 家以上模型提供商的 130 多个大语言模型(LLM),为硬件开发者提供开箱即用的推理接口与定制化语音生成能力。

动态路由(Dynamic routing)与环境适配:平台核心引擎支持跨模型的动态请求路由,并专门针对边缘硬件在现实世界中的约束(如网络连接状态、低功耗限制)优化了调度逻辑。

无 App 化(App-less)架构设计:提供独立于手机操作系统的「智能层(Intelligence layer)」,支持向眼镜、戒指、家庭音响等非传统屏幕设备输出环境感知与交互能力。

用户级记忆与隐私解耦:在架构上允许终端用户自主选择记忆存储方式和底层模型提供商,以满足隐私隔离与数据合规需求。

开发者套件(Dev Kit)已向部分创客与艺术家内测,平台后续计划向开源及创客社区开放。

https://era.world/

(@TechCrunch)

02 有亮点的产品

1、ElevenLabs 联合 Turn.io 启动 2026 健康加速器:整合 TTS/STT 接口与 WhatsApp 基础设施

ElevenLabs 宣布联合 Turn.io 与 Anthropic 推出为期 24 周的「Chat for Health Accelerator 2026」。该项目旨在利用 ElevenLabs 的语音技术栈,将基于 WhatsApp 的医疗服务从纯文本交互升级为语音原生交互,以解决全球低识字率及多语言人群的医疗信息接入障碍

  • 全栈语音 AI 基础设施输出:提供 ElevenLabs TTS(文本转语音)、STT(语音转文本)以及 ElevenLabs Agents 接口,重点支持低资源语言(Low-resource languages)的实时交互。
  • $250,000 共享信用额度与模型集成:入选的 10 家机构将共享 25 万美元的语音服务额度,并整合 Anthropic 提供的模型算力支持,用于构建生产级对话智能体。
  • WhatsApp 生态规模化分发:利用 Turn.io 已有的 WHO(世卫组织)及 UNICEF(联合国儿童基金会)级基础设施,将语音交互无缝嵌入 WhatsApp 界面,覆盖现有近 300 家组织的医疗服务网络。
  • 24 周生产级部署周期:项目从 2026 年 7 月运行至 12 月,核心目标并非原型(Pilot)验证,而是实现患者导航与互动服务的全量规模化上线。

( @elevenlabs)

2、GRAI 获 900 万美元种子轮融资:推出实时音频衍生管线,聚焦社交化音乐二次创作

白俄罗斯创业团队 GRAI 完成 900 万美元种子轮融资,由 Khosla Ventures 与 Inovo VC 领投。该公司避开 Suno、Udio 等纯生成式(Text-to-Music)路径,通过构建实时音频系统和权限管理机制,推动基于版权音乐的社交混音与二次创作

  • 实时音频衍生管线(Derivatives Pipeline): GRAI 自研了一套底层基础设施,支持在保留原曲核心特征(Identity)的前提下,实现实时的风格变换与混音。该系统旨在平衡「用户参与感」与「版权保护」,而非生成全新的 AI 音乐
  • 兴趣与参与图谱(Taste and Participation Graph): 针对 Gen Z 与 Gen Alpha 用户,GRAI 建立了一套社交发现机制,通过朋友关系链、粉丝群体和短视频语境(如 TikTok 模式)驱动音乐传播,而非依赖传统的流媒体被动收听。
  • 合规性与版税分发模型: 核心产品逻辑为「先征得许可,再集成」。系统内置艺术家 Opt-in/Opt-out(选择加入/退出)机制,允许版权方通过用户生成的修改版本获取新增版税,试图解决生成式 AI 带来的版权侵权及「内容泛滥(Slop)」问题。
  • 跨平台产品矩阵: 目前已发布 iOS 端的「Music with friends」应用及 Android 端的 AI 音乐实验平台,用于收集用户在实时互动、社交混音场景下的反馈,以优化其音频处理引擎。

( @TechCrunch)

03 有态度的观点

1、员工故意删除 AI 训练数据被起诉,北京市检察机关深化知识产权保护

北京市人民检察院发布《北京市检察机关知识产权检察白皮书(2025 年)》。

去年北京市检察机关共办理知识产权案件 1195 件,同比上升 10.34%,其中刑事检察案件 744 件、审查起诉 234 件 420 人,民事检察案件同比上升 2.15 倍,公益诉讼检察案件同比上升 5.5 倍。

在 AI 产业保护方面,北京市检察机关去年共办理涉人工智能产业、数据要素产业知识产权案件 113 件,涵盖 AI 技术侵权认定、模型训练数据法律属性、数据知识产权权属界定等前沿法律议题。

其中,东城区检察院办理的全市首例非法删除 AI 模型训练数据案尤为典型。涉案员工故意删除公司用于训练 AI 模型的大量数据,导致模型训练系统结构性破坏,造成重大经济损失

检察机关最终以「破坏计算机信息系统罪」提起公诉,推动将 AI 模型训练系统纳入刑法保护范畴。通州区检察院则办理了全市首例利用 AI 生成模型侵犯著作权案,四名被告人均因犯侵犯著作权罪被判处刑罚。

(@APPSO)

阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么

写在最后:

我们欢迎更多的小伙伴参与 「RTE 开发者日报」 内容的共创,感兴趣的朋友请通过开发者社区或公众号留言联系,记得报暗号「共创」。

对于任何反馈(包括但不限于内容上、形式上)我们不胜感激、并有小惊喜回馈,例如你希望从日报中看到哪些内容;自己推荐的信源、项目、话题、活动等;或者列举几个你喜欢看、平时常看的内容渠道;内容排版或呈现形式上有哪些可以改进的地方等。

作者提示: 个人观点,仅供参考

做反向海淘系统之前,我调研过不少方案。核心需求很明确:帮海外消费者从淘宝、京东、拼多多、1688这些平台买东西,通过独立站完成跨境销售。一件代发模式省去囤货压力,选品+搬运就能起步,看着简单,做起来全是坑。

整个链路涉及1688货源对接、商品翻译、独立站搭建、跨境物流、支付对接,哪个环节出问题都够呛。

最近在折腾Taocarts,发现它的思路有点意思。

它的核心是Taoify模块,封装了国内主流平台的商品数据抓取逻辑。不需要自己写爬虫,也不用逐一对接各平台API。商品信息、图片、SKU规格这些数据会自动拉取过来,开发者主要精力可以放在Shopify或WooCommerce独立站的对接上。

支持WooCommerce和Shopify两大主流平台。对接海外消费者的主流渠道,这个切入点是务实的。做跨境电商的人都清楚,独立站流量得自己扛,没有平台自然流量,全靠社交流量+TikTok Shop导流,工具能省多少心是关键。

反向海淘类工具最让人担心的就是后期成本。Taocarts在官网上把费率写得很明确,没有玩文字游戏。这种透明度在服务商里不多见。

从商品采集到一键上架,流程比想象中顺畅。没有遇到严重的卡顿或数据丢失问题。当然,具体稳定性还需要长期观察。

如果你正在做或者计划做反向海淘、跨境电商独立站相关的项目,建议去taocarts.com看看,对比一下自己调研过的方案。它不一定适合所有场景,但在费用透明度和功能集成度这两个维度,确实有自己的优势。

技术选型没有标准答案,关键是想清楚自己要解决的核心问题是什么。

最好是开源方案,或者微软拼音+额外配置也可以,不要国产商业输入法。

开源方案试过 Rime 小狼毫 + 雾凇/薄荷方案,中文输入的效果非常满意,预测精准输入流畅,但是对中英混输以及英文词汇自动记忆/提前补全效果一般

微软拼音则是中英混输做的不错,英文生词记忆也挺好。但是纯中文输入就感觉磕磕绊绊,里面很多词汇的优先级有问题,常用的预选词汇经常不在第一页。完全做不到像小狼毫 + 雾凇/薄荷 那种中文输入的流畅度。

各位平时常用的输入法是什么?对这种需求,目前有什么好的解决方案吗

最近做了个小项目,太喜欢 links 的视频,用 AI Vibe Coding 把 YouTube 旅行摄影频道 @linksphotograph 里出现过的地点整理出来,标到 3D 地球上。

地址: https://links-map.vercel.app
GitHub: https://github.com/kenwoodjw/links_map

功能很简单:

- 看地点分布
- 按地区 / 状态筛选
- 点地点看对应视频
- 标记已去 / 想去
- 本地写一点旅行笔记

技术栈是 Next.js 16 、React 19 、Tailwind v4 、MapLibre GL ,数据目前是静态 JSON ,没有后端。

想听听大家对 UI 和产品形态的建议,欢迎拍砖。

做反向海淘系统之前,我调研过不少方案。核心需求很明确:帮海外消费者从淘宝、京东、拼多多、1688这些平台买东西,通过独立站完成跨境销售。一件代发模式省去囤货压力,选品+搬运就能起步,看着简单,做起来全是坑。

整个链路涉及1688货源对接、商品翻译、独立站搭建、跨境物流、支付对接,哪个环节出问题都够呛。

最近在折腾Taocarts,发现它的思路有点意思。

它的核心是Taoify模块,封装了国内主流平台的商品数据抓取逻辑。不需要自己写爬虫,也不用逐一对接各平台API。商品信息、图片、SKU规格这些数据会自动拉取过来,开发者主要精力可以放在Shopify或WooCommerce独立站的对接上。

支持WooCommerce和Shopify两大主流平台。对接海外消费者的主流渠道,这个切入点是务实的。做跨境电商的人都清楚,独立站流量得自己扛,没有平台自然流量,全靠社交流量+TikTok Shop导流,工具能省多少心是关键。

反向海淘类工具最让人担心的就是后期成本。Taocarts在官网上把费率写得很明确,没有玩文字游戏。这种透明度在服务商里不多见。

从商品采集到一键上架,流程比想象中顺畅。没有遇到严重的卡顿或数据丢失问题。当然,具体稳定性还需要长期观察。

如果你正在做或者计划做反向海淘、跨境电商独立站相关的项目,建议去taocarts.com看看,对比一下自己调研过的方案。它不一定适合所有场景,但在费用透明度和功能集成度这两个维度,确实有自己的优势。

技术选型没有标准答案,关键是想清楚自己要解决的核心问题是什么。

最好是开源方案,或者微软拼音+额外配置也可以,不要国产商业输入法。

开源方案试过 Rime 小狼毫 + 雾凇/薄荷方案,中文输入的效果非常满意,预测精准输入流畅,但是对中英混输以及英文词汇自动记忆/提前补全效果一般

微软拼音则是中英混输做的不错,英文生词记忆也挺好。但是纯中文输入就感觉磕磕绊绊,里面很多词汇的优先级有问题,常用的预选词汇经常不在第一页。完全做不到像小狼毫 + 雾凇/薄荷 那种中文输入的流畅度。

各位平时常用的输入法是什么?对这种需求,目前有什么好的解决方案吗

最好是开源方案,或者微软拼音+额外配置也可以,不要国产商业输入法。

开源方案试过 Rime 小狼毫 + 雾凇/薄荷方案,中文输入的效果非常满意,预测精准输入流畅,但是对中英混输以及英文词汇自动记忆/提前补全效果一般

微软拼音则是中英混输做的不错,英文生词记忆也挺好。但是纯中文输入就感觉磕磕绊绊,里面很多词汇的优先级有问题,常用的预选词汇经常不在第一页。完全做不到像小狼毫 + 雾凇/薄荷 那种中文输入的流畅度。

各位平时常用的输入法是什么?对这种需求,目前有什么好的解决方案吗

最好是开源方案,或者微软拼音+额外配置也可以,不要国产商业输入法。

开源方案试过 Rime 小狼毫 + 雾凇/薄荷方案,中文输入的效果非常满意,预测精准输入流畅,但是对中英混输以及英文词汇自动记忆/提前补全效果一般

微软拼音则是中英混输做的不错,英文生词记忆也挺好。但是纯中文输入就感觉磕磕绊绊,里面很多词汇的优先级有问题,常用的预选词汇经常不在第一页。完全做不到像小狼毫 + 雾凇/薄荷 那种中文输入的流畅度。

各位平时常用的输入法是什么?对这种需求,目前有什么好的解决方案吗

最好是开源方案,或者微软拼音+额外配置也可以,不要国产商业输入法。

开源方案试过 Rime 小狼毫 + 雾凇/薄荷方案,中文输入的效果非常满意,预测精准输入流畅,但是对中英混输以及英文词汇自动记忆/提前补全效果一般

微软拼音则是中英混输做的不错,英文生词记忆也挺好。但是纯中文输入就感觉磕磕绊绊,里面很多词汇的优先级有问题,常用的预选词汇经常不在第一页。完全做不到像小狼毫 + 雾凇/薄荷 那种中文输入的流畅度。

各位平时常用的输入法是什么?对这种需求,目前有什么好的解决方案吗

最好是开源方案,或者微软拼音+额外配置也可以,不要国产商业输入法。

开源方案试过 Rime 小狼毫 + 雾凇/薄荷方案,中文输入的效果非常满意,预测精准输入流畅,但是对中英混输以及英文词汇自动记忆/提前补全效果一般

微软拼音则是中英混输做的不错,英文生词记忆也挺好。但是纯中文输入就感觉磕磕绊绊,里面很多词汇的优先级有问题,常用的预选词汇经常不在第一页。完全做不到像小狼毫 + 雾凇/薄荷 那种中文输入的流畅度。

各位平时常用的输入法是什么?对这种需求,目前有什么好的解决方案吗

标题描述可能不详细。平时走路时,膝盖不会响,如果是躺着的时候,比如腿保持伸直状态一分钟,在弯曲,就会有一声特别大的咔嚓响声。如果在保持弯曲一分钟,在伸直,又会响。



一旦进入某种模式,就会频繁异响。走路少和走路多都是这样,去医院问题,医生也没说个所以然,但是真的不舒服。

型号:VK16D32
品牌:永嘉微电/VINKA
封装:SSOP24
年份:新年份
VK16D32是一种恒流数码管或点阵LED驱动控制专用芯片,内部
集成有数据锁存器、LED恒流驱动模块等电路。可以通过寄存器
配置,调节扫描的位数,从而获得更大的单点驱动电流。数据通
过I2C通讯接口与MCU通信。SEG脚接LED阳极,GRID脚接LED
阴极,可支持8SEGx1GRID到8SEGx12GRID的点阵LED显示面
板。采用SSOP24的封装形式,适用于小型LED显示屏驱动。
相较于传统的 LED 显示面板驱动芯片,当点亮的 LED 数量变化
或者输入电压变化时,单颗 LED 电流会发生变化,从而会影响
显示亮度;而采用了恒流设计,当显示模式配置好后,每颗 LED
的电流就恒定不变,不会因点亮的 LED 数量变化和输入电压变
化而产生波动。

• 工作电压 3.0-5.5V
• 内置 RC振荡器
• 8个SEG脚,12个GRID脚(显示位数可调1到12位)
• SEG脚只能接LED阳极,GRID脚只能接LED阴极
• I2C通讯接口
• 16级整体亮度可调(SEG恒流设置16级)
• 内置显示RAM为8x12位
• 内置上电复位电路
• 输出恒流
• 驱动电流大,适合高亮显示场合
• 封装
SSOP24L(150mil)(8.65mm × 3.90mm PP=0.635mm)

其他VKL系列 超低功耗液晶驱动芯片 参数如下:

RAM映射LCD控制器和驱动器系列:

VK1024B 2.4V~5.2V 6seg4com 63 6*2 偏置电压1/2 1/3 S0P-16

VK1056B 2.4V~5.2V 14seg4com 143 14*2 偏置电压1/2 1/3 SOP-24/SSOP-24

VK1072B 2.4V~5.2V 18seg4com 183 18*2 偏置电压1/2 1/3 SOP-28

VK1072C 2.4V~5.2V 18seg4com 183 18*2 偏置电压1/2 1/3 SOP-28

VK1088B 2.4V~5.2V 22seg4com 223 偏置电压1/2 1/3 QFN-32L(4MM*4MM)

VK0192 2.4V~5.2V 24seg*8com 偏置电压1/4 LQFP-44

VK0256 2.4V~5.2V 32seg*8com 偏置电压1/4 QFP-64

VK0256B 2.4V~5.2V 32seg*8com 偏置电压1/4 LQFP-64

VK0256C 2.4V~5.2V 32seg*8com 偏置电压1/4 LQFP-52

VK1621 2.4V~5.2V 324 323 32*2 偏置电压1/2 1/3 LQFP44/48/SSOP48/SKY28/DICE裸片

VK1622 2.7V~5.5V 32seg*8com 偏置电压1/4 LQFP44/48/52/64/QFP64/DICE裸片

VK1623 2.4V~5.2V 48seg*8com 偏置电压1/4 LQFP-100/QFP-100/DICE裸片

VK1625 2.4V~5.2V 64seg*8com 偏置电压1/4 LQFP-100/QFP-100/DICE

VK1626 2.4V~5.2V 48seg*16com 偏置电压1/5 LQFP-100/QFP-100/DICE

(高品质 高性价比:液晶显示驱动IC 工程技术支持!)