执行maven clean install命令,编译后的类中未包含get set方法

现象

在IntelliJ IDEA中执行mvn-install.cmd文件。其中文件内容为

`mvn clean install -DskipTests`

执行的结果中报了错误

[ERROR] /C:/workspaces/IdeaProjects/guigen-projects/commons-io/src/main/java/work/guigen/io/StringSerializableContainer.java:[10,16] 找不到符号
符号:   方法 getValue()
位置: 类 work.guigen.io.StringSerializableContainer

原java类为

/**
 * 继承这个类需要覆写serialize()方法
 */
@Getter
@Setter
@NoArgsConstructor
public class SerializableContainer<T> implements SimpleSerializable {
    private T value;

    public SerializableContainer(T value) {
        this.value = value;
    }

}

编译后的class为

public class SerializableContainer<T> implements SimpleSerializable {
    private T value;

    public SerializableContainer(T value) {
        this.value = value;
    }
}

解决

在这一次问题中,解决的方式为修改环境变量中java的版本。
电脑中安装了多个jdk版本,默认jdk版本为25.
在环境变量中加入JAVA_HOME,并在PATH中加上%JAVA_HOME%\bin,上移(优先级高于之前的java配置)。
在命令行中执行java -version。确认java版本更改成功。

关闭IntelliJ IDEA,并重新打开,确保配置生效。

tag

  • lombok
  • maven
  • java
  • IntelliJ IDEA

在与 AI 对话的过程中,你一定见过这样不伦不类的输出:

换言之,那些本该加粗的部分并没有加粗,周围却多了一堆星号。

有一定技术背景的读者都知道,这些星号是 Markdown 中的强调标记。Markdown 是一种格式标记语言,可以用一些简单而直观的语法,为纯文本附加格式信息。近年来,Markdown 文档常用于模型训练,从而成为了 AI 模型的原生语言。如今,AI 模型的回答大多都是以 Markdown 格式输出,然后再在客户端渲染为带格式文本的。

当然,上述问题并不只出现在 AI 聊天中。如果你用 Markdown 记笔记或者写作,应当对类似的现象早就不陌生了。

可是,Markdown 语法不就是把 ** 之间的内容当作强调部分的吗?为什么在一些场景下能加粗,另一些场景下就不能加粗了呢?

答案是,「** 之间的是加粗部分」只是一种简略说法,当下流行的 Markdown 标准已经给这个规则追加了很多例外。遗憾的是,虽然新规则本意是让 Markdown 更加严谨,但却没有考虑中文的特殊性,导致一些本应生效的强调无法正常渲染。

来龙去脉要从 2004 年说起。当 John Gruber 在那年发布原版 Markdown 时,并没有制定严谨的规范,只提供了一份非正式的语法说明和一个 Perl 脚本 Markdown.pl

根据 Gruber 的语法说明,任何包裹在 *_ 中的文本,转换后都将被包裹在 HTML 标签 <em> 中;包裹在 **__ 中的文本,转换后将被包裹在 HTML 标签 <strong> 中;唯一的例外是,如果 *_ 的周围是空格,则原样输出。

事实上,如果你用 Markdown.pl 来渲染上面的问题案例:

perl Markdown.pl <<EOF
**重要:**请注意。

这是**「重要」**的内容。
EOF

会发现结果是完全正确的:

<p><strong>重要:</strong>请注意。</p>

<p>这是<strong>「重要」</strong>的内容。</p>

这当然不是因为 Gruber 中文十级,纯粹只是因为 Markdown.pl 的实现方式就是简单粗暴的正则表达式替换:

$text =~ s{ (\*\*|__) (?=\S) (.+?[*_]*) (?<=\S) \1 }
    {<strong>$2</strong>}gsx;

$text =~ s{ (\*|_) (?=\S) (.+?) (?<=\S) \1 }
    {<em>$2</em>}gsx;

对于一个标记语言来说,这样的规则和解析方式未免有些潦草。(当年的 Gruber 大概也没想到 Markdown 会有如今地位。)事实证明,原版 Markdown 确实留下了很多模糊地带和不理想的边缘场景。就拿涉及强调标记的场景来说,我们并不希望像 a*(b+c)*d 这样的数学式,或者 snake_case_var 这样的变量名中的 *_ 被当作添加强调,但 Markdown.pl 显然不能处理这样的复杂性。

然而,Markdown.pl 在 1.0.1 版后再也没有更新。其后,出现了不下十种 Markdown 的扩展语法和各种语言的实现,相互多有抵牾。一群不满现状的 Markdown 爱好者启动了一个标准化项目,于 2014 年发布第一版 CommonMark 规范,获得了广泛采用。2017 年,GitHub 在制定自己的 Markdown 规范(GitHub Flavored Markdown)时,将其作为 CommonMark 的严格超集,即除了表格等少数语法扩展外,完全沿用 CommonMark 的其余规则。这也进一步巩固了 CommonMark 的地位。

目前,许多主流的 Markdown 转换库,包括 ChatGPT、Claude 网页版使用的 remark,Obsidian 使用的 turndown,以及 VS Code 使用的 markdown-it 等,都是基于 CommonMark 的实现。因此,要解释 Markdown 强调标记为何会在中文环境下失效,就要看 CommonMark 对于强调语法是如何规定的。

这部分规定见于 CommonMark 规范的第 6.2 节。原文相当晦涩,但简单来说,为了让强调标记的使用更加严谨,它要求强调标记必须紧贴(flank)文字内容,其间内容才能被视作强调部分。

为了在程序上实现这一点,CommonMark 引入了「左侧贴合」(left-flanking)和「右侧贴合」(right-flanking)两个概念。

具体而言,一串强调标记是「左侧贴合」的,当且仅当——

  1. 它的后面不是一或多个空白符;及
  2. 它的后面——
    a. 不是一个标点符号;或
    b. 是一个标点符号,而它的前面是一或多个空白符(例如 She says, **“Nice to ...),或者一个标点符号(例如 (**“As noted ...)。1

换言之,一串强调标记的后面应当紧接着文字,或者左括号、左引号这样的起始标点,才能被视为强调部分的开头。

类似地,一串强调标记是「右侧贴合」的,当且仅当——

  1. 它的前面不是一或多个空白符;及
  2. 它的前面——
    a. 不是一个标点符号;或
    b. 是一个标点符号,而它的后面是一或多个空白符(例如 ... to meet you,”** she says.),或者一个标点符号(例如 ... noted above.”**))。

换言之,一串强调标记的前面应当紧接着文字,或者右引号、右括号这样的结束标点,才能被视为强调部分的结束。

在此基础上,CommonMark 规定,只有处在「左侧贴合」的强调标记之后、「右侧贴合」的强调标记之前的文本,才能被视作强调内容。特殊地,如果使用 ___ 作为强调标记,要让强调生效,则它不能同时构成左侧贴合和右侧贴合,除非它在被贴合内容的另一侧紧接着一个标点(例如 _What If?_.)。

由此,上文提到的这些边缘场景都会按原样渲染,而不会出现任何强调格式:

a*(b+c)*d
snake_case_var

在第一行中,前一个 * 的后面是标点符号,但它前面既不是标点符号也不是空白符,所以不是右侧贴合;类似地,后一个 * 也不是左侧贴合。因此,没有形成一个强调部分。在第二行中,两个 _ 的前后都是字母,而不是空白或标点,因此既是右侧贴合又是左侧贴合,也不能形成强调部分。

不难发现,当 CommonMark 试图以程序方式定义何为「紧贴文字」时,只考虑了英文等以空格分词的西方书写系统,因此大量依赖空格的语义功能来判断一段内容从何处开始、在何处结束。但一旦遇到中文这类词语之间没有空格的情况,就会出现很多不符合情理的判断。

回到上面的问题案例:

**重要:**请注意。
这是**「重要」**的内容。

在第一行中,后一对 ** 的前面是冒号,属于标点符号。根据定义,要构成右侧贴合,它的后面必须是空白符或者标点符号,而这里它的后面是汉字,从而不构成右侧贴合。在第二行中,前一对 ** 的后面是引号,同属标点符号。根据定义,要构成左侧贴合,它的前面必须是空白符或者标点符号,而这里它的前面也是汉字,从而不构成左侧贴合(类似地,后一对 ** 也不构成右侧贴合)。

因此,在这两个例子中,前后两对 ** 都无法形成强调部分,其间文本也就不会被加粗。

(另一个较为少见但成因类似的案例是夹在汉字之间的 _,即形如 这是__重要__的内容 的强调部分,因为前述针对 _ 的特别规则,也不会生效。)

以下是一些常见 Markdown 处理器的渲染效果对比,其中不能渲染出中文间强调标记的几种处理器都是采用了 CommonMark 规范:

常见 Markdown 处理器的渲染效果对比

其实,早就有许多中日韩用户注意到了这个问题。至迟在 2017 年,CommonMark 社区中就有用户提报过东亚文字中的强调标记问题,并提交了一个合并请求,但最终并未获得采纳。根据一名 CommonMark 维护者的说法,CommonMark 把兼容既有 Markdown 放在首位,针对 CJK 的专属方案不太可能被纳入,除非能证明「对现存海量文档影响极小」。

因此,至少在短期内,大概仍然无法期待中文 Markdown 的渲染问题从上游获得修复。根据具体的使用场景,这里提出几种变通方法供参考。

第一种方法是使用 HTML 标签来创建强调。由于 Markdown 语法允许直接使用 HTML,可以将上面的问题案例改写成:

<strong>重要:</strong>请注意。
这是<strong>「重要」</strong>的内容。

这样就完全回避了 CommonMark 不适合中文的处理规则。这种做法最为直接,缺点是比较麻烦,也不太美观。

第二种方法是通过添加空格来变相满足 CommonMark 的要求,即写成([SPACE] 表示插入空格的位置):

**重要:**[SPACE]请注意。
这是[SPACE]**「重要」**[SPACE]的内容。

这样,原本不构成贴合的强调标记,由于空格的加入就成为贴合的了。有趣的是,有一些国外模型(特别是 Gemini),可能因为缺乏中文训练,会强迫症般地在中文冒号甚或句号后面加一个空格,导致输出结果「误打误撞」地可以正确加粗。(这也是一个识别 AI 生成文本的实用技巧。)

当然,在中文里加普通空格比较难看,也没有任何语义上的依据。相比之下,一种更为美观的做法是加入不占任何空间的零宽空格(U+200B ZERO WIDTH SPACE):

**重要:[ZWSP]**请注意。
这是**[ZWSP]「重要」[ZWSP]**的内容。

这里,[ZWSP] 表示插入零宽空格的位置。注意与普通空格不同,零宽空格不是 CommonMark 定义上的空白符,而是普通字符,因此要加在强调标记的内侧而不是外侧,才能使得强调标记变成贴合文本的。考虑到零宽空格本来就具有指示单词边界的功能,这么做在语义上也算说得过去,只是输入起来可能比较麻烦。如果采用这种方法,可能最好配合一些快捷输入方式(例如 macOS 的文本替换)或者自动化脚本。

此外,如果你是开发者,或者所用工具支持扩展,那么可以使用一些针对东亚文字优化的补丁。例如,markdown-cjk-friendly 项目修订了 CommonMark 规则,在解析强调标记时,将其外围的 CJK 字符视为与空白符有同等效果。它提供了适用于 markdown-it 和 remark 的插件,将其与这些库一起导入,即可在不影响其他 CommonMark 规则正确性的同时(markdown-cjk-friendly 可以通过所有 CommonMark 的现有测试),修复 CJK 文本中的 Markdown 强调标记问题。

值得肯定的是,一些 AI 服务似乎已经注意到了这个问题。例如,国产的 Kimi 和豆包都能正确渲染夹在汉字之间的强调标记,即使它们使用的 markdown-it 遵循的也是 CommonMark,或许是专门做了处理;国外服务中的 Perplexity 也能正确渲染。

主流 AI 服务的渲染测试

最后跑题一句,在思考如何修复强调格式的同时,也不妨花些时间思考是否真的有必要靠格式来制造强调——粗体并不是适合中文的强调方式斜体中文更是最可怕的排版效果之一。如果条件允许,本文还是建议不要学习 AI 模型一言不合就加粗的坏习惯,尽量依靠句式、措辞和标点的变化来指示重点。毕竟,真正掷地有声的话是不需要靠吼的。

    你是不是经历过:项目写到一半,发现目录乱成毛线,组件互相依赖,改一个地方崩十个地方。想重写?老板说“没时间”。不重写?每天加班改bug。今天我们就来聊聊前端架构——不是大厂才需要的东西,而是让你的项目能撑过3年迭代的“骨架”。看完你就能搭出一个即使团队换了几拨人,代码依然整洁的项目。

    前言

    盖房子要先打地基、搭框架,再砌墙、装修。前端也一样。很多人上来就写组件,写到一半发现状态管理乱、API调用散落各处、样式冲突、路由不知道怎么组织……最后项目就像一栋歪歪扭扭的危房,加个新功能都怕塌。

    架构不是“过度设计”,而是让你在项目初期花20%的时间,省掉未来80%的痛苦。今天我们就从零开始,搭一套能支撑中大型项目的前端架构。

    一、技术选型:别跟风,看需求

    架构的第一步是选技术。但记住:没有最好的技术,只有最合适的

    1. 框架选什么?

    • React:生态最丰富,适合复杂交互、需要高度定制化的项目。学习曲线平缓,但需要自己搭配路由、状态管理。
    • Vue:上手快,模板直观,适合中小项目或团队以Java/PHP为主。官方生态完整(Vue Router、Pinia)。
    • Angular:大而全,适合大型企业级应用,但学习曲线陡峭。

    建议:如果不是特殊需求,React或Vue二选一。团队熟悉哪个用哪个。

    2. 状态管理

    • React:简单项目用Context + useReducer;中等项目用Zustand(轻量);大项目用Redux Toolkit。
    • Vue:Vue 3 推荐 Pinia(比Vuex更简单)。

    3. 构建工具

    • Vite:首选,快。除非你要兼容IE或需要特殊插件,否则别用Webpack了。

    4. 类型系统

    • TypeScript:必选。别犹豫,就算小项目也能减少一半的运行时bug。

    5. UI组件库

    • 内部后台系统:Ant Design、Element Plus、Semi Design。
    • 面向C端需定制:自己封装基础组件库,或用Tailwind CSS + 无头组件(Headless UI)。

    二、目录结构:一眼就知道代码在哪

    一个好的目录结构,新人进来10分钟就能找到要改的文件。推荐分层结构(以React为例):

    src/
    ├── api/            # API请求层
    │   ├── request.ts  # axios实例配置
    │   ├── user.ts     # 用户相关接口
    │   └── product.ts
    ├── assets/         # 静态资源(图片、字体)
    ├── components/     # 通用组件(按钮、弹窗、表格)
    │   ├── Button/
    │   │   ├── index.tsx
    │   │   ├── Button.module.css
    │   │   └── types.ts
    │   └── Modal/
    ├── hooks/          # 自定义Hooks
    ├── layouts/        # 布局组件(Header、Sidebar)
    ├── pages/          # 页面组件(按路由划分)
    │   ├── Home/
    │   ├── User/
    │   │   ├── List.tsx
    │   │   ├── Detail.tsx
    │   │   └── components/  # 页面私有组件
    │   └── ...
    ├── router/         # 路由配置
    ├── store/          # 全局状态(Redux/Zustand)
    ├── styles/         # 全局样式、主题变量
    ├── types/          # 全局TS类型定义
    ├── utils/          # 工具函数(日期格式化、校验、存储)
    └── main.tsx        # 入口

    原则

    • 按功能/模块划分,不是按文件类型(不要把所有css放一个目录)。
    • 通用组件放components,页面独有组件放在页面目录下的components
    • API按业务模块拆分,不要一个api.ts放几百行。

    三、API层:统一管理,妈妈再也不怕接口乱飞

    很多项目直接在组件里写fetch('/api/user'),导致接口地址散落各处,改个域名要替换几十个文件。

    正确姿势:封装API层。

    // api/request.ts
    import axios from 'axios';
    const request = axios.create({
      baseURL: import.meta.env.VITE_API_BASE_URL,
      timeout: 10000,
    });
    // 请求拦截器:加token、loading等
    request.interceptors.request.use(config => {
      config.headers.Authorization = `Bearer ${getToken()}`;
      return config;
    });
    // 响应拦截器:统一错误处理、数据解构
    request.interceptors.response.use(
      res => res.data,
      err => {
        if (err.response?.status === 401) {
          // 跳转登录
        }
        return Promise.reject(err);
      }
    );
    export default request;
    // api/user.ts
    import request from './request';
    export const getUserInfo = (id: number) => request.get(`/user/${id}`);
    export const updateUser = (data: User) => request.put('/user', data);

    组件里只调用getUserInfo,不关心底层用axios还是fetch。

    四、状态管理策略:别把所有东西都放全局

    • 组件内部状态useState
    • 跨组件但非全局ContextZustand 的小store。
    • 全局共享(用户信息、主题、权限):Redux/Pinia。
    • 服务器状态(缓存、请求状态):React Query / Vue Query(推荐),比手动管理loading、error、重试方便得多。

    五、路由设计:懒加载 + 权限控制

    • 使用动态import()实现路由懒加载,减少首屏体积。
    • 封装一个AuthRoute组件,根据用户权限重定向或显示403。
    // router/index.tsx
    const routes = [
      {
        path: '/dashboard',
        component: lazy(() => import('@/pages/Dashboard')),
        meta: { requiresAuth: true, roles: ['admin'] }
      }
    ];
    // 在Router组件里统一拦截

    六、样式方案:别让CSS互相打架

    • CSS Modules:简单、无侵入、类型安全。
    • Tailwind CSS:快速开发,但团队需要适应。
    • CSS-in-JS(styled-components):动态样式方便,但运行时性能稍差。
    • BEM命名 + SCSS:传统但稳定。

    推荐:CSS Modules + SCSS,或Tailwind + 普通CSS

    七、错误处理与日志

    • 全局错误边界:React的ErrorBoundary捕获组件渲染错误。
    • API错误统一处理:在axios拦截器里做。
    • 开发环境用console,生产环境禁用或上报
    if (import.meta.env.PROD) {
      console.log = () => {};
      console.warn = () => {};
    }

    八、代码规范与Git Hooks

    • ESLint:配置plugin:@typescript-eslint/recommended
    • Prettier:统一格式化。
    • Husky + lint-staged:提交前自动lint和格式化。
    • Commitlint:规范commit信息(如feat: xxxfix: xxx)。

    九、环境配置与构建优化

    • 使用.env文件区分开发、测试、生产环境。
    • Vite配置别名@指向src
    • 生产构建:开启terser压缩、rollup-plugin-visualizer分析包体积、代码分割(splitChunks)。

    十、总结:架构是不断演进的

    没有完美的架构,只有适应当下团队的架构。但一个好的架构应该有这些特征:

    • 新人上手快:目录清晰,命名规范。
    • 可扩展:加新功能不破坏旧代码。
    • 可维护:修改一处不需要改十处。
    • 可测试:模块解耦,依赖注入。

    别等到项目烂了才想重构。从第一天起,花点时间搭好架子,后面你会感谢自己。


    如果你觉得今天的“架构课”够干货,点个赞让更多人看到。明天我们将开启一个新系列——性能优化实战,从首屏加载到运行时优化,让你的页面快到飞起。我们明天见!

    故事 前言,我需要数据,而且是比较可靠 fact check 的数据。

    在整理 https://www.csindex.com.cn/#/dataService/PERatio 数据的时候,

    发现这个 CSI 的数据质量,怎么这么拉?(复现:网站打开 -- 导出数据,就可以看到 Dividend Yield )

    ### 1. 核心计算公式
    
    股息率的计算非常直观:
    
    $$\text{股息率} = \frac{\text{每股年度总分红}}{\text{当前股票价格}} \times 100\%$$
    
    * **分红金额:** 通常指公司过去一年累计发放的现金红利。
    * **股票价格:** 由于股价每天都在变动,所以股息率也是一个**动态变化**的数值。
    
    > **举个例子:**
    > 假设 A 股票现在的价格是 10 元,公司去年每股分红 0.5 元。
    > 那么它的股息率就是:$0.5 \div 10 = 5\%$。
    > 如果股价跌到了 8 元,而分红不变,股息率就会上升到 $6.25\%$。
    
    
    PROMPT WORD:
    
    2024 ,2025 年的万科 A 有分红吗?有的话,股息率 是多少,没有的话,股息率 应该是多少
    

    查了前 10 个,要么没派股,要么没派息,Dividend Yield 还不是 0 ,数据也太“真”了吧。贴个图

    https://imgur.com/a/B8pyRm7


    另外,问 V 友们,历史的派股派息数据在哪里公布?需要还原正确的 Turnover

    什么是 GrapheneOS?

    GrapheneOS 是 AOSP (安卓开源项目) 的分支,注重安全和隐私。

    GrapheneOS 有多安全?

    世界排名第二的以色列电子取证公司(官方特许的破解公司)Cellebrite 2024 年 7 月文档显示它们可以破解除了 iPhone 和 Google Pixel (最新版和部分旧版本)以外的所有移动设备,而 GrapheneOS 只有部分机型在 2022 年前的版本可以暴力破解。

    https://discuss.grapheneos.org/d/14344-cellebrite-premium-july-2024-documentation

    大记忆恢复术怎么办

    系统自带胁迫密码功能,在任意需要输入密码的界面输入胁迫密码会在不到半秒内清除数据。

    GrapheneOS 值得信任吗?

    此项目自 2014 年开始,曾和谷歌安全团队交流,被 ANSSI(法国国家信息系统安全局)使用和审计,以及和多个安全组织交流和审计。项目完全开源且透明。

    https://grapheneos.org/faq#audit

    哪些设备支持 GrapheneOS?

    GrapheneOS 的设备硬件安全性和开放性要求较高,目前仅支持 Google Pixel 系列,目前还在维护的是 Pixel 6 及以后的系列。推荐购入 Pixel 8 及以后的设备,因为其包含了 Titan M2、ARMv9 和硬件内存标记扩展等多项重大升级。可以通过游览器(基于 Chromium 的)或命令行安装:

    https://grapheneos.org/install/

    最近它们宣布与摩托罗拉合作,将在 2027 推出高通处理器的机型。(国行似乎不支持)

    https://motorolanews.com/motorola-three-new-b2b-solutions-at-mwc-2026/

    GrapheneOS 使用体验如何?

    由于是第三方操作系统,GrapheneOS 无法获取超过 Basic 的 Play Integrity,但讽刺的是 GrapheneOS 通过回锁 Bootloader 并加强系统等措施安全性远超其它基于安卓的操作系统,却因为谷歌的垄断无法使用部分应用,团队正在考虑起诉谷歌。(中国大陆用户则不用太担心)

    https://grapheneos.social/@GrapheneOS/116239523775374959

    银行类应用约 90% 正常运行,以下记录了兼容 GrapheneOS 的银行应用列表:

    https://privsec.dev/posts/android/banking-applications-compatibility-with-grapheneos/

    GrapheneOS 自带的 App Store 可以下载:系统应用、Google Play & GSF(以沙盒形式安装,可以像普通应用一样控制权限、安装和卸载)、Accerescent(开源应用商店)、Pixel 部分自带应用(沙盒化)。

    系统自带可以关闭的防御措施,如果应用因为防御措施崩溃了可以为其关闭部分防御。

    没有超出 AOSP 本身的本地化、个性化和便捷功能,但有网络和传感器权限控制等隐私安全相关功能。

    个人总结小知识

    无论是安卓还是 iOS 都无法完全阻止应用检测其它应用是否安装,iOS 可以使用隐藏应用隔离,安卓需要用多用户功能(隐私空间)。

    不要使用 F-Droid 或 Aurora Store,因为其签名安全问题和其它大小问题。

    https://privsec.dev/posts/android/f-droid-security-issues/

    相关资源推荐

    基础隐私和安全知识: https://www.privacyguides.org

    进阶: https://privsec.dev

    官网: https://grapheneos.org

    为什么需要安全和隐私?

    隐私归根结底是关于人的信息,这很重要,因为我们知道人的信息賦予了人的权力。如果我们关心我们成为真实、充实和自由的人的能力,我们必须关心适用于我们信息的规则。我们现代社会的大部分都是围绕信息构建的。当你在网上购物、阅读新闻、查找一些东西、投票、寻找方向或其他任何事情时,你都是在依赖信息。如果我们生活在信息社会中,我们的信息很重要,因此隐私也很重要。

    From

    你的数据你做主

    监视资本主义 想要你的数据获取利益,增加资本维持垄断。

    大规模监控 是政府为了社会安全作出的措施,但当权力被滥用时......

    有权有势的人都想获取你的数据,以便更精准地操控你,你至少该尽自己所能去反抗。

    攻防失衡,你的措施可能远远不够

    计算设备上的隐私与安全必须大幅增强,才能切实保护人们免受权利被系统性侵犯。如今,企业、犯罪分子和政府都在持续侵害用户隐私。软件中存在层出不穷的隐私与安全漏洞,而这些漏洞的利用也早已大规模发生。操作系统、浏览器和各类应用都必须在保护用户方面做得好得多。无论是隐私还是安全,都亟需取得巨大的进步。
    相较于标准的 Android 开源项目,GrapheneOS 在隐私与安全方面带来了显著提升。但它仍远远不够,我们在这两方面还有大量工作要做,而且这是一项没有终点的持续过程。隐私与安全本质上是一场攻防对抗。遗憾的是,大多数防御者进展甚微,并且正被攻击者越甩越远。
    攻击者正持续提升其对隐私与安全弱点的利用能力。商业化漏洞利用工具正被越来越广泛地用于大规模攻击。软件中的隐私与安全漏洞密度极高。大语言模型正在同时加速漏洞发现与利用开发。对绝大多数计算设备而言,防御能力正日益落后于攻击能力。iOS 和 GrapheneOS 只是少数例外,无法代表各类计算设备隐私与安全持续恶化的整体趋势。

    From

    从这里开始

    隐私指南

    隐私安全深入指南

    GrapheneOS 介绍

    最佳实践

    iPhone/Pixel/Mac、一双勤劳的手和够用的 🧠

    常见软件隐私和安全性误解,尽可能避免

    /e/OS & FairPhone

    /e/基金会和 Murena 的可疑信誉

    FairPhone 和 /e/OS 高度不安全的技术分析

    iodéOS & CalyxOS & LineageOS

    iodéOS 对 GrapheneOS 的攻击

    以上操作系统和 GrapheneOS 的对比

    以上操作系统不安全性技术分析

    安卓验证启动(Android Verified Boot)是最重要的防御措施之一,以上操作系统基本不可用,同时甚至存在安全补丁日期造假和大幅删除强化措施的行为。

    PostmarketOS/Ubuntu Touch

    SailfishOS/AuroraOS/Jolla

    PureOS/LibrePhone/PinePhone

    GNU/Linux 相比 AOSP 缺乏大量强化措施,主要原因是开发者对极端“自由”的过度追求和安全意识的缺乏。

    终身仁慈独裁者(Benevolent Dictator For Life)Linus 的不作为同样使 Linux 内核成为“反安全”软件。

    详解

    开源和自由软件不一定是安全软件

    Linux 的不安全

    F-Droid

    F-Droid 不安全性技术分析

    F-Droid 对 GrapheneOS 的歧视

    Aurora Store

    结论

    Firefox

    不安全性技术分析

    今日亮点

    今天 AI 领域有两件大事值得关注。OpenAI 正式推出了专为生命科学领域设计的模型 GPT-Rosalind,旨在加速生物、药物发现及转化医学研究。与此同时,Anthropic 发布了一项重要研究,揭示了大型语言模型(LLMs)如何通过数据中的隐秘信号传递偏好或错误对齐,这对 AI 安全和可控性提出了新的挑战。此外,Anthropic 还在自主对齐研究方面取得了显著进展,并迎来了新的董事会成员。

    💡 产品动态

    OpenAI 推出生命科学模型 GPT-Rosalind

    OpenAI 今天通过播客深入介绍了其全新的生命科学模型系列,核心是GPT-Rosalind。该模型旨在支持生物学、药物发现和转化医学领域的研究,目前已经可以用于提升研究工作流效率,未来有望实现更自主的实验室操作。

    为什么重要: 这标志着 AI 巨头开始将前沿大模型能力更深层次地应用到垂直的科研领域,有望加速生命科学的发现进程,但同时也强调了从一开始就要谨慎部署的重要性。

    阅读原文
    [来源: OpenAI Twitter]

    🔬 学术前沿

    Anthropic 发布 LLM 潜意识学习研究

    Anthropic 联合发表在《自然》杂志上的一项研究揭示,大型语言模型(LLMs)可以通过数据中的隐藏信号,如看似无意义的数字序列,来传递偏好甚至不当对齐(misalignment)。研究表明,即使数据与特定特征无关,模型也能“潜意识”地习得并传递这些特征。

    为什么重要: 这项研究对理解 LLMs 的内部工作机制和潜在风险至关重要,提醒研究者和开发者在构建和训练 AI 模型时,需要更深入地考虑数据中微弱信号可能带来的复杂影响,尤其是在安全和对齐方面。

    论文
    [来源: Anthropic Twitter]

    Anthropic 自主对齐研究员(AARs)展现通用性

    Anthropic 的自主对齐研究员(Automated Alignment Researchers, AARs),即搭载额外工具的Opus 4.6 模型,在一项实验中展现出惊人的能力。它们成功地在 7 天内将弱模型与强模型之间的“性能差距”弥补了97%,远超人类研究员 23% 的成绩,并且其最佳方法成功泛化到了编码和数学任务上。

    为什么重要: 这表明 AI 在自我改进和对齐研究方面的能力正快速提升,未来有望通过 AI 来加速解决 AI 安全和性能优化问题,推动更可靠、更强大的 AI 系统发展。

    阅读原文
    [来源: Anthropic Twitter]

    🌍 行业观察

    Anthropic 董事会迎来新成员

    Anthropic 的长期利益信托(Long-Term Benefit Trust)任命了Vas Narasimhan为公司董事会成员。Vas Narasimhan 拥有超过二十年的医学和全球健康经验,曾担任诺华公司(Novartis)首席执行官。

    为什么重要: 诺华 CEO 的加入为 Anthropic 带来了在生物医药领域的深厚经验,这不仅有助于公司在 AI 与生命科学交叉领域进行战略布局,也可能加强其在安全、伦理和负责任 AI 部署方面的考量,尤其是在敏感的医疗健康领域。

    阅读原文
    [来源: Anthropic Twitter]

    💻 开源项目

    • evolver:一个基于基因组进化协议(GEP)的 AI 智能体自我进化引擎,旨在让 AI 智能体能够自主进化和优化其能力。
      GitHub

    • multica:将编码智能体转化为团队伙伴,让它们能够自主接手任务、编写代码、报告障碍并更新状态,就像真实同事一样。
      GitHub

    • GenericAgent:一个 AI 驱动的 PC 智能体循环系统,专为桌面自动化和智能任务执行设计,能让 AI 在电脑上执行复杂操作。
      GitHub

    • DeepTutor:一个智能体原生的个性化学习助手,旨在利用 AI 提供高度定制化的学习体验。
      GitHub

    音乐播放器

    新版播放器

    OpenList

    旧播放器

    源代码已经找不到了

    如果对音乐播放器有相关经验,或者对音乐播放器感兴趣,或者分享一些你觉得好听的音乐,可以一起讨论一下,在本帖回复即可。

    另外 IPFS 可以利用起来 IPFS

    什么是 TLMC

    TLMC,即 "Touhou Loseless Music Collection" 的缩写。(Touhou Losey Music Collection)

    点赞过 100 做一个 miHoYo (大概 60 多 GB 音乐) 的音乐播放器

    Apple Logic Pro 12.2 发布 - 专业音乐制作 (音频编辑)

    Apple Creator Studio - Logic Pro 12.2 + MainStage 4.2

    请访问原文链接:https://sysin.org/blog/apple-logic-pro/ 查看最新版。原创作品,转载请保留出处。

    作者主页:sysin.org


    Logic Pro

    妙想成声

    用 Logic Pro 在 Mac 和 iPad 上做音乐,感觉就是不同凡响。有丰富的乐器和效果供你取用,还有智能工具帮你创作节拍、谱曲和混音。无论创作还是剪辑音频,你都能大展音乐才华。

    16 英寸 MacBook Pro 和 13 英寸 iPad Pro 屏幕均显示 Logic Pro。

    16 英寸 MacBook Pro 和 13 英寸 iPad Pro 屏幕均显示 Logic Pro。

    全新 iPad 和 Mac 版 Logic Pro 带来突破性的音乐创作体验。

    Mac 与 iPad 版 Logic Pro 面向 Apple Creator Studio 订阅用户及选择一次性购买 Mac 版 app 的用户推出一系列新功能,支持音乐艺术家并帮助创作者为视频内容配上原创音乐。这些强大、直观、智能的新工具为节拍制作、歌曲创作、混音等创意工作提供灵感。

    Logic Pro

    Mac 与 iPad 版 Logic Pro 为音乐创作加速并提供灵感,助艺人和创作者打造原创歌曲和音频声轨。

    Logic Pro

    本领先声夺人,
    创意一鸣惊人。

    Logic Pro

    • 使用实时循环乐段,以全新方式进行音乐创作和即兴演奏。
    • 借助采样器和快速采样器将声音转化为乐器 (sysin)。
    • 通过步进音序器来快速制作鼓点节拍和旋律模式。
    • 利用 Logic Remote 在 iPad 或 iPhone 上掌控乐曲的创作。

    Logic Pro MainStage 插件和音效

    MainStage 3

    舞台音效,媲美录音室效果。

    现在,将你的 Mac 变身现场演出装备。凭借不计其数的各种插件和音效选择,你可以让键盘、吉他或演唱表现令观众耳目一新,难以忘怀。

    更新记录

    Logic Pro 12.2,2026 年 4 月 10 日

    杜比全景声混音试听

    • 导出可在 iPhone、iPad 或 Mac 上播放的轻量化可共享文件,以试听空间音频混音在 Apple Music 上流播放的效果

    Step Reflex 内容包

    • 准备好舞动起来吧!Step Reflex 的“现代车库”通过粗犷的重低音能量、沉浸式环境氛围和一点点电子舞曲魔力,让 90 年代/21 世纪初英国车库音乐的标志性声音焕发无暇光彩
    • 无论是创作舞池颂歌还是内省律动 (sysin),这一完整合集的强劲二步节拍、适合狂欢的合成器、深沉的低音声部和具有感染力的人声切片都能让你的音轨大放异彩
    • 本更新包括稳定性提升和错误修复

    Logic Pro 12.0,2026 年 1 月 29 日

    AI 伴奏乐手

    • 通过全新的合成器手变换轨道,并使用直观的控制创建键盘和贝斯演奏
    • 生成可弹奏音符和控制乐器的动态合成器演奏
    • 使用简单背景音为乐曲增加丰富的和声层次,或者通过调制背景音与节奏和弦增加动感和力度变化
    • 探索流行的合成器贝斯风格(包括 808 贝斯、庞普贝斯和序列贝斯)以调整低音
    • 使用和弦 ID 识别乐曲任意部分中的和弦 (sysin),供伴奏乐手自动进行跟随

    声音资源库

    • 通过全新的声音资源库探索免费、内容持续增加的高级声音包合集
    • 试听任意声音包的音频并安装喜爱的内容
    • 轻松删除不再使用的声音包以释放储存空间

    如何下载

    Logic Pro 12.2,系统要求 macOS 15.6 或更高版本

    更多:macOS 下载汇总 (系统、应用和教程)

    不用看API文档,不用申请密钥。
    不需要AI“看屏幕”碰运气——录一段HAR,AI精确搞定一切。
    写完往 Openclaw 一丢,你负责吃小龙虾,它负责把消息发到群里。

    2026年4月,AI界的地震级更新接踵而至。OpenAI 刚刚发布了Codex的史诗级更新,赋予了AI全新的 “Computer Use” 能力:它拥有了自己的虚拟鼠标,能在Mac后台“看、点、输”,替你操作几乎任何桌面应用。

    全世界的开发者都在为此狂欢:“AI终于能自己干活了!”

    但在聚光灯之外,真正的生产力爆破,却藏在一个你可能每天都在用、却从未想过能用来造机器人的功能里——浏览器的HAR录制

    先别急着说“就这?”。如果你认为让AI“看屏幕”是唯一的自动化捷径,那你可能会白白浪费时间、金钱和算力。

    今天这篇文章,就是要为你扒开 “HAR录制自动化” 的神秘面纱,并把它和顶流的 “OpenAI Computer Use” 放在天平上称一称。

    看完你就知道,为什么高手都在悄悄用前者,而新手还在为后者的“幻觉误触”买单。


    💥 暴击开场:为什么说“让AI看屏幕”是杀鸡用牛刀?

    我们先来直视 Codex Computer Use 的真相:

    OpenAI 官宣:Codex 现在可以通过 “看、点、输” 的方式,像真人一样操作你的Mac电脑和应用。它能自己移动光标,能处理“没有API的软件”,甚至能在后台并行工作。

    听起来是不是无敌了?这简直就是钢铁侠的贾维斯!

    冷静。我们来做一道残忍的算术题:

    如果你只是想“每天在GitHub上自动创建几个Issue”或者“从公司后台导出昨天的报表”,让AI用视觉(Computer Use)来做这件事意味着:

    • 💰 巨额Token费:每一秒,AI都在疯狂截屏、识别、分析坐标。这烧的全是API费。以GPT-5.4 Computer Use API为例,每100万输出token要30美元,一个稍微复杂的网页操作跑下来,几毛钱几块钱就没了——而你原本只是想省30秒时间。
    • 🐢 极低的效率:AI必须像老年人上网一样:“哦,我看到了登录框……哦,我现在移动鼠标去点它……哦,我打一个字……”。执行一个5秒钟的操作,AI可能需要反复截图验证30秒。
    • 😵 致命的幻觉:今天它认出“提交”按钮了,明天网站UI改了一个像素,它可能就“瞎了”,对着空白处疯狂点击。

    不可否认,Computer Use是操作系统级的全能王——它生来就是为了搞定那些极度非标、完全无法预测、零API的长尾死局(比如修复一个Xcode里的游戏Bug)。

    但对于你每天重复千遍的“标准机械动作” 呢?用Computer Use,就是 “用巡航导弹打蚊子”——猛是真猛,贵也是真贵,而且极大概率会误炸。


    🚀 降维打击:HAR录制的“精确制导”逻辑

    HAR (HTTP Archive) 是什么?

    它不是录屏,它是浏览器 “数据底层的监控录像”
    当你在浏览器里登录、点按钮、填表单时,背后其实是你的电脑向服务器发送了一堆加密的“信件”(网络请求)。

    录制HAR,就是把这些“信件”的格式、内容、收件人地址,一个字母不差地拷贝下来。

    这就是 HAR录制自动化 的降维打击逻辑:

    不研究视觉,不依赖API文档——直接复刻你自己的“数据对话”。

    过程极其暴力:

    1. 夺舍登录态:F12 → Application → Cookies,复制一串字符。OK,现在你的AI脚本拥有了你的“通行证”。
    2. 录制核心请求:在Network里点一下录制,做一个你想自动化的操作(比如“新建任务”),然后停止。
    3. AI 逆向工程:把HAR丢给AI,对它说:“嘿,把刚才那个‘创建任务的API’给我找出来,写成Python脚本。
    4. 永动开启:AI分析出了URL、Headers、Payload结构,吐出一份精确到毫秒的执行脚本。

    核心差异在这一刻体现得淋漓尽致:

    维度💻 Computer Use (视觉流)🎯 HAR 录制自动化 (数据流)
    核心逻辑看图识字,模拟人类鼠标键盘直接发包,模拟人类网络请求
    对UI变化的容忍度零容忍 (改个样式就瞎)绝对免疫 (只要后端API没变)
    执行速度30秒起步 (加载渲染、坐标定位)毫秒级 (直连服务器)
    Token / 算力消耗极高 (每一帧都在烧钱)近乎为零 (一次性分析,永久复刻)
    编程门槛无门槛 (理论上用嘴就行)零门槛 (你只需录HAR,AI写代码)
    最适合场景一次性、跨软件、无API的罕见任务高频、重复、固定的业务流程

    🧪 极限实战:15分钟 VS 30秒,用HAR再造一个飞书任务助手

    光说不练假把式。我们把这两种技术拉到真实的“战场”上遛一遛。

    场景假设:你是一个项目经理

    每天你都要做同一件事:把“用户反馈群”里的聊天精华,手动敲到飞书多维表格里作为Bug追踪。
    这件事每天花掉你30分钟,烦不胜烦,且毫无价值。

    🅰️ 方案 A:使用 Codex Computer Use

    1. 操作:你对Codex说:“去飞书群里,把今天上午10点到12点标记为重要的消息,提取关键Bug,填到‘研发排期表’里。”
    2. AI执行过程

      • AI截屏,识别飞书群窗口。
      • 尝试通过图像找到“重要消息”标签(如果群聊背景换了颜色,或字体变了,可能第一步就卡住)。
      • 逐条滚动截屏,OCR识别文字。
      • 切换到多维表格,通过视觉找“添加一行”按钮。
      • 输入文字(极其缓慢)。
    3. 结果

      • 耗时:约 3-5 分钟(如果中途没点错的话)。
      • 费用:约 $0.5 - $1.0 / 次 (取决于截屏张数)。
      • 风险:一旦飞书改版UI,这条自动化链直接报废

        🅱️ 方案 B:使用 HAR 录制 + Skill 脚本

    4. 操作

      • Step 1 (5分钟):打开飞书网页版 → F12 → 录制 → 点开一条消息 → 在多维表格里加一行。导出 task.har。
      • Step 2 (10分钟):把 HAR 丢给 AI:“分析这个文件,找到‘发送群消息’和‘添加表格行’的API,生成一个 Skill。”
      • Step 3 (0分钟):AI 生成的 Python 脚本上线运行。
    5. 结果

      • 耗时第一次15分钟搭建;之后每天自动执行仅需 < 3秒
      • 费用$0.000(脚本在本地运行,不发截图)。
      • 风险:即便飞书UI改得面目全非,只要后端数据接口 /open-apis/bitable/... 没变,脚本100%照常工作

    哪个才是面向生产力的解法?答案不言而喻。


    🔫 终极形态:当 Skill 遇见 Openclaw——你的嘴就是鼠标

    上面的技术你可能觉得:“嗯,很牛,但我还是得打开终端敲命令运行脚本?”

    格局小了。

    HAR录制生成的 Skill,真正的最终归宿不是你的本地文件夹,而是一个叫 Openclaw 的地方。

    Openclaw 是什么?你可以把它理解为 AI 的“手”和“脚”——一个专门用来运行这些 SKILL.md 和 Python 脚本的智能体环境。

    整个过程会变成这样一段魔幻现实主义体验:

    1. :花 15 分钟录好 HAR,AI 帮你生成了一个名为“飞书群发助手”的 Skill 文件夹。
    2. :把这个文件夹直接拖进 Openclaw 的聊天框(或者 @ 它并关联这个技能)。
    3. :关掉所有网页,躺在椅子上,拿起手机,对着 Openclaw 说了一句人话
    “Hey Openclaw,帮我在【摸鱼小分队】群里发一条消息,就说:今晚小龙虾局,老地方,我请了AI代班写代码,必到。

    ⚡️ 下一秒发生了什么(Codex Computer Use 做不到的事)

    • Codex Computer Use 的视角
      它睁开眼睛,开始移动鼠标,寻找飞书图标,双击,等待加载,寻找搜索框,输入“摸鱼小分队”,点击进入,寻找输入框,打字,寻找发送按钮,点击发送。
      耗时 45 秒,费用 $0.3,且有 15% 概率点进了隔壁的“工作汇报群”酿成惨剧。
    • Openclaw + HAR Skill 的视角
      它读取了你的技能说明书,发现触发词是“发消息”和“小龙虾”。

      Openclaw 内部只干了一件事:向飞书的服务器发送了一个极简的数据包。
      数据包里写着:接收群ID是“摸鱼小分队”,内容就是那段小龙虾邀约的文字。

      耗时 0.8 秒。费用 $0.000。成功率 100%。

    🦞 为什么只有 HAR 流能让你“吃着小龙虾就把活干了”?

    因为 Openclaw + Skill 的组合,把 AI 的执行逻辑从 “模拟人类观察” 降维到了 “机器直接执行”

    • 没有界面渲染等待:不用等网页上那个菊花转完。
    • 没有坐标计算:不用算聊天框距离屏幕左上角是 (1345, 678)。
    • 没有误触焦虑:你不用担心 Openclaw 会不小心点开你昨晚看的淘宝链接。

    这就是为什么我说:

    Codex Computer Use 是让 AI 替你“看电脑”,你依然得守在旁边看着它别犯错。
    Openclaw + HAR Skill 是让 AI 替你“发指令”,你完全可以关机去吃小龙虾,事情照样办妥。

    🎯 完整对比表:三足鼎立,谁才是真·效率之王?

    维度🖱️ Codex Computer Use📡 HAR 录制🤖 HAR + Openclaw (完全体)
    操作入口对 AI 描述屏幕内容对着终端敲代码对着手机说人话
    执行速度分钟级 (受UI加载限制)毫秒级 (纯后端)即时响应 (边聊边干)
    执行体验像在看一位老爷爷用电脑像在看黑客跑脚本像在吩咐一位隐形的贴身秘书
    安全性有概率点错、误删只发指定请求只执行预设的意图
    场景代入你喊 AI 去发小龙虾邀约你写了脚本定时发邀约你随口一说,Openclaw 就把小龙虾局组好了
    费用💸💸💸💸💸💸💸 (几乎为0)

    🛠️ 从零到一:实操路线图(保姆级对比版)

    好了,如果你已经被我说服,这里有一份 “HAR流”独家的极简生存指南

    第一关:获得AI的“肉身”——处理认证

    • Computer Use 做法:眼睁睁看着AI笨拙地输入账号密码,或尝试保存全屏Cookies。
    • HAR流做法:直接把 Cookie 字符串复制粘贴到脚本的环境变量里。这串字符就是你浏览器的临时身份证,AI拿着它就能畅通无阻。

    第二关:传授“武功秘籍”——提取关键操作

    • Computer Use 做法:费尽心机写 Prompt:“你要先看左边,找到蓝色的按钮……”
    • HAR流做法直接把 HAR 扔给 AI。

      你可以这样对 AI 说:
      “在这个HAR文件中,找出向 https://api.xxx.com/task/create 发送请求的那一条记录。把里面的数据格式提取出来,把标题和描述替换成参数,生成一段可运行的脚本。”

    第三关:组装“战斗指令”——编写 Skill.md

    无论哪种技术,AI都需要明确的指令。

    • Computer Use 说明书:长达10页的屏幕坐标描述和异常重试分支。
    • HAR流说明书:只需要用大白话告诉AI工作流:

      1. 先检查本地的 Cookie 文件有没有过期。
      2. 执行创建任务的脚本,标题用刚才你说的话。
      3. 如果返回成功就报喜,如果返回失败就提醒你重新登录网页。

    第四关:终极部署——丢进 Openclaw

    • 将写好的技能说明和脚本放在一个文件夹。
    • 拖入 Openclaw。
    • 从此,你只需要说话。

    💎 写在最后:AI 时代的打工哲学

    别再盯着那炫酷的、会自己动鼠标的“桌面幽灵”羡慕不已了。

    真正的生产力解放,从来不是看 AI 表演怎么费力地点点点,而是让 AI 在你看不见的地方 ,把事情办得妥妥的。

    今晚就去吃小龙虾吧。
    打开浏览器,录下那个你最讨厌的“发日报”操作,丢给 AI 生成一个 Skill,然后塞进 Openclaw。

    明天开始,你负责思考,它负责发送。
    这,才是对重复劳动最优雅的复仇。


    如果这篇文章对你有帮助,欢迎分享给同样被重复操作困扰的朋友。

    也欢迎在评论区聊聊:你最想自动化哪个网站的操作?或者是——你打算让 Openclaw 帮你往哪个群里发小龙虾邀约?

    Apple Final Cut Pro 12.2 发布 - 专业后期制作 (视频剪辑)

    Apple Creator Studio - Final Cut Pro 12.2 + Compressor 5.2 + Motion 6.2

    请访问原文链接:https://sysin.org/blog/apple-final-cut-pro/ 查看最新版。原创作品,转载请保留出处。

    作者主页:sysin.org


    Final Cut Pro

    上演大智慧

    有了 Final Cut Pro,你可以在 Mac 和 iPad 上轻轻松松创作、打磨专业品质的视频大片。它满载众多强大的智能功能,助你将帧帧画面变为幕幕经典。

    Final Cut Pro

    Apple 今日宣布推出 Final Cut Pro 12,开启 Mac 视频剪辑新篇章,同时推出 iPad 版 Final Cut Pro 3.0。

    Mac 与 iPad 版 Final Cut Pro 新增了卓越的视频编辑工具和智能功能,为高度复杂的工作流提升效率。Pixelmator Pro 首次登陆 iPad,并专为 iPad 打造了针对触屏和 Apple Pencil 优化的独特体验。Mac 和 iPad 版音乐创作 app Logic Pro 新增 Synth Player 与和弦 ID 等智能功能,赋能所有人进行各类流行音乐的创作、制作和混音。Mac、iPad 和 iPhone 版 Keynote 讲演、Pages 文稿、Numbers 表格和无边记 app 均增添了高级内容和智能功能,供 Apple Creator Studio 订阅用户更好地表达自我、提升效率。

    Final Cut Pro

    Apple Creator Studio 全套神技超值集合,为各路创作人而来。

    Final Cut Pro 是 Apple Creator Studio 这套精选创意 app 中的一员,套装中还包括了 Logic Pro 和 Pixelmator Pro 等众多利器。

    后期制作,上演华丽一幕

    剪辑、音轨、图形特效、整片输出,一气呵成。

    先进的调色功能、HDR 视频支持,以及 ProRes RAW。

    全新 Metal 引擎。

    360° 全景剪辑,用头戴式 VR 装置来回放。

    Final Cut Pro

    Final Cut Pro - Compressor

    强大的编码,传输,完成。

    Compressor 与 Final Cut Pro 紧密整合,带来了自定义输出设置、分布式编码和丰富的传输功能。它支持 360° 全景视频、HDR、HEVC 和 MXF 输出,让你能以强大、灵活的方式导出 Final Cut Pro 项目。

    Final Cut Pro - Motion

    特效,特别容易。

    Motion 是一款强大的运动图形工具,可帮你便捷地制作影院级的二维、三维和 360° 字幕,流畅的转场,以及逼真的实时特效。凭借全新的 Metal 引擎,Motion 还能让你以惊人的速度制作并播放特效。

    版本记录

    Final Cut Pro 12.2,2026 年 4 月 10 日

    • 本更新包括稳定性提升和错误修复

    Final Cut Pro 12.0,2026 年 1 月 29 日

    强大的智能功能

    • 通过搜索精确匹配项或使用自然语言描述,利用“听写文本搜索”快速查找素材中的所说字词或短语①
    • 发现“视觉搜索”,可使用自然语言快速轻松地查找素材中的时刻,包括物体和动作①
    • 让节拍检测分析任意歌曲以显示其小节和节拍,可让你轻松将视频编辑内容与音乐节奏对齐

    快速开始

    • 通过实力派唱作人 Allie Sherlock 参与的特别演示项目深入体验编辑,以及亲自探索 Final Cut Pro 的惊艳新功能
    • 通过 App 内有关如何创建新资源库、导入媒体和将片段添加到新时间线的指南 (sysin),加速你的下一步编辑

    ①需要搭载 Apple 芯片的 Mac

    如何下载

    Final Cut Pro 12.2,系统要求:macOS 15.6 或更新版本

    更多:macOS 下载汇总 (系统、应用和教程)

    开发背景

    op 在一家小公司上班,由于系统 Bug 较多,经常需要处理数据库中奇怪的脏数据,便以此为契机开发了这款字符串小工具,同时也增加了一些实用功能。如果你经常需要读取 MyBatis 日志、使用 DataGrip 处理数据,或者浏览 JSON ,大概率会需要这款软件。

    功能介绍

    项目简介

    Software.png

    string_utils_v2 是一个面向日常开发场景的 Electron 托盘工具,核心能力是对剪贴板文本进行快速识别与转换。应用启动后默认常驻系统托盘,使用快捷键 Ctrl+Alt+D 即可唤醒。

    窗口弹出后会自动读取当前剪贴板内容,并根据内置处理器的匹配分数自动选中最合适的功能。按下 Enter 或点击按钮即可执行转换,结果会自动写回编辑区并同步复制到剪贴板。

    这个项目特别适合下面这些高频场景:

    • SQL 清洗:批量处理 DataGrip 导出的 UPDATE / INSERT 语句
    • MyBatis 还原:从注解或日志中提取可执行 SQL
    • JSON 辅助处理:字段抽取、结构预览、对象差异对比
    • 文本整理:排序去重、ID 拼接、命名风格转换
    • 私有工具扩展:通过用户脚本把团队内部的小工具挂进侧边栏

    使用方式

    1. 复制文本:先把待处理内容放到剪贴板
    2. 唤醒窗口:按默认快捷键 Ctrl+Alt+D
    3. 确认功能:程序会自动选中一个处理器,你也可以点击左侧图标手动切换
    4. 执行处理:按 Enter 或点击界面按钮
    5. 拿到结果:转换后的文本会自动复制回剪贴板

    补充说明:

    • 窗口行为:按 Esc 或切走焦点时窗口会自动隐藏
    • 托盘菜单:可控制功能显隐、设置开机启动、修改快捷键、打开用户脚本目录
    • 无联网依赖:运行阶段的 JSON 预览服务均在本地启动

    功能一览

    功能 说明 预览
    SQL 数据提取 针对 DataGrip 等工具导出的 UPDATE / INSERT 语句批量提取目标值
    排序并去重 对多行进行排序及去重 Sort_Distinct
    命名规则转换 camelCasesnake_casePascalCase 等风格之间切换 Naming_Convention.gif
    MyBatis 注解提取 @Select / @Update / @Insert / @Delete 注解中还原 SQL Mybatis_Annotation.gif
    MyBatis 日志解析 从 MyBatis 日志中拼接出可执行 SQL Mybatis_Log.gif
    JSON 预览 同时尝试打开本地 jsonherojsoncrack 预览 JSON JSON_View
    JSON 字段抽取 适合对象数组场景,执行时优先提取 id,否则提取每项的第一个字段;自动识别更偏向单字段对象数组 JSON_Extract
    ID 拼接 在换行、逗号和 "a","b" 形式之间快速切换 ID_Join.gif
    JSON Diff 将包含两个对象的 JSON 数组交给 vscode 做可视化对比 json-diff.gif

    JSON 预览与对比说明

    项目在启动时会尝试拉起两个本地 HTTP 服务,无需依赖公网:

    • jsoncrack:以节点图形式查看 JSON 结构,监听 9987-10087 之间的可用端口
    • jsonhero:以树形视图查看 JSON ,监听 13001-13101 之间的可用端口

    说明:

    • JSON 预览:会优先尝试打开 jsonhero,同时也会打开 jsoncrack
    • JSON Diff:输入必须是一个包含两个对象的 JSON 数组,例如 [{...}, {...}]
    • VS Code 依赖JSON Diff 建议本机已安装 VS Code,并可使用 code 命令

    开发的那些事

    最早的时候,这个项目是为了解决 ID 转换 的需求——客服经常会给我一批以换行符分隔的订单编号,我需要批量加上引号、再用逗号分隔,然后拼成 IN("abc","甲乙丙","123") 的格式进行 SQL 查询。因为手动处理比较麻烦,加上当时对各种效率软件比较着迷,就尝试自己动手做一个。

    项目起步之后,后续开发也就步入了正轨:MyBatis 日志提取 SQL 、MyBatis 注解提取 SQL 、排序去重等功能都按部就班地实现了。但用了几年后觉得界面实在太丑,于是重写了 UI ,添加了一些动画,做成了现在的 V2 版本。V2 还增加了 JSON 预览以及 JSON 比较的功能,其中 JSON 预览使用了 json-hero 和 json-crack 来实现,这两个都是我认为非常优秀的 JSON 工具。

    关于 json-hero 还有一个有趣的小插曲:它是一款 Remix 全栈项目。前段时间我想把它集成到 Electron 中,在网上搜索解决方案时,竟然搜到了自己两年前的提问: https://www.v2ex.com/t/1043371 。虽然过去了 700 天,但我仍然不懂 Remix ,只是借助高速发展的 AI ,把一个大任务拆分成几个子任务,分段完成了这一功能。

    当初开发时我也考虑过其他技术栈,比如 Flutter 、微软的 WPF 等,但最终还是不得不承认 Electron 开发效率是真的高

    就这些了,欢迎使用。

    这是我的第30篇文章。

    不出意外的话,这篇发出去之后,我这个账号的全网浏览量应该就能破10万了。

    我很清楚,这点数据对那些头部技术博主来说可能不算什么。但对我来说,这是一个挺重要的小节点,是我一点一点写出来的,是我努力的一个过程。

    有点感慨,所以今天不打算讲什么技术,就当是一次随便的记录,想到什么写什么,说说我和计算机的故事。


    我一开始选择计算机,其实没有什么特别的理由。

    高中毕业的时候,和大多数人一样,在网上刷视频、看各种“专业推荐”,听别人说计算机好就业、薪资高、有前景。听得多了,就默认这是一个“正确答案”。

    于是我就这样,稀里糊涂地报了本地一所一本学校的计算机科学与技术专业。

    没有热爱,也没有规划,更谈不上什么目标。

    说白了,就是觉得“好像不错”。


    大学前两年,其实没什么好说的。

    上课听一听,作业写一写。没有系统地学技术,也没有认真做过项目。每天过得不算颓废,但也谈不上有方向。

    那个时候的我,对未来是模糊的。

    不知道自己要不要考研,不知道要不要找实习,也不知道自己以后能不能靠这个专业吃饭。

    很多事情都在“以后再说”。


    真正开始改变,是在大二下的暑假。

    那段时间,我第一次比较认真地去想:未来应该做什么?

    那一刻多少有点焦虑,但也正是这种焦虑,让我开始动起来。

    到了大三上,我开始一边上课,一边系统地学Java。

    从最基础的JavaSE开始,一点一点往上走,然后接着学JavaWeb,写接口、做后端逻辑。没有什么捷径,就是跟着教程敲代码,遇到问题就查资料。

    过程其实挺枯燥的。

    有时候一个报错能卡半天,一个接口调不通能怀疑人生。但慢慢地,我开始有一点感觉了——至少我写的东西,是能跑起来的。


    真正让我有成就感的,是大三上的寒假。

    那段时间我做了一个很多人都做过的项目——“苍穹外卖”。

    但我不太想只是“做完”,所以在做完之后,我又自己改了一版,做成了“敕勒食驿”。在原有的基础上做了一些调整和扩展,让它更像是一个属于我自己的项目。

    这个过程对我来说挺重要的。

    因为我第一次从“照着做”,变成了“试着改”,也第一次开始思考这个功能为什么这么设计,而不是单纯地跟着敲。

    虽然现在回头看,项目也没有多复杂,但在当时,那种“这是我自己做出来的东西”的感觉,还是挺真实的。


    后面我又系统学习了LangChain基础,写了一些简单的智能体小项目。

    我很清楚,我学的这些都还很浅,很多只是入门级别,远远谈不上深入。但我开始慢慢享受这个过程——把一个想法变成代码,再让它跑起来。

    这种感觉,比单纯刷视频要踏实很多。


    说到这里,其实还要说一件对我影响挺大的事——写公众号。

    我从小语文还不错。在我们当地的重点高中,我一个理科生,语文成绩最高考过全校第二。初中毕业的时候,我甚至认真考虑过学文科。

    所以我一直有一个想法,就是希望有一个地方,可以长期写点东西。

    今年2月,我在多个平台创建了这个账号“程序员小崔日记”。2月7号,发了第一篇文章,写的是我用TraeCN做一个小游戏的使用感受。


    刚开始那几天,其实挺“上头”的。

    每天都有很多想写的东西,选题一大堆,发完文章就盯着后台看数据。现在回头看,反而觉得那段时间挺珍贵的。因为那时候写东西很纯粹,就是想表达,没有太多关于“涨粉”“数据”的压力。


    到了大三下,我做了一个决定:考研。

    不是因为别人都在考,而是我自己觉得,我现在的基础还不够扎实,很多东西只是刚刚接触,还没有形成体系。

    我希望再给自己一点时间,把基础打牢一点,也顺便提升一下学历。

    当然,我也没有打算完全“只考研”。

    这段时间我在备赛蓝桥杯,也在刷一些算法题。等到暑假,我还想找一段时间比较短的实习提升一下自己。

    另外,我还想完整做一个APP,从设计到实现整个流程走一遍,看看能不能申请一个软著。

    这些事情不一定都能做好,但我想试一试。


    我一直觉得,我不是什么很厉害的人。

    没有特别突出的天赋,也没有特别亮眼的经历,走的也不是那种“开局就领先”的路线。

    但至少现在,我是愿意花时间去做一些事情的。

    而且,说出来可能有点意外——我现在其实挺喜欢计算机的。

    不是一开始就喜欢,而是在不断写代码、做项目的过程中,慢慢产生的那种感觉。

    我越来越觉得,做一件事情,最重要的还是你愿不愿意持续去做。

    兴趣不是一开始就有的,很多时候,是在投入之后才慢慢长出来的。


    写这些,其实也是想给和之前的我一样迷茫的人一点参考。

    如果你现在也不知道该做什么,其实不用想太远。

    先做一点点就行。

    学一点东西,写一点代码,哪怕很简单,都比停在原地要好。

    很多事情,是走着走着才清楚的。


    这是一篇有点碎的记录。

    写到第30篇,我也算是坚持了一段时间。

    我还是会继续写下去,也会继续做项目、学技术。

    希望以后能做出更像样的东西,也能写出更有价值的内容。


    一篇碎碎念,聊以自娱,聊以共勉。祝福大家都能有美好的未来,这个世界一定缺你不可。


    如果你刚好看到这里,也愿意的话,可以点个关注。

    我们一起慢慢变强。

    本文由mdnice多平台发布

    背景:
    平日活动范围内只有工农中建,与招商素无交集。
    前几年为国接盘,只有招商接该楼盘组合贷,遂办卡专做还款之用,关闭一切多余功能。
    今天一觉醒来居然发现半夜三更被偷偷签约云闪付和银联在线支付。
    要是不注意看短信就被他得逞了。
    真是令人作呕。。

    开发者朋友们大家好:

    这里是 「RTE 开发者日报」,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real-Time Engagement) 领域内「有话题的技术」、「有亮点的产品」、「有思考的文章」、「有态度的观点」、「有看点的活动」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。

    本期编辑:@koki、@鲍勃

    01 有话题的技术

    1、腾讯发布并开源混元世界模型 HY-World 2.0

    腾讯混元团队日前正式发布并开源了多模态世界模型 HY-World 2.0。该模型支持通过文本、图像和视频等多模态输入,自动生成、重建并模拟可交互的完整 3D 世界。

    与以往仅生成像素级视频的模型不同,HY-World 2.0 直接输出 Mesh、3DGS 和点云等真正可编辑且持久化的 3D 资产,能够无缝导入 Unity、Unreal Engine 等主流游戏引擎进行二次开发

    其不仅原生具备 3D 一致性,还内置了支持物理碰撞和物理感知移动的交互式角色探索模式。

    目前,官方已在 GitHub 和 Hugging Face 等平台开源了技术报告、WorldMirror 2.0 的推理代码与模型权重,其余核心模块代码及权重也即将陆续释出。

    https://github.com/Tencent-Hunyuan/HY-World-2.0

    https://huggingface.co/tencent/HY-World-2.0

    (@橘鸦 Juya)

    2、OpenAI 发布 Codex 更新:集成 gpt-image-1.5,支持视觉驱动的背景计算机操控

    OpenAI 宣布 Codex 完成多模态能力重构,从单一的代码文本生成演进为「视觉-操作」闭环系统。新版本通过集成 gpt-image-1.5 模型与计算机操控(Computer Use)技术,使智能体能够感知 UI 像素、自主跨应用执行任务,并直接在开发工作流中生成与迭代视觉资产。

    像素级背景计算机操控(Background Computer Use)基于多模态视觉感知,Codex 能够识别屏幕元素并驱动独立光标进行点击与输入。支持在 macOS 背景环境中多智能体并行操作,无需 API 即可通过视觉反馈完成前端调试、应用测试及复杂 UI 交互。

    gpt-image-1.5 原生集成:Codex 现支持在代码编辑器内直接调用图像模型。开发者可结合代码逻辑与屏幕截图,生成并迭代产品原型图、前端视觉组件及游戏素材,实现从代码到视觉资产的同环境转换。

    多模态交互浏览器与富媒体预览:内置浏览器支持开发者在页面直接标注(commenting)以提供视觉指令;侧边栏新增对 PDF、电子表格、幻灯片及文档的深度解析与预览,增强了非文本类工程文档的上下文提取能力。

    长效记忆(Memory)与多模态自动化:支持跨会话保留视觉偏好与操作修正记录。智能体可根据 Google Docs 评论、Slack 消息及 Notion 截图的多维上下文,自动规划并执行跨度数周的长周期开发任务。

    MCP 插件体系扩展:新增 90 多个插件支持,通过模型上下文协议(MCP)整合 Atlassian Rovo、CircleCI、GitLab 等工具,使智能体能够在视觉操作的同时,通过标准化接口获取深度技术上下文。

    参考链接:

    https://openai.com/index/codex-for-almost-everything/

    ( @OpenAI)

    3、OpenMOSS 开源音频统一理解模型 MOSS-Audio

    OpenMOSS 团队正式开源 MOSS-Audio 音频统一理解模型。该模型通过模块化架构整合了语音识别、环境声感知、音乐分析及复杂音频推理能力,实现了极高精度的词级/句级时间戳定位,在多项音频理解基准测试中以 4B/8B 参数规模超越了更大尺寸的开源及闭源模型。

    • DeepStack 跨层特征注入机制:不同于传统仅提取编码器顶层特征的方案,MOSS-Audio 选取编码器早期和中间层特征,通过独立投影注入 LLM 前几层。该架构有效保留了韵律、音色、瞬态事件及局部时频结构等底层声学细节
    • 显式时间感知表示(Time Marker):在预训练阶段按固定时间间隔插入显式时间标记,使模型在统一文本生成框架下具备细粒度时间定位能力。其在 AISHELL-1 上的 AAS 指标(35.77)相比 Qwen3-Omni 和 Gemini-3.1-Pro 实现了数量级领先。
    • 13 维度细粒度语音描述能力:支持对性别、年龄、口音、音高、音量、语速、音色质感、情绪及个性特征等 13 个维度进行结构化分析,MOSS-Audio-8B-Instruct 在综合评分中位列 SOTA。

    • 思维链(CoT)与推理增强:MOSS-Audio-8B-Thinking 版本通过 CoT 训练与强化学习,支持对复杂音频内容进行多跳推理,其通用音频理解平均准确率达到 71.08,超越了部分 30B+ 规模的开源模型。

    通用音频描述 Demo:

    <think>

    音档内容是一位男性说话者,语气带有自信和些许夸耀。说话者透过一连串反问句来强调自己的经历与能力,句末常带有上扬的语调,例如「你干过吗?」. 语速整体中等偏快,尤其在列举成就时更为明显。内容围绕说话者声称自己完成了许多令人惊叹或不寻常的事情,例如跳过楼、与坦克近距离接触(被坦克压过)、野外生存、吃遍各种蚯蚓、开飞机、坦克漂移,以及完成两项电影史上的首次活动(《战狼 1》、《战狼 2》)。说话者在[00:08]处有轻微的口腔音。最后以「我觉得这是我最大的成就」作结,语气显得相当肯定。整体语篇结构是列举式陈述,透过对比来突显自身与众不同之处。音档中没有明显的背景噪音或其他说话者。说话者在[00:00]-[00:06]、[00:07]-[00:13]、[00:15]-[00:20]及[00:23]-[00:29]进行了多次提问和陈述,其间穿插了短暂停顿,如[00:06]和[00:13]的停顿。这些停顿有助于听者消化信息,并在说话者转换话题或强调下一点之前制造悬念。例如,在[00:25]提到「中国电影人之前没人干的事儿」时,语气略带自豪。最后的陈述语气坚定。

    </think>

    说话者以一连串充满自信的反问句开场,列举了自己多项惊人的个人经历,包括完成电影史上的重要拍摄以及多项常人难以企及的举动。其语气坚定,句末语调上扬,强调个人成就的独特性,并在结尾处以肯定的语气总结,认为这些是他的最大成就。

    GitHub:

    https://github.com/OpenMOSS/MOSS-Audio

    HuggingFace:

    https://huggingface.co/collections/OpenMOSS-Team/moss-audio

    (@模思智能)

    02 有亮点的产品

    1、Claude 桌面端发布 Bluetooth API:支持硬件设备实时监听智能体状态

    Anthropic 在 Claude 桌面应用(Cowork 与 Code 模式)中上线原生 Bluetooth API。该接口允许开发者构建外部硬件设备,通过蓝牙实时同步 Claude 的内部运行状态,实现 LLM 软件与物理世界的异步交互。

    • 支持跨模式硬件联动:Bluetooth API 覆盖 Claude 桌面端的 Cowork 与 Code 核心模式,允许第三方硬件作为 Claude 的物理外设运行。
    • 状态触发机制:硬件设备可实时监听 Claude 的特定事件,例如当智能体(agent)因安全策略挂起并「等待用户操作权限」时,触发物理信号。
    • 面向 Maker 生态的端到端交互:开发者可利用该 API 开发专用通知器、物理控制台或嵌入式交互设备(如桌面宠物),通过物理震动、光效或音频解决用户在多任务办公时错过 AI 授权请求的痛点。

    https://github.com/anthropics/claude-desktop-buddy

    (@felixrieseberg@X)

    2、Phonely 获 A 轮融资:通过自研专用小模型集群架构实现百万级语音 AI 通话优化

    语音 AI 初创公司 Phonely (YC S24) 宣布完成由 Base10 领投的 A 轮融资。该公司弃用通用大模型方案,通过自研的专用小模型集群技术栈,为保险、呼叫中心等行业提供高并发、低延迟的入站通话智能体服务,旨在通过数据驱动的脚本微调提升电话业务转化率

    • 多专用小模型(Specialized Small Models)架构:针对「信息提取」、「潜在客户识别」等特定子任务部署独立的小型化模型,替代单一大型 LLM。该方案在降低推理成本的同时,显著解决了语音交互中的高延迟问题
    • 语音转化率优化(CRO for Voice):引入类似 Web 端的转化率优化机制,支持企业根据统计反馈微调 AI 提问逻辑。数据显示,通过优化特定提问环节,业务结果产出可提升 5%
    • 规模化入站(Inbound)处理:目前每月处理数百万次跨行业通话,核心应用场景集中在广告引流后的入站咨询与初步筛选,目标在今年年底实现通话者近乎无感知的 AI 交互体验。
    • 端到端工程化优化:创始人表示延迟(Latency)已不再是技术瓶颈,当前研发重点已转向对话的逻辑准确性与「非判断性」交互体验,以消除用户面对人工客服时的心理压力

    (@dessaigne@X)

    3、Speechmatics 发布语音生物标记平台:15 秒采样识别 30 余种健康信号,包括 2 型糖尿病、精神压力、疲劳及抑郁症状

    Speechmatics 与 thymia 宣布达成深度合作,推出集成医疗级语音转文字(STT)与临床级语音生物标记智能的联合平台。该系统能够从 15 秒的自然语音中实时提取并分析 30 多种健康指标,包括 2 型糖尿病、精神压力、疲劳及抑郁症状。

    • 15 秒采样与实时推断:系统以 15 秒为间隔处理音频流,通过分析声学(Acoustic)与语言(Linguistic)模式中的神经学特征提取健康信号,在提供标准转录的同时实时返回诊断参考。
    • 高鲁棒性多模态数据集:模型基于超过 75,000 个独特声音的动态测量数据(跨越 6 年研发)以及数百万小时的多口音语音数据训练,确保非母语及带口音语音下的识别准确率维持在 85% 以上。
    • 无硬件依赖的 API 集成:采用单一 API 接口提供服务,支持云端、本地及设备端部署;无需传感器或其他专用硬件,可直接嵌入现有语音智能体、呼叫中心系统或车载终端。

    ( @globenewswire)

    4、Eigen 完成 1500 万美元种子轮融资:Benchmark 领投,主攻「共时性」社交智能体

    AI 初创公司 Eigen 宣布完成 1500 万美元种子轮融资,由 Benchmark 领投,Pinterest 联合创始人 Ben Silbermann 及 Meta 前高管 David Singleton 参投。该公司旨在开发一种「亲社会(Pro-social)」的 AI 架构,核心逻辑是从「个人 AI 伴侣」转向创造人类用户之间的「共享、共时性体验」

    • 「互为好友」式产品架构:不同于 Replika 或 Character.ai 等主打 1 对 1 私密陪伴的路径,Eigen 试图构建一种作为「共同好友」存在的智能体,旨在增强现实社交关系而非替代社交,通过 AI 媒介实现多用户间的同步交互。
    • 「U 型」团队组织模式:公司跳过中层管理岗位,由资深技术专家直接与年轻创意人才协作。团队成员包含多名初创公司创始人及专业编剧,强调工程开发与叙事逻辑的深度耦合。
    • 对抗超个性化(Hyper-personalization)孤岛:Scherer 提出 AI 不应仅为个人定制「完美世界」,而应构建群体共享的数字环境。其技术逻辑侧重于通过 AI 智能体协调多方上下文,缓解数字化进程中个人社交原子化趋势
    • 高估值市场切入:公司目标指向 2035 年预计达 5524.9 亿美元的全球 AI 伴侣市场。种子资金将主要用于组建核心工程团队,目前产品细节仍处于隐形阶段。

    ( @fortune)

    03 有态度的观点

    1、黄仁勋:若 DeepSeek 率先在华为平台上出现,「对美国将是可怕的结果」

    英伟达 CEO 黄仁勋近日在接受科技播客主持人 Dwarkesh Patel 专访时,就美国对华 AI 芯片出口管制政策发出警告

    针对 Patel「向中国出售英伟达芯片可能助其训练具备网络攻击能力的 AI 模型」这一质疑,黄仁勋直言 「你的前提就是错的」

    他指出,Anthropic 旗下 Claude 模型是在规模相当普通的算力上训练完成的,而此类算力在中国「大量可得」;中国拥有全球约 50% 的顶尖 AI 研究人员,算力限制反而倒逼出「极其聪明的算法」,DeepSeek 的出现「绝非无关紧要的进步」

    他随即抛出核心警告:「如果 DeepSeek 第一款在华为上发布,那对美国将是一个可怕的结果。」

    在他看来,极端的出口管制会形成反效果——迫使中国顶尖开源模型专门针对华为等本土硬件深度优化,一旦这些模型在华为架构上跑得最好,英伟达平台的全球吸引力将被直接削弱

    如果我们被迫离开中国,这会加速他们的芯片产业发展,并迫使他们所有的 AI 生态系统专注于自己的内部架构。

    黄仁勋指出,随着中国 AI 模型以开放标准向全球南方国家扩散,美国可能在长期技术标准竞争中陷入被动,而这一切的根源,正是主动放弃全球第二大市场的战略失误。

    ( @APPSO)

    阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么

    写在最后:

    我们欢迎更多的小伙伴参与 「RTE 开发者日报」 内容的共创,感兴趣的朋友请通过开发者社区或公众号留言联系,记得报暗号「共创」。

    对于任何反馈(包括但不限于内容上、形式上)我们不胜感激、并有小惊喜回馈,例如你希望从日报中看到哪些内容;自己推荐的信源、项目、话题、活动等;或者列举几个你喜欢看、平时常看的内容渠道;内容排版或呈现形式上有哪些可以改进的地方等。

    作者提示: 个人观点,仅供参考

    ssh 无法登陆,官网无法登陆是被直接干掉了吗?邮件都没有收到一封,感觉还是付费的小鸡都比这些免费的可靠啊

    浦东两个地方两台 nas ,联通宽带

    其中一个地方的 nas 主要上传给另一个地方的 nas ,互相备份,去年上传多了,上传从 40M 被限速到了 20M
    一直以来的同步方案是 wireguard+rsync ,wireguard 是走 udp 的,限速 20M 以后,wireguard+rsync 基本也能稳定 2MB/s ,凑合用

    最近发现,

    1. 上传限速 20M 被解除了,现在测速网站可以 40M 了,甚至更高到 50M
    2. 上传 udp 被猛烈的 qos 了,wireguard+rsync 只能 5Mbps ,500kB 不到还不稳定
    3. 换了 tcp+syncthing 方案,基本限速到 15~18Mbps
    4. IPv6 一样猛烈 qos ,多一些连接没什么用,这套 qos 板卡,感觉是很高级的玩意了。。

    套路更高级了,现在限速都不直接限了,都没法去投诉取证了

    kcp 还没试,不知道一些伪装发包的方法有没有办法破

    2026 年 3 月 22 日终于通过了 Google Adsense 审核,从 2024 年 4 月 3 日开始提交审核,总共提交了 7 次,总算是通过了。到今天为止差不多一个月的时间,带来的总广告收入为 5.78 美元,虽然还很低,但起码流程上通了。

    小小纪念一下,接下来继续优化 SEO ,争取广告费早日日入 1 刀