最近 BFL(BLACK FOREST LABS**.)发表了 FLUX.2 [klein]

强调推理速度的提升,并且可以在消费级显卡流畅使用

以下是特色介绍

模型分成 9B (旗舰)与 4B (一般)

并推出了量化版本

有兴趣的朋友可以玩看看

模型

在线演示

https://playground.bfl.ai/image/generate


📌 转载信息
原作者:
josenlou
转载时间:
2026/1/16 12:28:42


GitHub: https://github.com/fengshao1227/Open-Switch

觉得有用的话留个 Star

起因

用 OpenCode CLI 的时候,每次切换 API 提供商都要手动改 JSON 配置文件,改完还得重启终端。用多了几个 API 服务商之后,配置文件越改越乱,有时候还会不小心写错格式导致启动失败。

并且找了站内的关于 opencode 的第三方 api,都是手动编写,作为一个 ai 时代高效开发的人来说,怎么可能让配置第三方 api 这种小事耽误时间,所以想着能不能做个图形界面来管理这些配置,就顺手写了这个工具。


能干什么

管理 API 提供商

  • 接入 wong 佬的 claude api

管理 MCP 服务器

MCP (Model Context Protocol) 服务器配置也能在界面上管理:

  • 本地服务器:基于命令行启动 (npx、node 之类的)

  • 远程服务器:基于 URL 的远程服务

  • 环境变量配置

  • 单独启用 / 禁用某个服务器

Windows 用户不用担心,会自动给 npm/npx 命令加上 cmd /c 包装。

管理全局提示词

OpenCode 的 AGENTS.md 可以在界面上编辑了:

  • 创建多个提示词模板,一键切换

  • 切换时自动备份当前提示词


下载安装

预编译版本

Releases 下载对应系统的版本:

  • macOS: Open-Switch_x.x.x_aarch64.dmg (Apple Silicon) 或 Open-Switch_x.x.x_x64.dmg (Intel)

  • Windows: Open-Switch_x.x.x_x64-setup.exe

  • Linux: Open-Switch_x.x.x_amd64.AppImage.deb

从源码构建


git clone https://github.com/fengshao1227/Open-Switch.git

cd Open-Switch/open-switch

pnpm install

pnpm build

构建完的安装包在 src-tauri/target/release/bundle/ 目录。


使用方法

添加 API 提供商

  1. 点击 "添加提供商"

  2. 选择 SDK 类型 (OpenAI/Anthropic/Google)

  3. 填写 API Key 和其他配置

  4. 保存

配置会自动写入 ~/.config/opencode/opencode.json~/.local/share/opencode/auth.json

配置 MCP 服务器

  1. 点击 "MCP 服务器" 标签

  2. 添加本地或远程服务器

  3. 配置命令 / URL 和环境变量

  4. 启用需要的服务器

切换提示词模板

  1. 点击 "提示词" 标签

  2. 创建新模板或编辑现有模板

  3. 点击 "激活" 切换到对应模板

  4. 会自动同步到 ~/.config/opencode/AGENTS.md


技术栈

前端: React 18 + TypeScript + TailwindCSS + shadcn/ui + TanStack Query + Framer Motion

后端: Tauri 2.x + Rust + SQLite

构建: Vite + pnpm

选 Tauri 是因为比 Electron 轻很多,打包出来的体积小,启动也快 awa。


配置文件位置

| 文件 | 用途 |

|------|------|

| ~/.config/opencode/opencode.json | OpenCode 主配置 |

| ~/.local/share/opencode/auth.json | API Key 存储 |

| ~/.config/opencode/AGENTS.md | 全局提示词 |

| ~/.open-switch/open-switch.db | 本地提示词模板数据库 |

Windows 系统会自动适配成 Windows 路径。


常见问题

Q: 和 OpenCode CLI 是什么关系?

A: 这是个配置管理工具,通过读写 OpenCode 的配置文件来管理设置,不影响 OpenCode CLI 本身的使用。

Q: API Key 安全吗?

A: API Key 存在 ~/.local/share/opencode/auth.json, 文件权限受操作系统保护。工具不会把密钥上传到任何地方。

Q: 遇到问题怎么办?

A: 在 GitHub Issues 提问题,或站内回帖,我会尽快回复。


开发相关

如果想参与开发或者自己改改:

 cd open-switch

pnpm install

pnpm dev # 启动开发模式 

项目结构:

  • src/ - 前端代码 (React + TypeScript)

  • src-tauri/ - 后端代码 (Rust)

  • src-tauri/src/config.rs - OpenCode 配置管理

  • src-tauri/src/database.rs - SQLite 数据库

  • src-tauri/src/prompt_service.rs - 提示词业务逻辑

欢迎提 PR, 提之前跑一下 pnpm typecheckpnpm format:check 确保代码格式没问题。


界面预览(gemini 自由发挥的,win 的效果我还没看,下面是 mac 的)




致谢

这个项目的灵感和很多实现细节都来自 CC Switch。CC Switch 是一个非常优秀的 Claude Code/Codex/Gemini CLI 配置管理工具,功能强大、架构清晰。Open Switch 在它的基础上做了一些调整,专注于 OpenCode CLI 的配置管理。

感谢 linux.do 社区提供的技术交流平台,很多问题和思路都是在社区里讨论出来的(来到这里 2 个月来,学到了很多东西)。


许可证

MIT License


版本: v1.0.0 | 最后更新


📌 转载信息
原作者:
feng_li
转载时间:
2026/1/16 12:28:32

最近发现英伟达的 NIM(NVIDIA Inference Microservices)平台上,竟然可以免费调用 GLM-4.7Minimax-M2.1 这两个重磅模型。
重点是:不需要你有 4090,也不需要复杂的部署,只需要一个 API Key。
保姆级教程:
如何免费获取 Key 整个过程非常简单,大概只需要 3 分钟。
第一步:注册与登录直接访问 NVIDIA NIM 的集成主页:
https://build.nvidia.com/explore/discover 如果你没有英伟达账号,需要注册一个。建议使用邮箱注册


第二步:手机号验证(关键)
这是很多人卡住的地方。注册成功后,为了防止滥用,英伟达要求验证手机号。** 亲测:中国大陆的 +86 手机号是可以完美支持的。** 在验证页面选择 “China”,输入你的手机号,接收验证码即可。验证通过后,你就拥有了免费调用 API 的权限。
第三步:获取 API Key
登录成功后,在模型列表中随便点开一个模型(比如 DeepSeek-R1 或 Llama-3)。点击页面右上角的 “Get API Key” 获取密钥, 点击 “View Code” 查看请求示例。系统会为你生成一个以 nvapi- 开头的密钥。请务必保存好这个 Key。
前面文字内容摘自某公众号,下面是 VSCode 中的具体设置:
API Provider: OpenAI Compatible
Base URL: https://integrate.api.nvidia.com/v1/
OpenAI Compatible API Key: 填你自己申请的 API
Model ID :
GLM-4.7: z-ai/glm4.7
Minimax M2.1: minimaxai/minimax-m2.1

但是有限制:Your API Rate LimitUp to 40 rpm,也挺好

支持的模型


📌 转载信息
原作者:
user484
转载时间:
2026/1/16 12:25:17

找了最近的几个“渣”的故事,让大家过过瘾:

https://www.v2ex.com/t/1186095
https://www.v2ex.com/t/1183680
https://www.v2ex.com/t/1182909
https://www.v2ex.com/t/1182581

对节点里的发帖有以下奖励措施:

1. 前 10 发帖讲故事的,统一奖励 50 $V2EX
2. 前 20 发帖讲故事的,每增加 1 的回帖人数,奖励 1 $V2EX (同一个人在同一个帖子里的回帖最高计数为 2 ,每 10 $V2EX 结算,奖励上限为 500 $V2EX )
3. 前 50 发帖讲故事的,回帖人数超过 100 的(只要总数超过即可,恶意重复、引战不算),再奖励 50 $V2EX
4. 请勿使用 AI 编造故事,请勿从别处抄袭故事,被发现会没有奖励
5. 以上奖励不一定会发

github 地址:

dreamlonglll/mini-mqtt-client: 一个开源的 mqtt 客户端工具。支持保存命令、定时循环发送和预处理脚本

开发原因

  1. mqttx 不好用,没有指令存储功能
  2. 佬友的另一个 mqtt 项目 【https://linux.do/t/topic/1365043】 采用的 Electron 架构,有点大。

开发目的

主要目的: 自用
次要目的: 为开源事业做一次贡献

项目优势

  • 采用 tarui 架构,整包大小控制在 6M(win/linux 端)左右
  • github action 打包编译 win+mac+linux 多端应用
  • 支持 tls + 自签 CA + 客户端证书 + 证书密钥
  • 支持指令存储以及循环发送(按 server 分割)
  • 支持预处理脚本(按 server 分割)
    • 采用 JavaScript 脚本引擎 + 沙箱模式
    • 支持:发送前预处理、接收后处理
    • 内置加密工具库(AES、SHA、MD5、HMAC 等)
  • 支持切换数据存储位置,可以搭配 OneDrive 实现云端同步
多图


开源感言

首先感谢佬友的使用,也十分感谢提出建议的佬友,并期待佬友提出更多的建议

其他

目前时间挺空的,会及时更新


📌 转载信息
原作者:
wang.wai
转载时间:
2026/1/16 12:25:02

MinerU 后处理脚本

这是一个用于处理 MinerU 工具生成的 Markdown 文件的 Python 脚本,主要用于批量处理 PDF 转换后的文档,优化文件结构和图片路径。

mineru 后处理.zip

功能特点

  • 批量处理:自动扫描并处理目录下的所有 PDF 转换文件夹
  • 路径转换:将 Markdown 文件中的相对路径图片链接转换为绝对路径
  • 智能拆分:根据文件大小和标题结构自动拆分大型文档
  • 记录管理:自动记录转换历史,避免重复处理
  • 内容优化:过滤并合并内容过少的章节,提高文档质量

工作原理

脚本会:

  1. 扫描当前目录下所有包含 .pdf 的文件夹
  2. 查找每个文件夹中的 full.md 文件
  3. 将相对路径图片链接转换为绝对路径
  4. 根据文件大小决定是否拆分:
  1. 将处理后的文件保存到 【00 md文件】 文件夹
  2. 转换记录.md 中记录处理历史

配置参数

脚本顶部提供了以下可调整参数:

MAX_FILE_SIZE_KB = 50 # 拆分阈值(KB)
SPLIT_CHUNK_SIZE_KB = 20 # 无标题时的拆分块大小(KB)
MIN_CHAPTER_CONTENT_LEN = 200 # 章节最小有效内容长度(字符) 

使用方法

环境要求

  • Python 3.6+
  • 无需额外依赖(仅使用标准库)

运行脚本

python mineru后处理.py

目录结构要求

脚本期望的目录结构:

当前目录/
├── mineru后处理.py
├── 【00 md文件】/           # 输出目录(自动创建)
├── 文件名1.pdf-xxx/         # MinerU 生成的文件夹
│   ├── full.md             # 需要处理的 Markdown 文件
│   ├── images/             # 图片文件夹
│   └── ...
├── 文件名2.pdf-xxx/         # 其他 PDF 转换文件夹
│   ├── full.md
│   └── ...
└── ...

输出结果

处理完成后,【00 md文件】 文件夹将包含:

  • 未拆分的完整文件:原文件名.md
  • 拆分后的章节文件:原文件名 第1章.md原文件名 第2章.md
  • 转换记录:转换记录.md

核心功能详解

1. 图片路径转换

将 Markdown 中的图片链接从相对路径转换为绝对路径:

# 转换前
![图片描述](./images/example.png)

# 转换后
![图片描述](F:/完整路径/images/example.png)

2. 智能文档拆分

按标题拆分(优先)

  • 识别一级标题(# 标题
  • 过滤内容过少的章节(小于 200 字符)
  • 自动合并内容不足的章节到前一章

按大小拆分(无标题时)

  • 尽量保持段落完整性

3. 转换记录

自动生成 转换记录.md,记录:

  • 原文件名
  • 转换时间
  • 原文件夹名称
  • 章节信息
  • 目标文件路径

注意事项

  1. 路径兼容性:脚本已针对 Windows 路径进行优化
  2. 编码处理:统一使用 UTF-8 编码
  3. 重复处理:已处理的文件会自动跳过
  4. 错误处理:包含完善的异常处理机制
  5. 文件安全:不会修改原始文件,仅在目标目录创建新文件

常见问题

Q: 脚本提示 "未找到 full.md"?

A: 确保 MinerU 生成的文件夹中包含 full.md 文件。

Q: 如何调整拆分大小?

A: 修改脚本顶部的 MAX_FILE_SIZE_KB 参数。

Q: 可以处理其他格式的文档吗?

A: 脚本专门为处理 MinerU 生成的 Markdown 文件设计。

Q: 如何重新处理已转换的文件?

A: 删除 【00 md文件】 中的 转换记录.md 文件即可重新处理所有文件。


📌 转载信息
转载时间:
2026/1/16 12:24:31

一、 碎碎念(背景)

先交待下背景:我的电脑本地没有安装 “反重力”。之前找人帮我配好了一套家庭组,并且直接把 cpa 里面的 auth 文件夹同步了过来。

他配置的方案应该和大部分人一样:cpa → Proxifier 劫持转发 → FlClash 走代理。虽然能跑通,但我总觉得这套环境有点 “重”:

  1. 全局代理太麻烦:开了全局,本地网络全是美国节点。(虽然可能也就是切换一下的事)

  2. 得开启 Proxifier 进行劫持:后台得多打开一个软件(虽然内存可能不会太大)。

为了感觉更轻一些,稍微了解了一下 FlClash 的多端口监听 + 脚本分流。个人感觉还行。仅供大家参考一下思路。


二、 核心思路: FlClash 多端口监听进行分流

目标和原理其实很简单:单独开一个 7895 端口,把它变成 “us 专线”。 只要流量进入这个端口,默认走 us。

至于为什么一定要用脚本 (覆写脚本)?因为订阅链接是会更新的。如果你手动加规则或编辑的话,每次更新订阅后,你的订阅就被覆盖了,你就又需要重新编辑一遍,于是我就写了一个脚本(当然是 ai 写的)。

具体步骤如下:FlClash 工具 - 进阶配置 - 脚本 - 添加以下脚本

脚本:

function main(config) {
  // 1. 增加监听端口 7895 (用于 CPA 专用入口)
  const usListener = {
    name: "cpa_in",
    type: "mixed",
    port: 7895
  };
  
  if (!config.listeners) {
    config.listeners = [usListener];
  } else {
    config.listeners.push(usListener);
  }

  // 2. 找到名为 "US" 的策略组,获取它的节点列表
  const usGroup = config["proxy-groups"].find(g => g.name === "US");
  const usProxies = usGroup ? usGroup.proxies : [];

  // 3. 创建新的策略组 "cpa"
  const cpaGroup = {
    name: "cpa",
    type: "select",
    proxies: usProxies.length > 0 ? usProxies : ["DIRECT"] // 如果找不到US组则默认直连
  };

  // 4. 定向插入策略组:放在 Proxies 后面,Apple 之前
  const groups = config["proxy-groups"];
  const proxiesIndex = groups.findIndex(g => g.name === "Proxies");
  const appleIndex = groups.findIndex(g => g.name === "Apple");

  if (proxiesIndex !== -1) {
    // 插入到 Proxies 之后
    groups.splice(proxiesIndex + 1, 0, cpaGroup);
  } else if (appleIndex !== -1) {
    // 如果没找到 Proxies,就插入到 Apple 之前
    groups.splice(appleIndex, 0, cpaGroup);
  } else {
    // 都没找到则放在最后
    groups.push(cpaGroup);
  }

  // 5. 增加路由规则:强制 7895 端口走 cpa 策略组
  // 插入到 rules 列表的最前面
  if (!config.rules) config.rules = [];
  config.rules.unshift("IN-PORT,7895,cpa");

  return config;
}

它的逻辑是:

  1. 新建分组:自动寻找节点里默认的 us 分组(节点上游提供的分组),复制它的节点信息,创建一个叫 cpa 的新分组,并把它放在第二列,方便切换和观察

  2. 端口监听:开启 7895 端口,并强制这个端口进来的流量全部走 cpa 分组。

这样配置的效果是:

后续任何需要走 us 相关的,只需要在代理里填 127.0.0.1:7895。而其他流量,依然走默认的 7890。

同理,其他软件应该也是支持的。


三、 CPA 操作:

FlClash 配置好了,cpa 就简单了,就可以不需要 Proxifier 了

操作方法:

打开 cpa 在基础设置 - 代理设置中,设置代理 URL:socks5://127.0.0.1:7895 。这样直接让 cpa 走 FlClash 即可。然后 FlClash 会自动去走 us。


四、 谷歌账号登录:独立 us 环境隔离

依然沿用之前的思路:配置端口 127.0.0.1:7895。(为主号 PRO 创造安全美国环境,全部走代理)。

  1. 专门为这个谷歌账号创建了一个 Chrome 个人资料,起名叫 “主号 PRO”,并生成了桌面快捷方式,方便桌面快速打开。

  2. 在这个独立浏览器里安装 SwitchyOmega (V3) 插件。(和日常的不冲突。)

  3. 在 SwitchyOmega 中 配置同样指向 127.0.0.1:7895


五、 最终效果

  • 和没有 cpa 之前一样。该怎么用怎么用。

  • 需要使用 coding 时,只打开 cpa 即可。默认会走 us 。

  • 需要用 “主号 PRO” 时使用 gemini3 时,直接用之前创建的单独浏览器即可。

这样的话,不用来回切换节点,也不用开全局了,感觉会轻量一些。


📌 转载信息
原作者:
qiuyue
转载时间:
2026/1/16 12:24:24

Fork 自开源项目 Gen-Future/ExcelMinddalaode,在此基础上重点增强了文件操作能力。

主要更新内容:

  1. 切换表单:增加了对 Excel Sheet 的切换控制。
  2. 写入数据:修复 / 增加了数据回写功能,交互更实用。
  3. 导出文件:支持生成并导出新的 .xlsx 格式文件。

欢迎体验并反馈!链接:GitHub - cloud666666666/ExcelMind: Excel 智能分析助手,支持自然语言查询、ECharts 图表可视化、多表智能联查、知识库等,一站式解决 Excel 复杂分析问题


📌 转载信息
原作者:
Joker.Yun
转载时间:
2026/1/16 12:23:50

来源科技媒体 WinAero, 此脚本目的是为了屏蔽干扰用户浏览网页体验组件.
来源: https://winaero.com/just-the-browser-disables-all-ai-ads-and-tracking-traces-from-chrome-firefox-and-edge/
github: GitHub - corbindavenport/just-the-browser: Remove AI features, telemetry data reporting, sponsored content, product integrations, and other annoyances from web browsers.
配图:


📌 转载信息
原作者:
okokxw
转载时间:
2026/1/16 12:23:37

# custom IntelliJ IDEA VM options (expand/override 'bin/idea.vmoptions')

-server
-Xms2g
-Xmx7g

-XX:+UseG1GC # 最大 GC 暂停时间目标(单位:毫秒,默认 200ms,根据需求调整)
-XX:MaxGCPauseMillis=200 # 堆占用率触发并发标记周期的阈值(默认 45%,可适当降低以减少 Full GC 风险)
-XX:InitiatingHeapOccupancyPercent=35 # 并行 GC 线程数(建议设置为 CPU 核心数的 25%~50%)
-XX:ParallelGCThreads=4 # 并发 GC 线程数(建议设置为 CPU 核心数的 25%)
-XX:ConcGCThreads=2 # 启用混合回收优化(Java 12+)
-XX:+UseStringDeduplication 
-XX:G1HeapRegionSize=4m

# 优化大对象分配(避免大对象直接进入老年代)
-XX:G1HeapWastePercent=5 # 启用并行类卸载(减少元空间回收延迟)
-XX:+ClassUnloading
-XX:+ClassUnloadingWithConcurrentMark


-XX:ReservedCodeCacheSize=512m

可以一起分析还有什么可以调优的不


📌 转载信息
原作者:
Raoxxxwq
转载时间:
2026/1/16 12:23:33

安装 Eagle 的 MCP Server(Beta) 插件

保持打开,然后
1. 打开 Cherry Studio设置MCP 服务器
2. 点击 添加 (Add)
3. 在设置填写

  • 类型 (Type):请选择 SSE (如果不显示 SSE,请看方法二)。
  • URL (地址):输入你截图里显示的地址: http://localhost:41596/sse
  • 名称:随便填,比如 。素材管理

    保存就可以了,

我用的是 claude-opus-4-5,在 Cherry Studio 测试是否已经联通了,可以打提示词,我的 Eagle 软件是什么版本?如果正确联通会回复

给一些有用的提示词

1. 清理近义词标签

有些素材可能同时有 “大海”、“海洋”、“sea” 三个标签。

希望来点赞,

指令: “请获取‘海报设计’文件夹中最近 20 个素材的标签。 检查其中是否有含义重复的标签(例如中文和英文重复,或者近义词)。 如果有,请帮我统一保留一个最常用的标签,并删除其他的。”

2. 根据文件名自动生成标签

很多素材下载下来文件名很长,但没有标签。

指令: “获取‘未分类’文件夹里的前 10 张图片。 请分析它们的文件名,提取出 3-5 个关键描述词作为标签,并自动添加到这些图片上。”

3. 标签标准化(中译英或风格统一)

指令: “检查我刚才选中的这 5 个素材。 把它们现有的所有中文标签全部翻译成英文,并删除原有的中文标签,保持标签库的语言统一。”

希望大家给个赞,差一些升 3 了


📌 转载信息
原作者:
zw19861515
转载时间:
2026/1/16 12:23:31

1. 首先是项目选择,好多佬推荐我尝试一下 kiro.rs,所以来部署一个试试,项目地址:

2. 该项目是使用 rust 编写的,那么自然需要下载 rust,rust 的下载地址:

下载后直接安装即可(此处为可能的踩坑点 1:cargo 可能在安装时并未安装到 path 中,需要手动添加)

3. 安装完 rust 按照项目的 readme 一步步进行即可

4. 然后是凭据获取,因为项目内未内置 aws 授权操作,所以借助另一个项目:

安装完成后界面如图:

获取凭据需要在 desktopOAuth

此时有三种选择

1.google(这个不太推荐,因为 google 注册稍微难点)

2.github (这个和下面的方式差不多,因为 qq 邮箱也可以注册一个 github666 还有套娃)

3.aws Builder (这种方式比较推荐,直接无限白嫖 qq 邮箱即可,qq 邮箱注册详见:https://linux.do/t/topic/1418287/140)

我们直接选择第三种然后授权,授权后点击

添加后配置界面就会有:

然后选择一手右键查看详情:

该界面有所需的所有参数这里不一一放出来了

然后启动 kiro.js(windows 的话需要启动项目下的 kiro.rs\target\releasel\kiro.rs.exe)

进入管理界面 (http://127.0.0.1:8990/admin)

点击添加凭据,然后将刚刚获取到的参数填入即可

将 apikey 以及 api 地址配置一下即可

这就是全部教程了,等我用几天感受一下效果


📌 转载信息
原作者:
LTctfer
转载时间:
2026/1/16 12:22:04

RemoteKnown (远程知道了)

本地终端远程行为感知与审计系统

让用户 "清楚知道自己是否、何时、正在被远程控制",保护隐私安全。

简体中文 | English

【开源】RemoteKnown (远程知道了) 远程控制感知与审计工具1【开源】RemoteKnown (远程知道了) 远程控制感知与审计工具2 【开源】RemoteKnown (远程知道了) 远程控制感知与审计工具3 【开源】RemoteKnown (远程知道了) 远程控制感知与审计工具4


项目简介

远程知道了 是一款能够实时监测本地系统的远程控制状态,识别多种主流远程工具(如 ToDesk, 向日葵,网易 UU 远程,AskLink 远程,远程看看等),并提供桌面通知、飞书 / 钉钉告警以及详细的会话审计记录。

界面预览

主界面状态

安全状态正在被远程

桌面通知

远程开始告警远程结束通知

系统托盘

红色告警状态

通知设置

飞书设置钉钉设置

核心功能

  • 实时感知:多维度信号(进程、窗口、网络端口、Session)综合判定。
  • 多工具支持
    • ToDesk
    • 向日葵 (Sunlogin)
    • Windows 远程桌面 (RDP)
    • 网易 UU 远程
    • AskLink 远程
    • 远程看看
  • 会话审计:自动记录每次远程控制的开始时间结束时间持续时长判定来源
  • 多渠道告警
    • 桌面右下角弹窗通知
    • 系统托盘状态变色(绿色安全,红色警告)
    • 即时通讯软件推送(支持飞书 Webhook、钉钉 Webhook)
  • 隐私优先:所有数据均存储在本地 SQLite 数据库中,不上传任何敏感信息。

快速开始

下载安装

请从以下任一平台下载最新的安装包 (RemoteKnown-Setup-x.x.x.exe) 并安装:

运行

安装完成后,双击桌面图标启动。

  • 程序启动后会自动最小化到系统托盘。
  • 当检测到远程控制时,托盘图标会变红,并弹出提示。
  • 点击托盘图标可打开主界面查看详细状态和历史记录。

编译构建

如果您是开发者,想要自行构建项目,请遵循以下步骤:

环境要求

  • Windows 10/11 (核心检测逻辑依赖 Windows API)
  • Go: 1.21 或更高版本
  • Node.js: 18 或更高版本 (推荐使用 LTS)

构建步骤

我们提供了一键构建脚本,自动处理 Go 后端编译和 Electron 前端打包。

必须以管理员身份运行 CMD 或 PowerShell(解决软链接权限问题):

# 1. 克隆项目
git clone https://github.com/samwafgo/RemoteKnown.git
cd RemoteKnown

# 2. 运行构建脚本 (会自动安装依赖并打包)
.\build.bat

构建完成后,安装包将生成在 web/dist 目录下。

项目结构

RemoteKnown/
├── build.bat             # 一键构建脚本 (Windows)
├── cmd/                  # Go 程序主入口
├── internal/             # Go 核心业务逻辑
│   ├── detector/         # 远程特征检测引擎
│   ├── server/           # 本地 HTTP API 服务
│   └── storage/          # SQLite 数据库操作
├── web/                  # Electron 前端源码
│   ├── assets/           # 静态资源 (Logo等)
│   ├── index.html        # 主页面
│   └── main.js           # Electron 主进程 (含单实例锁、后端守护)
└── README.md             # 项目文档 

参与贡献

欢迎提交 Issue 和 Pull Request!

代码仓库

开源协议

本项目采用 MIT License 开源。


📌 转载信息
原作者:
1g2g
转载时间:
2026/1/16 12:22:02

https://store.epicgames.com/zh-CN/p/styx-master-of-shadows-4d9ab3

https://store.epicgames.com/zh-CN/p/styx-shards-of-darkness-77c030



《冥河:暗影大师》是一款融合了角色扮演元素的潜行游戏,背景设定在一个黑暗奇幻世界。玩家将扮演拥有两百岁生命的哥布林冥河,潜行、偷窃、暗杀,一路披荆斩棘。

在令人眩晕的多层废墟之塔 —— 阿肯纳什之塔深处,人类和精灵守护着世界之树,而琥珀 —— 一种强大而神奇的金色树液 —— 正是冥河的源泉。冥河的秘密就隐藏在那里,他有机会揭开自己身世的真相…… 并同时发家致富。

潜入高达数​​英里的阿肯纳什之塔,完成各种任务(暗杀、情报搜集等等),同时还要避免被发现。在阴影中行动,近身刺杀目标,或者策划 “意外”。角色扮演机制让你能够解锁强大的新技能、炫酷的特殊招式和优化的装备。琥珀将赋予你隐身、“琥珀视觉” 和分身等惊人的能力。探索各个关卡,揭开你身世的秘密,窃取珍贵宝物,升级装备。拥抱阴影!


📌 转载信息
原作者:
deathswaltz
转载时间:
2026/1/16 12:09:00

Clash Verge Rev (Mac) 内网 DNS 与 VLESS 配置指南

文档说明:本文档记录了如何在 Mac 版 Clash Verge Rev (Mihomo 内核) 中配置 VLESS 节点,并解决开启 Tun 模式后公司内网域名无法解析的问题。
最后更新时间


1. 环境与目标

  • 软件:Clash Verge Rev (Mihomo/Meta 内核)
  • 协议:VLESS + Reality + Vision
  • 模式:Tun 模式 (接管系统所有流量)
  • 痛点解决:修复 Tun 模式下,内网域名报 dns resolve failed 的问题。


2. 核心步骤一:获取物理 DNS

必须步骤:在配置脚本前,需要知道公司网络分配的真实 DNS IP。

  1. 关闭 Clash Verge 的 Tun 模式。
  2. 确保 Mac 连接了公司 Wi-Fi 或网线。
  3. 打开 系统设置网络Wi-Fi (或以太网)详细信息DNS
  4. 记下列表中的 IP 地址(例如 10.58.1.10)。


3. 核心步骤二:全局扩展脚本 (Script)

此脚本是解决问题的关键,它强制指定特定域名走物理 DNS,绕过 Tun 模式的干扰。

  • 操作:在 Clash Verge Rev → 脚本 (Script) → 新建 → 编辑代码。
  • 设置:右键点击该脚本 → 选择 “全局扩展” (Global Extension) → 启用。
// Merge Script - Tun 模式内网 DNS 修复终极版 function main(config) {
  
  // ======================================================= // [配置区] 请根据实际网络环境修改以下变量 // ======================================================= // 1. 公司内网真实的 DNS 服务器 IP (步骤一中获取的) // 务必替换成你实际看到的 IP const companyDNS = ["10.**.**.**"]; 

  // 2. 需要直连且必须走内网 DNS 的域名列表 const directDomains = [
    "local",
    "localhost",
    "*.internal.corp" // 示例:如有其他内网域名在此添加
  ];

  // ======================================================= // [逻辑区] 以下代码无需修改 // ======================================================= // 1. 初始化 DNS 配置 (防止简易 Profile 缺失 DNS 模块) if (!config.dns) config.dns = {};
  config.dns.enable = true;
  config.dns.ipv6 = false; // 建议关闭 IPv6 DNS 防止内网干扰
  config.dns.listen = "0.0.0.0:1053";
  config.dns['enhanced-mode'] = "fake-ip";
  config.dns['fake-ip-range'] = "198.18.0.1/16";
  
  // 设置默认公网 DNS (用于解析外网,如 Google) if (!config.dns.nameserver) {
    config.dns.nameserver = ["223.5.5.5", "8.8.8.8"];
  }

  // 2. 注入 DNS 分流策略 if (!config.dns['nameserver-policy']) config.dns['nameserver-policy'] = {};
  if (!config.dns['fake-ip-filter']) config.dns['fake-ip-filter'] = [];

  directDomains.forEach(domain => {
    // 【核心修复】强制这些域名去问 companyDNS,而不走系统默认或 Google
    config.dns['nameserver-policy'][`+.${domain}`] = companyDNS;
    
    // 【重要】加入 Fake-IP 白名单,防止返回假 IP 导致连接失败
    config.dns['fake-ip-filter'].push(`+.${domain}`);
  });

  // 常见的局域网反查也走公司 DNS
  config.dns['nameserver-policy']['geosite:private'] = companyDNS;

  // 3. 注入直连规则 (Rules) // 插入到规则列表最前面,确保优先级最高 const myRules = [
    "DOMAIN-SUFFIX,lenovo.com,DIRECT",
    "DOMAIN-SUFFIX,lenovo.com.cn,DIRECT",
    "DOMAIN-SUFFIX,local,DIRECT",
    "IP-CIDR,192.168.0.0/16,DIRECT",
    "IP-CIDR,10.0.0.0/8,DIRECT",
    "IP-CIDR,172.16.0.0/12,DIRECT",
    "GEOIP,CN,DIRECT"
  ];
  
  if (!config.rules) config.rules = [];
  config.rules.unshift(...myRules);

  return config;
}
## 4. 核心步骤三:节点配置 (VLESS)
这是连接 VPS 的基础配置文件。由于脚本是全局扩展的,这里只需要关注节点本身的连接信息。

*   **操作**:在 Clash Verge Rev -> **订阅 (Profiles)** -> 新建 -> 类型选 **Local** -> 编辑文件。
*   **注意**:请将下方的 `*` 号部分替换为你真实的服务器信息。

```yaml
# Local Configuration for My VPS
# 基础监听端口设置
mixed-port: 7890
allow-lan: true
bind-address: '*'
mode: rule
log-level: info
ipv6: true
external-controller: 127.0.0.1:9090

proxies:
- name: "My VPS Node"
type: vless
server: 144.**.**.** # 替换:你的 VPS IP 地址
port: 1444 # 替换:你的端口号
uuid: ********-****-****-****-************ # 替换:你的 UUID
network: tcp
tls: true
udp: true
flow: xtls-rprx-vision # 流控模式
servername: **** # 替换:你的伪装域名 (SNI)
client-fingerprint: chrome
reality-opts: # Reality 安全配置
public-key: ******************************************* # 替换:你的 Public Key
short-id: "" # 替换:如有 ShortId 则填入

proxy-groups:
- name: Proxy
type: select
proxies:
- "My VPS Node"

rules:
# 这里留空或只写兜底规则即可
# 上面的全局脚本会自动处理内网和直连规则
- MATCH,Proxy

📌 转载信息
原作者:
ganwurrt
转载时间:
2026/1/16 12:08:09

老黄为了展示自家 GPU 跑大模型有多快,专门搭建了一个推理平台,把市面上顶级的开源和闭源模型都搬了上去,还有我们熟悉的国产之光:GLM-4.7、 MiniMax M2.1、DeepSeek、Qwen 等。
关键还免费!!!
rpm 40, 访问速度又非常快
而且 + 86 国内手机号就可以申请,还不需要绑信用卡,找谁说理去!
屯屯鼠们还等什么,快去申请
Nvidia AI

  1. 右上角 login 注册 / 登录


    一路火花带闪电、输个邮箱填个验证码就完事儿。
  2. 注册完顶上会提示 Verify (很醒目的一个按钮)
    可以直接使用国内 + 86 手机号验证

  3. 验证完就可以点头像生成 API Key 了

  4. 配置 API(同 OpenAI)
    Base URL: https://integrate.api.nvidia.com/v1
    API KEY: 上一步生成的 nvapi-xxxx

模型太多了,佬们快去探索吧





可以愉快的玩耍了,祝佬们玩儿的开心!


📌 转载信息
原作者:
yanxiang1120
转载时间:
2026/1/16 12:05:02

我是一名独立开发者。最近做了个 app 来科学地量化和管理压力,名字是 StressEase。它会读取您 Apple Watch 记录在“健康”App 里的各项指标,帮你把模糊的“感觉”转换成一个直观的压力分数。

App 会在后台自动同步和分析指标数据,帮你发现长期的压力趋势、找出影响你状态的关键因素,并给出具体可行的改善建议。

实时压力监测

压力走势分析

压力时段分析

压力洞察

行动建议

关于隐私:App 只会读取“健康”数据进行本地分析,所有结果都保存在你的手机上,绝不上传云端。


福利与定价

核心的实时压力检测功能是免费的。

这次也为 V2EX 的朋友们准备了 10 个 Pro 权益月度兑换码,在评论里抽楼送出。

Pro 版解锁所有高级功能,提供了大家最关心的一次性买断选项:

  • 一次性买断:¥138 (永久)
  • 年度订阅:¥99 (含免费试用)
  • 月度订阅:¥12

App Store 链接: [https://apps.apple.com/cn/app/stressease-%E5%8E%8B%E5%8A%9B%E5%8A%A9%E6%89%8B/id6754057948]


App 还是早期版本,期待各位拥有 Apple Watch 的朋友们来试试,任何反馈和吐槽都对我非常重要。谢谢!

下面的问题其实还是一个老生常谈的问题,就是没有技术领域知识的”外行“目前根本不可能在所谓”氛围编程“中走多远。

1. 楼主前端知识面属于小学生。
2. 整个 debug 流程就是:ai 改一点,我拿到浏览器测一点,不符合预期,然后复制控制台的日志给 ai ,让它分析 debug 。

体验真的就是:

1. 确实比我从 0 开始写快多了,初步设想快速得到了验证。

2. 但是到了细致的需求上,开始痛苦,一方面是进度上停滞了,在某个需求点卡住,总是改不对。同时在流程上,我完全像是一个没有脑子的木头人,机械地把自己的手供给 llm 驱使。但凡 llm 有了自己的机械手,准保一脚把我踹开,自己单干了。

所以问题不在于 llm 能不能干出来,而是我在这个流程中由于没有足够的“领域知识“,完全不知所措。会显得更加的煎熬。

煎熬的点在于:

1. 失控感

整个实现方案和稳定性,性能等完全一无所知。

2. 预期管理失败

没有 llm 前,同样功能可能预期一两个星期,滞塞个一两天问题都不大。
但是有了 llm ,大大拉高了阈值,开始预期 2h 以内,最多 1 天就要看到可用的成品,一旦滞塞住,进入机械地给 llm 打下手 debug ,就开始烦躁不耐烦。

烦躁的点在于一方面没有达到自己几个小时内快速出活的预期,另一方面,整个 debug 过程学到的东西大大减少,根本不会有什么长进。

没有 llm 之前,滞塞的过程其实是深入学习的过程,是提升的过程。

但是给 llm 打下手,它快速出 debug 方法,快速让你验证,快速调整方案,整个流程你是万花丛中过,片叶不沾身,你学不到这个组件为什么这么用,它为什么在这个场景下不行等等等。

1 月 16 日,支付宝联合千问 App、淘宝闪购、Rokid、大麦、阿里云百炼等伙伴,正式发布 ACT 协议(Agentic Commerce Trust Protocol,智能体商业信任协议)。这是中国首个面向 Agent 商业需求设计的开放技术协议框架,为 AI 与电商、外卖等服务平台的协同打造一套 “通用语言”,让跨终端、跨系统、跨平台的 AI 任务执行,变得更便捷、更高效。

以千问 App 为例,依托 ACT 协议 ,千问 App 成功打通淘宝闪购与支付宝 AI 付:用户只需向千问发出指令 “帮我点杯珍珠奶茶”,千问基于用户地理位置,智能推荐附近符合需求的商品,同步完成比价与优惠券自动核销。

用户仅需点击 “选它”,确认支付宝付款,即可一键完成结账。整个购物流程以对话式、自动化、不跳端的方式推进,千问化身专属 “购物助手”,包办繁琐操作。

当 AI 的能力边界不断拓展,从“聊天对话”延伸至购物付款等“办事时代”,新的问题也随之浮现:AI 操作是否获得用户明确授权?资金交易过程是否足够安全?更换设备或应用后,服务体验能否保持连贯?

ACT 协议的诞生正是为破解这些问题而来。支付宝为其搭建了 “委托授权域”“商业交互域”“支付服务域”“信任服务域” 四大核心基础设施标准,实现 AI 操作全流程可追溯、可验证,让人更放心;支持自动化交易流程,减少不必要的人工干预,提升服务效率;统一多平台服务标准,避免体验的割裂。

与传统付款模式不同,在 ACT 协议的规则框架下,AI 仅承担下单操作的执行角色,付款环节始终由用户主导或自主授权。在保障资金安全的前提下,为用户大幅节省时间成本。而对商家而言,未来接入 AI 原生应用时,只需按照协议标准配置统一接口,即可对接全渠道入口,无需单独进行复杂的 API 开发,大幅降低对接成本。

目前,ACT 协议可使用在 AI 代买、企业自动化采购等多元场景,并提供两种付款模式:一是即时付款,用户与 AI 实时对话,基于推荐列表自主决策,确认后完成付款授权与身份验证,适用于 AI 点外卖、日常购物等高频场景;二是委托授权,用户可提前设定时间窗口、金额上限、商家范围等条件,即便离线无指令,AI 也能自动监测商品动态并完成下单结算,适用于机票、酒店预订等场景。

该协议最大限度遵循兼容性、隐私性、开放性三大原则,全面适配现有商业与支付系统,并将伴随 AI 行业技术发展持续优化。支付宝同时表示,正积极推动更多支付服务商、商家与平台、AI 开发者、智能终端生态厂商加入,共同完善协议内容,共建 AI 商业信任新生态。

随着 AI 原生应用能力的持续升级,“AI 代办” 服务日渐普及,支付作为其中特殊且关键的环节,正成为全球科技企业的布局焦点。此前,OpenAI 联合 Stripe 推出协议以支持 ChatGPT 结账功能;近期,谷歌也发布 AI 购物全流程通用商务协议(Universal Commerce Protocol,简称 UCP),将实现用户在 Gemini 内直接下单。

Gemma Scope 2 是一套旨在解释 Gemini 3 模型行为的工具,使研究人员能够分析模型的突发行为,审核和调试 AI 代理,并针对越狱、幻觉和阿谀奉承等安全问题制定缓解策略。

 

可解释性研究旨在理解 AI 模型的内部工作机制和学习算法。随着 AI 变得越来越强大和复杂,可解释性对于构建安全可靠的 AI 至关重要。

 

谷歌将 Gemma Scope 描述为大型语言模型(LLM)显微镜。它结合了稀疏自编码器(SAEs)和转码器,让研究人员能够检查模型的内部表示,查看它“思考”的内容,并理解这些内部状态如何塑造了其行为。一个关键的应用场景是检查模型输出与其内部状态之间的差异,按照谷歌的说法,这可能有助于发现安全风险。

 

Gemma Scope 2 针对 Gemma 2 模型家族从多个方面扩展了原先的 Gemma Scope。最值得注意的是,它在 Gemini 3 模型的每一层中重新训练了其 SAEs 和转码器,包括kip-transcoderscross-layer transcoders。这些转码器旨在使多步计算和分布式算法更容易解释。

 

谷歌解释说,增加层数直接增加了计算和内存需求。为了保持复杂性随层数线性增长,这需要设计专门的稀疏内核。

 

此外,谷歌采用了一种更先进的训练技术,使 Gemma Scope 2 有更强的能力来识别更有用的概念,同时也解决了初版实现中已知的几个缺陷。最后,Gemma Scope 2 引入了专门针对聊天机器人进行分析的工具,使研究人员能够研究复杂的多步行为,如越狱、拒绝机制和思维链忠实度。

 

稀疏自编码器使用一对编码器和解码器函数来分解和重建所有 LLM 输入。另一方面,经过训练后,转码器能够稀疏重建多层感知器(MLP)子层的计算过程,即学习如何对给定输入进行输出近似。这使其能够识别各层及子层中哪些部分(更精确地说是哪些激活模式)是由单输入令牌或令牌序列触发的。

 

除了应用于安全领域外,Reddit 用户 Mescalian 预测,这项研究还可以:

 

指导其他领域的最佳实践,未来可能会被用来监控智能程度更高的 AI 的内部推理。不过目前,它最适用于通过对权重进行微调及其他修改来调整模型能力。

 

与谷歌类似,AnthropicOpenAI也针对他们的模型发布了自己的“ AI 显微镜”。

 

谷歌已在 Hugging Face 上发布了 Gemma Scope 2 的权重。

 

原文链接:

https://www.infoq.com/news/2026/01/google-gemma-scope-2/

很幸运能入选阮一峰周刊 2026 年首期推荐380 期

工具介绍

clearcat [灵猫去水印] 可以去除市面上大部分 AI 生成图,带 logo 水印的问题,(注意,盲水印还是去不掉的),无需注册登录,随用随走,vercel 托管+Cloudflare 加速,可以稳定运行。
支持识别水印类型:

  • 豆包
    • 豆包 AI 生成
    • AI 生成
  • 即梦
  • 可灵
  • gemini
  • sora
    也支持手动去除,使用 wasm+onnxruntime-web 技术实现,纯本地浏览器执行,不上传服务器。

地址

https://clearcat.lingxiangtools.top/

刚刚,Geoffrey Hinton成为第二位引用量破百万的科学家

0%
icon展开列表
刚刚,Geoffrey Hinton成为第二位引用量破百万的科学家
今天
img
腾讯AngelSlim升级,首个集LLM、VLM及语音多模态为一体的投机采样训练框架,推理速度飙升1.8倍
今天
img
DeepSeek连发两篇论文背后,原来藏着一场学术接力
今天
img
仅需一个混频器的无线射频机器学习推理,登上Science Advances!
今天
img
国内首个可复现!萝博派对公开人形机器人 “从 0 到跑” 全开源方案
01月15日
img
联发科天玑9500s、8500发布:GPU、光追拉满,红米Turbo 5Max将搭载
01月15日
img
通用级PixVerse P1的技术突破,揣着进入平行世界的密码
01月15日
img
Mira公司内乱?CTO被开除,带团队回OpenAI,翁荔上推发言
01月15日
img
Nature丨清华等团队揭示AI科研双重效应:个人效率亦或是科学边界
01月15日
img
刚刚,喝到了千问APP给我点的奶茶
01月15日
img
人脸机器人登上Science Robotics封面:用AI教会仿生人脸机器人「开口说话」
01月15日
img
实测夸克「千问划词快捷指令」,这7个邪修Prompt,建议收藏
01月15日
img
已证实!清华姚班陈立杰全职加入OpenAI,保留伯克利教职
01月15日
img
解锁任意步数文生图,港大&Adobe全新Self-E框架学会自我评估
01月15日
img
5分钟定制一个AI采购专家:讯飞发布“招采智能体工厂”,重新定义行业开发范式
01月15日
img
Agent时代,为什么多模态数据湖是必选项?
01月15日
img
大模型长脑子了?研究发现LLM中层会自发模拟人脑进化
01月15日
img
性能提升60%,英特尔Ultra3这次带来了巨大提升
01月14日
img
继宇树后,唯一获得三家大厂押注的自变量:具身模型不是把DeepSeek塞进机器人
01月14日
img
Sebastian Raschka 2026预测:Transformer统治依旧,但扩散模型正悄然崛起
01月14日
img

刚刚,Geoffrey Hinton成为第二位引用量破百万的科学家

刚刚,Geoffrey Hinton 正式成为历史上第二位 Google Scholar 引用量突破 100 万大关的计算机科学家。

图片

在他之前,只有他的老搭档、另一位「深度学习教父」Yoshua Bengio 达成了这一成就。目前,Hinton 的引用量仍在以惊人的速度增长,每一次引用都代表着他对人工智能领域不可磨灭的贡献。从反向传播算法的推广到 AlexNet 的惊艳问世,从获得图灵奖到斩获 2024 年诺贝尔物理学奖,Hinton 的职业生涯几乎就是一部现代 AI 的发展史。

这一数字不仅是学术影响力的量化,更是对这位 78 岁长者一生执着探索的最高致敬。

Geoffrey Hinton:来自学术世家的「教父」

童年

Geoffrey Everest Hinton,1947 年 12 月 6 日出生于英国伦敦的一个学术世家。他的中间名「Everest」来自他的叔祖父,也就是以其名字命名珠穆朗玛峰英文名的 George Everest。他的家族星光熠熠,曾祖父是布尔逻辑的创始人 George Boole,表姑是参与曼哈顿计划的核物理学家 Joan Hinton(寒春)。

生在这样的家庭,压力与荣耀并存。Hinton 的母亲曾给他下过一道温和却严厉的「最后通牒」:「要么做个学者,要么就是个失败者(Be an academic or be a failure)」。这种高期待或许解释了他日后对学术的极致追求。

他的童年充满了像电影《天才一族》般古怪而硬核的色彩。家里养过猫鼬,车库的坑里甚至养着毒蛇。8 岁那年,Hinton 曾挥舞着手帕逗弄坑里的毒蛇,结果一条蛇猛地扑向他的手,仅差一英寸就咬中了他,差点让他丧命。

图片

                8 岁的 Hinton 搂着一条蟒蛇

家族的轶事甚至还涉及到了加拿大政坛。1961 年,他的父亲访华时带回了一打中国乌龟。在旅途中,老 Hinton 与未来的加拿大总理皮埃尔・特鲁多(Pierre Trudeau)住同一间酒店房间。据说老 Hinton 把乌龟都养在了浴缸里,导致特鲁多根本没法洗澡。

求学之路

然而,这位天才的学术之路并非一片坦途,但他对世界本质的好奇心早在 4 岁时就已萌芽。

那时,他在一辆乡村巴士上发现了一个奇怪的现象:当巴士急刹车时,座位上的硬币并没有顺着惯性向前滑,而是反直觉地向后移动。这个违反物理常识的现象困扰了他整整十年,直到后来他才明白这是座位绒毛角度与振动共同作用的结果。对此,他曾说道:「有些人可以接受自己不理解的事物,但我不行。我无法接受有什么东西违反了我对世界的认知模型。」

这种对「理解世界运作方式」的执念贯穿了他的求学生涯。在剑桥大学国王学院期间,他曾在物理学、哲学和心理学之间反复横跳。毕业后,在迷茫中他甚至曾短暂地做过一段时间的木匠。在攻读博士学位期间,由于神经网络在当时不被看好,他一度陷入抑郁和自我怀疑。

在一个类似心理治疗的研讨会上,当其他人都在大喊「我想要被爱」来释放情感时,Hinton 憋了半天,最终吼出了心底最深层的渴望:「我真正想要的是一个博士学位!(What I really want is a PhD!)」。带着这股执拗,他在爱丁堡大学获得了人工智能博士学位,正式开启了他在神经网络荒原上的长征。

图片

      31 岁的 Hinton 与他的博士后同学 Chris Riesbeck

北上加拿大

在 70 年代和 80 年代,当 AI 领域被符号主义主导时,Hinton 就像一个孤独的异类。由于对罗纳德・里根时代美国国防部主导的军事资助感到失望,他做出了一个改变人生轨迹的决定:离开美国,北上加拿大。

除了政治原因,这背后还有一个鲜为人知的温情理由:当时他和妻子计划收养一对来自南美洲的儿女。他不希望在一个当时正暴力干涉拉美事务的国家抚养这些孩子。于是,他在多伦多大学扎根,在那里数十年如一日地在神经网络的「荒原」上耕耘,这也为后来加拿大成为全球 AI 重镇埋下了伏笔。

学术成就

Geoffrey Hinton 最著名的成就之一是与 David Rumelhart 和 Ronald Williams 共同发表了关于反向传播(Backpropagation)的论文,解决了多层神经网络的训练难题,为后来深度学习的爆发埋下了伏笔。

图片

但他的贡献远不止于此:

  • 玻尔兹曼机(Boltzmann Machine)与受限玻尔兹曼机(RBM):为无监督学习和特征表示学习奠定了基础,可用于生成模型和预训练神经网络。

  • 深度信念网络(DBN):在 2006 年提出,通过逐层贪心训练方法有效训练深度神经网络,点燃了深度学习复兴的火种。

  • Dropout:一种简单而高效的正则化技术,通过随机「丢弃」神经元防止过拟合,成为大型神经网络训练的标准做法。

  • t-SNE:一种高维数据可视化技术,用于将复杂数据嵌入低维空间,广泛用于理解深度学习特征表示。

  • 分布式表示(Distributed Representations):强调分布式特征编码在学习系统中的重要性。

  • 胶囊网络(Capsule Networks):提出对卷积神经网络中空间关系处理不足的问题的一种改进,通过「胶囊」表示和动态路由机制增强特征层次感知。

  • 混合专家模型(MoE):通过多个子网络(专家)协同工作并由路由器选择性激活,提高模型容量与计算效率,成为大规模模型的重要设计思路。

  • 知识蒸馏(Knowledge Distillation):提出将大型复杂模型(教师模型)的知识迁移到小型模型(学生模型),在保证性能的同时降低计算成本。

  • 层归一化(Layer Normalization):改进深度网络训练稳定性和收敛速度的技术,对自然语言处理模型尤其重要。

  • 深度生成模型与概率图模型:在生成模型领域提出了多种创新方法,为后续的变分自编码器(VAE)和生成对抗网络(GAN)奠定了理论基础。

  • AlexNet 与 ImageNet 变革: 他与学生 Alex Krizhevsky、Ilya Sutskever 共同推出了 AlexNet,在 ImageNet 竞赛中以绝对优势夺冠。这被公认为深度学习时代的「大爆炸」时刻,证明了深层卷积神经网络在海量数据和 GPU 算力下的统治力。

  • Forward-Forward Algorithm(前向 - 前向算法,2022): 这是他在职业生涯后期对反向传播生物学合理性的反思与挑战,提出了一种更接近人脑运作机制的学习替代方案。

2018 年,他与 Yoshua Bengio 和 Yann LeCun 共同获得了计算机领域的最高荣誉:图灵奖。这三人也常被称为「深度学习三巨头」。

图片

值得注意的是,这三位图灵奖得主也是 Hinton 引用量第二高的论文《Deep learning》的共同作者。该论文于 2015 年 5 月发表于 Nature,十年时间已经收获了超过 10 万引用量。其中系统总结了深度学习的发展历程、基本原理、关键算法(例如多层表征学习、反向传播、卷积神经网络和循环神经网络)以及其在语音识别、视觉识别、目标检测、基因组学等领域的广泛应用,标志着深度学习从学术探索迈向应用驱动的成熟阶段,被公认为推动该领域走向主流的里程碑性工作。

图片

2024 年,Hinton 与 John Hopfield 共同获得了诺贝尔物理学奖,以表彰他们「实现了利用人工神经网络进行机器学习的奠基性发现和发明」。参阅报道《刚刚,2024 诺贝尔物理学奖授予 Geoffrey Hinton、John Hopfield》。

图片

冷静的警示者

然而,这位「AI 教父」在晚年却不仅是一位技术布道者,更成为了一位冷静的警示者。

2023 年 5 月,他从工作了十年的谷歌离职,只为能「自由地谈论 AI 的风险」。他曾表示:「我想我现在对自己毕生的工作有一部分感到后悔。」他担忧数字智能可能会演变成一种比人类更优越的智能形式,并可能因缺乏控制而对人类构成生存威胁。他警告说:「如果你想知道不再是处于食物链顶端的智慧生物是什么感觉,去问问鸡就知道了。」

Alex Krizhevsky 与 Ilya Sutskever

在 Hinton 浩如烟海的著作中,引用量最高的一篇无疑是 2012 年发表在 NeurIPS 上的奠基之作:《ImageNet classification with deep convolutional neural networks》。这篇论文目前的引用量已超过 18 万次(可能仅次于引用量近 30 万的 ResNet 论文和引用量超过 20 万的 Transformer 论文),它不仅标志着深度学习时代的正式开启,也让两位共同作者的名字响彻云霄:Alex KrizhevskyIlya Sutskever

作为 Hinton 的两名得意门生,他们在那间多伦多大学的实验室里,共同推开了 AI 新世界的大门。

图片

  Alex Krizhevsky 与 Ilya Sutskever 是 Geoffrey Hinton 引用量最高的论文的第一和第二作者。

Alex Krizhevsky:低调的隐士天才

作为那篇传奇论文的第一作者,Alex Krizhevsky 是 AlexNet 的主要构建者。正是他编写了关键的 CUDA 代码,让神经网络得以在两块 GeForce GPU 上高效训练,从而在 2012 年的 ImageNet 挑战赛上以惊人的 10.8% 优势碾压第二名,一举震惊世界。

图片

然而,与他在学术界的赫赫声名形成鲜明对比的是他极度低调的性格。Alex 出生于乌克兰,成长于加拿大。他被很多同行描述为一位「纯粹的工程师」,拥有极深的技术洞察力。在谷歌工作了数年后,他于 2017 年离职,理由是「对工作失去了兴趣」。

此后,他加入了初创公司 Dessa,随后又逐渐淡出公众视野。据悉,他目前可能已处于半退休状态,享受着徒步旅行的乐趣。在科技圈追逐名利的热潮中,Alex Krizhevsky 就像一位事了拂衣去的隐士。尽管 AlexNet 如今在技术上已被更新的模型取代,但正如一位评论者所言:「没有他,就没有今天的 ChatGPT,没有便捷的 3A 大作,也没有先进的医学影像分析。」

Ilya Sutskever:执着的 AI 愿景者

如果说 Alex 是低调的技术天才,那么该论文的第二作者 Ilya Sutskever 则是充满使命感的 AI 领袖。

图片

Ilya 同样出生于前苏联(俄罗斯),并在以色列和加拿大长大。在多伦多大学期间,他与 Hinton 和 Alex 共同缔造了 AlexNet 的辉煌。随后,他在 Google Brain 参与了序列到序列(Seq2Seq)学习算法和 TensorFlow 的开发,并是 AlphaGo 论文的众多作者之一。

2015 年,Ilya 离开谷歌,作为联合创始人兼首席科学家创办了 OpenAI。他是 ChatGPT 和 GPT-4 诞生的关键人物,被誉为能够「通过直觉看到深度学习未来」的人。然而,他对 AI 安全的关注也日益加深。2023 年,他曾主导了 OpenAI 董事会罢免 Sam Altman 的风波,理由是「沟通不坦诚」,尽管后来 Altman 复职,Ilya 对 AI 对齐(Alignment)和安全超级智能(SSI)的执着从未改变。

2024 年,Ilya 成立了新公司 Safe Superintelligence Inc. (SSI),并为其筹集了 10 亿美元资金。与商业化气息浓厚的硅谷公司不同,SSI 宣称其「第一个产品将是安全的超级智能,在此之前不会做任何其他事情」。

结语

Geoffrey Hinton 引用量突破百万,不仅是他个人学术生涯的高光时刻,也是 Alex Krizhevsky 和 Ilya Sutskever 等一代 AI 杰出人才共同奋斗的缩影。

图片

从 Alex 编写的那行 CUDA 代码,到 Ilya 对通用人工智能(AGI)的深邃构想,再到 Hinton 对神经网络半个世纪的坚守与晚年的忧思,这一里程碑背后,是人类探索智能本质的波澜壮阔的历史。

今天,我们致敬 Hinton,也致敬所有为这一刻铺路的研究者。

参考链接

https://scholar.google.com/citations?user=JicYPdAAAAAJ&hl=en

https://www.youtube.com/watch?v=giT0ytynSqg

https://www.britannica.com/biography/Geoffrey-Hinton

https://www.nobelprize.org/prizes/physics/2024/hinton/podcast/

https://torontolife.com/life/ai-superstars-google-facebook-apple-studied-guy/

https://yiqinfu.github.io/posts/hinton-intellectual-dynasty/