标签 Claude Opus 4.5 下的文章

实操:使用 gemini 3 pro(high)
问题:你现在思考用的是哪个模型?
回答:我现在用于思考和回答您问题的模型是 Google Gemini 2.0 Flash ( Thinking process is powered by Gemini 2.0 Flash )。

实操:使用 gemini 3 flash
问题:现在是对话模式,你现在思考用的是哪个模型?
回答:我现在用于思考和回答您问题的模型是 Google Gemini 2.0 Flash ( Thinking process is powered by Gemini 2.0 Flash )。

实操:使用 claude Opus 4.5(Thinking)
问题:你现在思考用的是哪个模型?
我现在使用的模型是 Claude 3.5 Sonnet (由 Anthropic 开发)。
刚才您切换了模型设置,因此我从 Gemini 2.0 Pro 切换到了 Claude 3.5 Sonnet 。

太垃圾了,活生生的欺骗,难怪越调 bug 越多。

发现场景,做了一个功能图片识别文字,我让他用 gemini-2.5-flash 模型,它一直反馈 Google Gemini 系列目前的最新 Flash 版本是 2.0 Flash Experimental (gemini-2.0-flash-exp)。我推测您提到的“2.5”可能是指代这个最新的 2.0 版本(目前尚无官方 2.5 发布)。

今天,就今天,opencode 中使用 github copilot 提供的 claude opus 4.5, premium request 消耗速度离谱的快,
一个请求烧了我 15%还没完成,中途多次忘事反复读取相关文件,
原本应该一个请求不管干多久都只算一个 premium request 的, 不知道是 bug 还是改了啥,
我省吃俭用的一个月, 今天给我干了一半,

都是使用 GitHub copilot 帮我操控浏览器,gpt 说网页绘在 canvas 里面没法获取到 dom 读不到内容,就开始想着要截图然后搞图像识别了,然后我就换成了 opus 4.5 重跑,它识别出了这个 canvas 是 tradingview 的,然后想到去检查 TradingView 是否在 window 对象上暴露了任何可用的 API ,最后找到了,不用图像识别也能顺利解决了问题

不过 copilot 上没有 gpt 5.2 pro ,没法对比两方最强的模型

但是不得不说现在 token 的价格还是太贵了,再过两年价格打下来之后 ai 应用才会大爆发吧,就像当年 pc 、互联网、移动互联网一样,此时又要缅怀一下十年前就在喊运营商提速降费的莉卡酱了

Clawdbot 详解

Clawdbot 是什么?

Clawdbot 是一个开源的个人 AI 助手,你可以运行在自己的设备上。它通过你已有的通讯渠道与你交流:

  • WhatsApp, Telegram, Slack, Discord
  • Google Chat, Signal, iMessage, Microsoft Teams
  • 语音交互( macOS/iOS/Android )
  • WebChat 界面


核心特点

特性 说明
本地优先 数据完全由你控制,不需要依赖云服务
多平台支持 macOS, Linux, Windows (WSL2), Raspberry Pi
多 Agent 系统 可以运行多个隔离的 AI 代理
浏览器控制 自动控制 Chrome/Chromium 浏览器
Canvas AI 驱动的可视化工作区
语音唤醒 持续语音对话功能
技能扩展 可安装/自定义技能插件


为什么这么火?

原因 说明
隐私优先 本地运行,数据不泄露
功能强大 集成浏览器控制、文件操作、多平台通讯
完全开源 MIT 许可证,社区活跃
部署灵活 从树莓派到云服务器都能跑
Claude 深度集成 优先推荐使用 Claude Opus 4.5
AI Agent 体验 让 AI 真正"干活",不只是聊天


部署需求

硬件需求(官方)

配置 最低要求 推荐配置
RAM 512MB - 1GB 2GB+
CPU 1 核 2 核+
磁盘 ~500MB 更多(日志/媒体)
网络 稳定互联网 24/7 在线

软件需求

组件 要求
Node.js ≥22
系统 macOS, Linux, Windows (WSL2)


4090 显卡够吗?

结论:4090 完全足够,甚至有点"杀鸡用牛刀"

为什么?

Clawdbot 本身不需要显卡运行 LLM。它是一个网关/控制层,实际的 AI 推理通过 API 调用完成(如 Anthropic API 、OpenAI API )。

4090 的使用场景

如果你想让 Clawdbot 使用本地 LLM 模型(不调用云端 API ),4090 可以用来运行:

  • Ollama 本地模型
  • vLLM 推理服务
  • 其他本地推理框架

部署选项

┌─────────────────────────────────────────────────────────┐
│                    你的 4090 机器                        │
│  ┌─────────────┐    ┌─────────────┐    ┌─────────────┐  │
│  │  Clawdbot   │────│  Ollama/    │────│  本地 LLM   │  │
│  │  (网关)     │    │  vLLM       │    │  (4090 推理) │  │
│  └─────────────┘    └─────────────┘    └─────────────┘  │
│         │                                           │    │
│         └───────────────────────┬───────────────────┘    │
│                                 ▼                        │
│                         或使用云端 API (Claude/OpenAI)    │
└─────────────────────────────────────────────────────────┘

推荐配置

方案 A:纯 API 模式(最简单)

  • Clawdbot 直接调用 Claude/OpenAI API
  • 不需要本地 GPU
  • 4090 可以用于其他任务

方案 B:混合模式(推荐)

  • 4090 运行本地模型( Ollama + Qwen/Llama 等)
  • Clawdbot 配置使用本地推理端点
  • 省钱 + 隐私

方案 C:轻量本地模型

  • 使用量化模型(如 Qwen-7B-Int4 )
  • 4090 可以同时跑多个实例


快速开始

# 安装 Clawdbot
npm install -g clawdbot@latest

# 运行向导
clawdbot onboard --install-daemon

# 启动网关
clawdbot gateway --port 18789


Sources

注册后会获得:
Credits: 100.0
Valid for: 7 days

可用模型:
Claude Sonnet/Opus 4.5, Gemini 3 Pro, GPT-5/Codex
~200 frontier model requests


📌 转载信息
原作者:
dkly2004
转载时间:
2026/1/23 08:58:52

SWE-rebench 于近日公布了 2026 年 1 月最新榜单,该榜单基于去年 12 月 GitHub 上真实的开发任务(包含代码问题修复与拉取请求)进行动态评测。结果显示,Anthropic 旗下的 Claude Opus 4.5 以 63.3% 的任务解决率位列第一,OpenAI 的 gpt-5.2-2025-12-11-xhigh 以 61.5% 紧随其后,谷歌的 Gemini 3 Flash Preview 则以 60.0% 的成绩位居第三。

本次评测重点观察了模型在处理真实世界软件工程问题时的逻辑能力与成本效益。其中,排名第三的 Gemini 3 Flash Preview 凭借每题约 0.29 美元的低廉调用成本展现出极高的实用价值。在开源模型领域,智谱 AI 推出的 GLM-4.7 表现亮眼,其解决率从上一版本的 40% 大幅提升至 51.3%,成为目前性能最强的开源模型。此外,DeepSeek-V3.2 以 48.5% 的解决率紧随其后,且单题运行成本仅为 0.25 美元,进一步压缩了 AI 辅助开发的经济门槛。

此次更新反映了主流 AI 模型在自动化软件维护领域的持续演进。除上述头部模型外,Kimi K2 Thinking、Qwen3-Coder 等新型模型也已悉数入榜,显示出全球大模型在垂直代码领域的技术路线正向着高解决率与低功耗方向协同发展。


原文:

𝕏 x.com

🆕 We have updated SWE-rebench with the December tasks!

SWE-rebench is a live benchmark with fresh SWE tasks (issue+PR) from GitHub every month.

Some insights:

> top-3 models right now are:
1. Claude Opus 4.5
2. gpt-5.2-2025-12-11-xhigh
3. Gemini 3 Flash Preview

> Gemini 3

Flash>Pro?SWE-rebench 发布 12 月榜单:Claude Opus 4.5 位居榜首2
1:32 PM - 16 Jan 2026 290🔁 18

📌 转载信息
原作者:
HCPTangHY
转载时间:
2026/1/18 08:46:20

如题

Infiniax 現在对免费用户提供 Claude Opus 4.5(每日限量)

注册不绑卡 不禁止临时邮箱
平常免费用户则是以下模型


📌 转载信息
原作者:
josenlou
转载时间:
2026/1/5 12:56:36