因为现在的 ai ide 都有很完善的 agents 功能,而且还可以上网搜索资料

因此比如说对于改稿的部分:

你先让它创建一个改稿工作流(反重力里面叫这个名字)
差不多这样:

然后用 Gemini 3 Pro 等模型,让它执行这个工作流

他就会咔咔咔进行竞稿

你就只需要在吐出的文字里面人工再加上修改建议,然后重复这套工作流就好了。

而且由于模型本身聪明,文笔还挺不错的,就是你可能需要额外找一个地方定义写作的规范,因为中英文的区别还是挺明显的。

你甚至没有参考文献的话可以让它调用自带的搜索功能增加文献


📌 转载信息
转载时间:
2025/12/31 12:42:34

从 继续讨论,咕咕咕了一个月终于迎来了又一个大版本~

Abstract

交互式学习 Vim,每一个技巧都能提高编辑效率~

更新内容

v2.0 相比于 v1.5 主要更新了:

  1. 新增亮色主题
  2. 新增 HJKL 贪吃蛇趣味练习
  3. 增加 Vim 引擎的长序列对拍测试,提升 Vim 行为模拟准确性
  4. 使用优选域名提升全球访问速度
  5. 修复佬友们指出的文案 & vim 行为的 bug 若干

特色 & 开发动机 & 课程内容

详见前帖:

Vim 功能支持情况

当前处于 v2.0.0 版本,已实现功能如下。还在持续迭代中

迭代开发

现在项目仍有一些 bug 和不完善的地方(包括但不限于文案不易于理解、Vim 编辑器与真实行为不一致等),欢迎佬友们试用之后在楼内或者 issue 区反馈

衷心感谢如下佬友为这个项目提出宝贵的意见和建议!

@l39 @kika @GoldenZqqq @sodacola


Tip

觉得不错的话就帮我点个 Star​吧~

TODO & CHANGELOG

v2.0.0

  • hjkl 贪吃蛇
  • alpha 分支选择
  • 亮色模式

v2.1.0

  • 优化字体(i/l 混淆问题)
  • 修复文案问题
  • 光标渲染问题

v2.2.0

  • VimEngine bug
    • 撤销不识别
    • s 替换渲染
  • ESC 焦点问题
  • 自动化排查 run-example 文案

Release v2.0.0

  • 新增主题切换:亮 / 暗 / 跟随系统(Settings → Appearance),并重构配色系统为 CSS design tokens + Tailwind 语义色映射
  • 新增 Chapter 1 末尾小游戏:HJKL 贪吃蛇(本地成绩、金银铜徽章与提示、按 r 重开、撞墙宽限)
  • 对拍与测试工具链完善:quickcheck、JSON 报告 + viewer(聚合 / 过滤 / 排序),对拍并行化与长序列对拍覆盖
  • Vim 引擎与课程维护:dot/count/o/O/replace/paste 等对齐 Neovim;修复课程文件大小写冲突并补齐 zh/zh-lively 翻译

Release v1.5.0

  • Vim 引擎对拍:. 重播(cw/paste/ 末行 jw)、多行寄存器行粘贴、撤销快照去重与 cw 边界全面对齐 Neovim
  • 可视化提升:按键历史面板 + Vim Status 面板,组合键聚合、实时记录与 dot 重播提示一致
  • 输入与体验:Insert 模式中文输入可用,Tooltip 抖动修复,课程切换重新挂载消除键位提示重复
  • 学习流优化:挑战目标与示例文案更清晰(助记 / 拼写练习),Run Example / 课程示例节奏更平滑

Release v1.0.0

  • 首个正式版本,实现主要功能
  • 新增设置面板「Vim 状态」和「练习场」标签页(支持 C++/JS/Python 语法高亮,展示 Neovim 对拍测试结果)
  • 修复 Insert 模式光标位置和挑战切换状态重置等核心 bug
  • 改进学习体验:记住上次学习位置,支持 Enter 快速进入下一课


Alpha 版

bug 修复与新功能预览


来晒一晒你的 Vim + 贪吃蛇水平吧!


📌 转载信息
转载时间:
2025/12/31 12:42:00

腾讯发布首个 Diffusion 大语言模型:WeDLM-8B。WeDLM-8B 是一个基于扩散机制的大语言模型,有 80 亿参数。它从 Qwen3-8B 初始化而来,经过指令微调后,有基础版和 Instruct 版。

性能测试中,在数学推理任务上,WeDLM 比用 vLLM 优化的 Qwen3-8B 快 3 到 10 倍。比如计算 1 到 100 的和,只需 0.22 秒,而传统方式要 1.8 秒。在低复杂度任务中,每秒能生成上千个词。

模型已开源,在 Hugging Face 上可下载,支持 wedlm 引擎优化推理。这让扩散式语言模型第一次在实际速度上超过主流自回归模型。
腾讯开源的扩散大模型是否能掀起扩散大模型的浪潮?


📌 转载信息
原作者:
Learner_ghz
转载时间:
2025/12/31 12:40:38

美区 PayPal 注册方案,亲测有效!支持绑定大陆的 Visa 和万事达信用卡。
本方案利用 iPhone 手机或 iPad 设备和美区的 Apple 账号进行注册,虽然有点绕,其实很简单,美区 Apple 账号的申请就不多说了,很简单。
教程开始,打开手机设置,点击顶部的 Apple 账户,然后点击付款与配送,选择添加付款方式,再选择 PayPal,然后点击登陆 PayPal,在弹出的页面的左下角选择美国(一定选择美国),右边的语言可以设置为中文,填写表格中的信息,邮箱,手机号(不要接码,最好填写美国手机号),信用卡 (支持 Vise、万事达、美国运通等)。
最后填写账单地址,大家可以生成美国地区的地址,建议免税州的,填写完成提交就会收到手机验证码,验证一下就可以了,测试了一周多时间,目前正常。


📌 转载信息
原作者:
W_W
转载时间:
2025/12/31 12:37:35

来源火绒安全近期发现多款日本色情游戏(来源 BT 站)捆绑有高隐蔽挖矿木马。
木马利用 “白加黑” 技术植入,会大量消耗电脑 CPU 与内存。
而且这木马有防检测手段:
当你打开任务管理器时候,木马就会停止运行挖矿操作,防止被发现

来源


📌 转载信息
原作者:
okokxw
转载时间:
2025/12/31 12:37:24

iMini AI 重磅升级,推出全新功能【精细编辑】

简单说,就是对于 AI 图片生成不满意的地方,圈一下就可以马上修改。

比如下图,修改一下人物手中的水果、修改一下人物帽子颜色… 等等


体验入口:https://imini.com/tools/ai-image/text-to-image

除了【精细编辑】还有
1、分图层 / 编辑元素
2、1k 图片变 4k 高清
3、一键扣主体
4、扩图
5、擦除

等等,简单说,就是不单止能生图,还能修图了,并且没有使用门槛。


📌 转载信息
原作者:
Maolo
转载时间:
2025/12/31 12:37:12

win11 中内置 copilot GPT5.1 中的 juice 值,其中 Think Deeper 以及 Smart 模式下都是 16

edge 中内置 copilot 里的 GPT5.2, Smart Plus 模式下也是 16(我是 M365 会员,可能有点影响)

github copilot 里的 GPT5.2 是 64

windsurf 家的 GPT5.2 low,juice 是 16

windsurf 家的 GPT5.2 medium,juice 是 64 (high 和 xhigh 性价比太低,就不测了)


📌 转载信息
原作者:
ikb
转载时间:
2025/12/31 12:36:49

先交代下背景:玩 PT 也就几个月,这段时间陆续进了馒头、人人、UB、杜比这些站(在这里真心感谢各位佬儿友的信任)。我这边整体是 “两条线” 在跑:

  • 家里:40T 群晖 NAS 负责日常观影 + 长期做种
    我主要是 MoviePilot v2 + Emby 联动,平时自己看电影为主。
    另外有些站的契约 / 官种要求比较明确,我就在 NAS 上单独划了几个文件夹,权限只给 qB 可读写,专门放契约要用的内容,省得和日常媒体库搅在一起。
  • 公司:树莓派 5 负责刷流(重点)
    刚入坑的时候有点怕家里被当成 PCDN 之类的搞到限速,所以干脆把刷流主力放公司。
    公司网络:1000M,无公网 IP、无 IPv6;家里是 500M,有公网 IP、无 IPv6
    目前大概几个月下来:公司刷了约 13T,家里零零散散大概 1T 左右。


一点体感:想吃上传,“新种窗口” 比 “硬拉满” 更关键

刚开始在馒头那会儿,我都是挑自己喜欢的资源下(但不是最新官种),结果基本吃不到上传 —— 很正常,新种发布后的时间窗口才是最香的。
后来在杜比、UB 这类站,我发现只要是跟着下最新官种,保种阶段上传速度经常能看到 3–4 MiB/s(指单种 / 短时间波动,不是一直满速)。当然,那些 “经久不衰” 的内容偶尔也会出点速度,但总体来说,刷流想稳定,还是得围绕新种节奏来


我折腾过的几种方案,最后留下的是:一个 qB + 一个 Vertex

我试过:

  • 每个站点一个 qB + 一个 Vertex(管得细,但维护起来太麻烦)
  • 一个 Vertex 管多个下载器(看着省事,但实际容易互相抢额度 / 堆积)

最后发现对我这种网络环境来说,最稳的反而是:
一个 qB 容器 + 一个 Vertex 容器,然后在 Vertex 里跑 RSS 任务(我这个版本一次最多就开 3 个 RSS 订阅任务,够用了)。

核心就一句话:不要贪心,要平衡。


重点:我现在这套 “平衡逻辑” 是怎么做约束的

我以前也干过下班回家直接把 qB 拉满:下载 70–80 MiB/s、同时下载数量 16/24/48/64 甚至不设上限…… 爽是爽,但结果就是:

  • PT 站每小时都在更新,你设置太激进,种子会越堆越多
  • 堆积以后,“慢种” 长期占着活动位,反而把新种窗口挤没了
  • 速度太慢也不行,慢种拖着不结束,同样占额度

所以我现在用的是双重约束:Vertex 控总量节奏,qB 控队列与慢种策略


1)Vertex 侧:先把 “节奏” 卡住(防止 RSS 把下载器塞爆)

我这边 Vertex 主要卡这些:

  • 上限下载速度:30 MiB/s(上传上限我没卡死)
  • 最小剩余空间:200 GiB(低于就不再加种,避免写爆盘 / 触发各种异常)
  • 最大下载数量:15(超过就不加种)
  • 每小时上限:5(每小时推送到客户端的种子数量上限,避免 “追更太猛”)

同时我开了 自动删种,删种周期是 cron(我这里是 * * * * *,也就是每分钟检查一次)。删种规则我勾了三条:

  • 100G 空闲删种
  • 无效做种
  • 超时下载
    高分享率清理我没开(我更倾向 “吃窗口、快进快出”,高分享那套玩法不太适合我目前的内网条件)。


2)qB 侧:关掉 “会影响 PT 生态的东西”,然后让队列更聪明

qB 这边我做了几件很基础但很有用的事:

(1)PT 必备:关 DHT / PeX / 本地发现,开匿名模式
这个不展开了,懂的都懂。

(2)队列:最大活动下载数 = 15
并且我勾了:慢速 torrent 不计入限制内

  • 下载阈值:2 KiB/s
  • 上传阈值:2 KiB/s
  • 非活动计时器:60 秒
    这样 “卡死不动的慢种” 不会长期占着活动位,新种更容易排进来。

(3)做种限制:到点就清(我这套偏刷流思路)

  • 达到总做种时间:60 分钟
  • 达到不活跃做种时间:30 分钟
    然后动作是:删除 torrent 及所属文件
    (这条就很看个人玩法了。我是刷流取向,所以宁可腾空间、让队列保持流动。)

(4)速度 / 连接(给个参考值)

  • 全局下载限制:35000 KiB/s(约 34 MiB/s)
  • 连接协议:TCP
  • 全局最大连接数:1000
  • 每 torrent 最大连接数:200
  • 全局上传窗口:50;每 torrent 上传窗口:15
    公司没公网也没 v6,端口能不能真打通随缘,但对刷流这套 “追新 + 快进快出” 的节奏影响没想象中大。


配置截图(更直观,我就不一行行贴文字了)







效果与结论:别把 SSD / 内网 “跑满” 当目标,找到平衡点才是关键

在我这套环境下(公司 1000M、无公网无 v6),长期跑下来一个很明显的结论是:

  • 单纯把下载拉满、并发拉满,并不会让上传更好,反而更容易堆积
  • 更稳的方式是:控制每小时进种量 + 控制活跃下载数 + 慢种不占位 + 及时删种
  • 我这套配置在树莓派 5 不连续超负荷的前提下,基本能做到:
    每天稳定吃到 150–200G 上传(仅供参考,跟站点热度 / 新种质量 / 时间窗口关系很大)
  • 另外我自己的体感是:上传 / 下载大概长期在 1:10 这个量级上下浮动(同样仅供参考)。

一句话收尾:刷流不是把性能发挥到极致就会更好,尤其在 “无公网 / 无 IPv6” 的内网条件下,更重要的是 “节奏” 和 “队列的流动性”。


树莓派刷流机配置(放末尾,方便想抄作业的佬儿友)

  • 主板:Raspberry Pi 5(8GB)
  • 机箱:Argon ONE V3(带 M.2 NVMe PCIe 扩展)
  • 系统:Raspberry Pi OS Lite 64-bit(Debian Trixie 系)
  • 存储:WD Red SN700 1TB(NVMe,2280)
  • 电源:官方 27W USB-C PD

以上就是我这几个月踩坑后的 “能长期跑、别太折腾” 的版本。各位佬儿友如果也有类似内网环境的玩法,欢迎一起交流你们的平衡点怎么找的。


📌 转载信息
原作者:
Guangpeng_Wang
转载时间:
2025/12/31 12:36:15

各位 L 站的大佬们,大家平时写代码、水贴之余,身体健康关注了吗?
现在的通用 AI 聊健康总是 “建议咨询医生”,缺少深度分析。于是我写了这个项目:Claude-Ally-Health 。它不仅是一个对话框,而是让 Claude 进化成你的私人健康专家。

核心亮点:

  • 深度推理: 针对 Claude 3.5 Sonnet/Opus 优化,利用其强大的逻辑能力,深度解析体检报告、化验单和运动数据。

  • 隐私至上: 数据完全由你掌控。你可以通过 API 接入,支持自定义中转或官方 Key,不用担心健康敏感信息被滥用。

  • 结构化输出: 拒绝废话,直接给出健康风险评估和改进建议,支持导出和历史记录追踪。


📌 转载信息
原作者:
Zenf
转载时间:
2025/12/31 12:31:31

《三位一体 经典合集》4 款横版奇幻合作

该合集包含包含四部作品:《Trine Enchanted Edition》《Trine 2: Complete Story》《Trine 3: Artifacts of Power》以及《Trine 4: Definitive Edition》。

https://store.epicgames.com/zh-CN/bundles/trine-classic-collection


📌 转载信息
原作者:
nasa2046
转载时间:
2025/12/31 11:45:34

余额可在 https://crs.prismllm.tech/admin-next/api-stats 输入 api_key 查看。

~/.codex/config.toml:

model_provider = "crs" model = "gpt-5.2-codex" model_reasoning_effort = "xhigh" disable_response_storage = true preferred_auth_method = "apikey" [model_providers.crs] name = "crs" base_url = "https://crs.prismllm.tech/openai" wire_api = "responses" requires_openai_auth = true env_key = "CRS_OAI_KEY" 

~/.codex/auth.json:

{ "OPENAI_API_KEY": null } 
export CRS_OAI_KEY=cr_ab8f442a747e9e5d591c54cfad8078c354993f5883e126d4c2c3310a8d37a980

📌 转载信息
原作者:
Toyota
转载时间:
2025/12/31 11:43:41

反重力里面的 claude 量还是比较充足的,这两天学习了一下如何转换格式到 cherry studio 中使用,算是学习笔记贴吧,大佬们需要有反重力的账号,然后部署下面这个项目(我是本地部署的),

https://github.com/su-kaka/gcli2api

部署好之后在 7861 端口打开,是下面这个界面,然后获取认证链接,会跳转网页去登录自己的 Google 账号,认证完成就 ok 了,


第一个是 gemini cli 的,只有 gemini 模型能使用,反重力的话有 claude 可以使用,所以我们推荐把反重力也认证了,接下来就简单了,我们选择 url 和 key 填到 cherry studio 中

如果是 cli 的话使用这个
openai.api_base = “http://127.0.0.1:7861/v1
openai.api_key = “pwd”

如果是反重力的话使用这个
openai.api_base = “http://127.0.0.1:7861/antigravity/v1
openai.api_key = “pwd”
#模型我暂时先选择 claude-sonnet-4-5 ,大家也可以选择其他模型,看自己爱好喽


然后这个仓库是一个大佬发在 qq 群的,我没看懂,私聊大佬学习了这个技巧,我只有他 qq 号,他是 空悲切 ,再次感谢大佬(如果大佬看到了可以评论一下哈哈),作为一个非程序员,我平时喜欢折腾这些东西,可能很简单,也希望为社区做一点小小的贡献吧,如果大家有其他使用技巧也欢迎在评论区补充,好了好了,得开始上班了


📌 转载信息
原作者:
happyabel
转载时间:
2025/12/31 11:33:16

佬友们,大家好,好久没发帖子了,今天水一下

此次 v1.5.0 版本更新实现大量重构优化:

一、后端核心翻译重构

1. 重构各个文件翻译逻辑,特别是 docx 和 pptx,翻译质量与排版显著提升

2. 智能分块策略优化,有效降低 API 调用次数与 Tokens 消耗成本

3. 动态术语匹配,仅当文本块包含术语时才注入,大幅节省 Tokens 成本

4. 修复线程,并发控制优化,严格限制并发请求数量,避免 API 限流

5. 完善错误处理机制,异常状态及时更新

6. 优化进度更新策略,翻译进度更精准流畅

7. 邮箱注册发送消息模板 UI 更新

8. 删除一些无关接口

二、用户端更新

1. 首页翻译任务进度修复,轮讯请求,进度实时更新

2. 个人中心页面 UI 优化

3. 用户登录注册页面 UI 优化

三、管理端更新

1. 任务列表和用户列表页面表格列宽度优化

2.API 设置页面新增 模型请求接口测试(响应,首字,耗时,速度)

支持私有化部署

最后放个仓库地址,欢迎大家 star 支持一下~

https://github.com/mingchen666/DocTranslator


📌 转载信息
原作者:
aiyunya
转载时间:
2025/12/31 11:32:54

相信站内不少佬平时都得啃论文,我自己也是。但总得在各种翻译,ai 聊天软件里切换来切换去,索性自己动手搞了这个项目。

首先先介绍一下功能

第一:可以转换成 md 后进行翻译,格式不会丢失,还有中英对照页面
翻译采用 ReactAgent 架构,搜寻从 arxiv, 以及网上各种信息,从背景、动机、切入点:

  • 以及强相关论文给出链接和简单描述相关性
  • 最重要的创新点也会详细解析(是什么,为什么重要,与已有方法对比),以及关键模块等等
  • 实验结果,优势和局限性
  • 还有 ai 推断的可行方向

第二:不熟悉的专业术语,划词后让 ai 解析
解析完成后会在整个项目全局高亮,鼠标悬停则会出现解析

第三:拥有用户画像功能的就论文对话功能
ai 能根据用户的回答实时调整用户画像,给出让用户最能听懂最想要的回答

话不多说,拿一篇论文试试效果,拿最近新出的 step-deepresearch 举例

1. 解析效果:结构公式啥的都没毛

gif1_2x_2

2. Agent 翻译

[开源] PaperMate,让读论文看文档再优雅一点点3

类似于沉浸式那样的对照阅读也没问题:

[开源] PaperMate,让读论文看文档再优雅一点点2

3. 深度解析

gif4_2

4. 划词 & 记忆:遇见不懂的陌生的词?直接划词解析(这些都会进入 llm 的记忆,可以在对话中用到):

[开源] PaperMate,让读论文看文档再优雅一点点4

5. 智能问答: llm 会根据用户回答自动调整用户画像(beta,可能有 bug):

[开源] PaperMate,让读论文看文档再优雅一点点5

to_do_list:
未来想完善的功能:
添加项目级别的记忆,不止是术语和画像,提升 llm 回答的质量,让 llm 更懂你,也更懂论文
将整个项目里的所有论文,以及专业术语和记忆,作成 rag 知识库,在对话、翻译等地方运用上去
优化翻译 agent 和对话流程


大家在读论文里还有什么需要的可以提,如果好的我都会采纳放进去,还有 rag 我完全没整过,感觉有点复杂就先放到后边去了

最后,star 一下吧


📌 转载信息
转载时间:
2025/12/31 11:32:06

佬友们,大家好,好久没发帖子了,今天水一下

此次 v1.5.0 版本更新实现大量重构优化:

一、后端核心翻译重构

1. 重构各个文件翻译逻辑,特别是 docx 和 pptx,翻译质量与排版显著提升

2. 智能分块策略优化,有效降低 API 调用次数与 Tokens 消耗成本

3. 动态术语匹配,仅当文本块包含术语时才注入,大幅节省 Tokens 成本

4. 修复线程,并发控制优化,严格限制并发请求数量,避免 API 限流

5. 完善错误处理机制,异常状态及时更新

6. 优化进度更新策略,翻译进度更精准流畅

7. 邮箱注册发送消息模板 UI 更新

8. 删除一些无关接口

二、用户端更新

1. 首页翻译任务进度修复,轮讯请求,进度实时更新

2. 个人中心页面 UI 优化

3. 用户登录注册页面 UI 优化

三、管理端更新

1. 任务列表和用户列表页面表格列宽度优化

2.API 设置页面新增 模型请求接口测试(响应,首字,耗时,速度)

支持私有化部署

最后放个仓库地址,欢迎大家 star 支持一下~

https://github.com/mingchen666/DocTranslator


📌 转载信息
原作者:
aiyunya
转载时间:
2025/12/31 11:27:02

前言

试用了一段实践,感觉效果不错,各位可用根据需要做适当修改, 毕竟 5 万字,这个还是有些夸张的。

另外推荐使用 gemini-3-flash-preview 模型,如果在隔离环境下,简要开启 yolo 模式。

gemini  -y 

Prompt

请严格按照深度研究步骤,产出如对应主题调研报告。需要广泛的搜集信息,包括使用中文和英文关键词搜索,搜索学术论文和新闻报告等。

## 要求

- 所有临时文件,保存本地目录。
- 将所有的研究计划,以 Markdown TODO list 的方式保存在 TODO.md 文件中。

## 研究主题

针对 GraphRAG 主题,找到2025年的全部论文,深入读取论文内容,给出完整综述。

## 深度研究步骤

准备阶段:
(1)创建 TODO.md 文件,保存所有待办步骤到 TODO.md 中,每个任务完成后反思和更新计划。

第一阶段:信息搜集和研究大纲生成
(1)信息搜索:收集相关领域的信息,明确研究背景、细化通过研究想要达成的具体成果
(2)生成研究大纲,写入到 `research_outline.md` 文件

第二阶段:进行深度信息收集
(1)系统手机目标领域的历史数据和案例,将这些信息整理成标准化的内容,可选择用数据表格形态整理。关键是确保数据的完整性、准确性和时序性,为后续所有分析提供可靠的事实基础,数据收集必须覆盖足够的时间范围,包含所有相关的关键信息字段
(2)请广泛的进行信息收集,需要收集 100 条以上的参考文献。
(3)将所有的参考论文、网页等URL保存到 `reference.md` 文件中,使用Markdown表格存储,如果为PDF格式论文,将所有论文下载到本地(可以先生成URL列表后用 wget批量下载)。

第三阶段:深度分析与信息深度挖掘
(1)深度模式分析:基于收集到的数据,深入分析其中的新研究对象、关键模式、规律和趋势等。这包括频率统计、周期性变化、发展趋势等量化分析,目标是揭示隐藏在数据背后的内在逻辑和规律性特征。对于上一步中出现的新的重要概念或实体,需对该类需要探究的内容进行二次信息搜集。分析结果尽可能用统计数据和可视化图表来呈现。
(2)核心驱动因素提取:通过对模式的深度分析,需要识别出真正影响结果的核心驱动因素。这些因素需要按照影响力大小进行排序,并评估各自的权重。重点是找到那些具有决定性作用的关键变量,而不是表面的相关性因素。
(3)现实背景信息补强:针对已识别的核心驱动因素,我会收集当前相关的现实背景信息。这包括最新的政策变化、市场环境、技术发展、社会趋势等可能影响分析结果的现实因素。目标是将历史规律与当前实际情况相结合,确保分析的时效性和准确性。
(4)在这个阶段中,随时判断已有信息是否足够,应尽可能的收集更多的信息,让参考文献越多越好。

第四阶段:输出研究报告
(1)研究报告大纲生成:根据收集的全部信息,生成报告大纲(约10个章节),并写入文件 `research_report_outline.md`
(2)研究报告分章节生成:逐个章节编写报告内容,每个章节内容写到到文件 `research_report_章节.md`
(3)研究报告合并:使用shell命令将所有章节内容合并到文件 `research_final_report.md`。

## 报告格式要求

1. 总文本量不低于 50000 字,使用中文。
2. 使用 Markdown格式。
3. 必须使用 markdown表格、mermaid 图表的方式表达复杂概念和内容。
4. 报告最后是专门的引用章节,有所有引用的参考文献,格式为 `[1] 参考文献1`

忘记出处了, 使用 Coding Agent 作为通用智能体完成 DeepResearch 任务・Issue #141・ninehills/blog・GitHub


📌 转载信息
原作者:
yuke
转载时间:
2025/12/31 11:23:18

  • 兑换方式一

安卓 /iOS:打开自家应用商店搜索 “酷狗概念版” 安装完成后随意怎么登录,点击顶部搜索,输入:“兑换 100 天会员”, 就能顺利的领取成功。

  • 方式二

如果你没有领取成功 100 天也可以进入用户界面,也可以每天签到送一天会员,还可以在【 酷狗概念版】-【我的】-【福利与活动】下滑可以看到【天天签到领 VIP】,非常给力


📌 转载信息
原作者:
IT-MOXI
转载时间:
2025/12/31 11:22:53

前情提要:最新注册了新号,地区问题和新号导致账号风控太多,导致 gemini 网页 和 Antigravity 都没法正常使用,最近更换地区到适配的地区,还是没法使用,

最近意外加入了一个 google one 群组,发现 gemini 能用了,但是 Antigravity 还是没法使用。所以研究一下,分享经验

目前我的账户还是 Your current account is not eligible for Antigravity. 通过以下步骤,还是没法使用 Antigravity 的编辑器,但是可以使用 Antigravity Tools 来进行 2api 使用

注意哈,google one 用户,下面步骤执行完还是没法正常使用 ide,只是能使用模型了

  1. 改到支持的地区后,记得验证年龄
    年龄验证

2. 安装 gemini-cli 登录 ,如果 gemini-cli 没法使用,大概率 Antigravity 也没法使用,但是可以提高 Antigravity 2 api 的机率

npm install -g @google/gemini-cli

进行简单对话测试账号是否可用

3. 使用 Antigravity Tools ,进行登录,如果正常显示额度就可以用了

注意哈,Antigravity 还是不可用的,但是能使用 cc 来接入模型了哈

具体可看
【来猛烈的 AI 组合技】工具集合分享 ,看看是不是差生文具多 - 开发调优 - LINUX DO


📌 转载信息
原作者:
vkrain
转载时间:
2025/12/31 11:22:41