OpenAI 删除“安全”词惹议,AI 代理失控再敲警钟
批评:文章模糊、缺乏方法论 多位读者抱怨原文没有清晰定义“metaproject”,仅有模糊的感受性描述和隐喻,缺乏可操作的步骤或区分普通多项目管理的阐释。关键批评点包括:没有说明元项目如何解决无限待办清单的问题,也没有展示如何实际落地或衡量进展。有人指出文章既不表明作者的身份定位(创业者、自学者或艺术家),也没给出具体案例或可复制的实践方法。因此部分读者认为这篇文章更多是情绪宣泄而非生产力或时间管理的实用指南。 [来源 1] [来源 2] [来源 3] [来源 4]
实践应用与个人共鸣 另有读者表示该概念对他们有实际帮助,能用来缩小目标范围并减轻选择焦虑,把时间投入到既满足又有实际回报机会的项目上。有人把重点放在优先选择既能带来成就感又可能替代“DAYJOB”的子项目,并且通过制定时间表来避免倦怠。读者分享了把元项目视为人生长期工程的做法(例如发布小说、开发操作系统或学习语言)并表示从作者的思路获得了情感共鸣和行动方向。整体来看,支持者把元项目当作长期动力和兴趣整合的工具。 [来源 1] [来源 2] [来源 3]
道德与心理角度的强烈反应与辩护 部分评论对文章中将人类欲望与心理机制比作“Human OS”并可用“补丁”修复(例如引用 loss aversion、Taoism、Zen、stoicism)表达强烈反感,认为这种表述近乎病态或缺乏良知。原始批评用词激烈,称对这一代“想当创业者”的心态感到作呕,指责作者在情感上试图关闭内在的惩戒或道德机制。与此同时,也有评论为作者辩护,认为文章只是个人关于任务管理与目标感的发泄,并未表达明显的伦理问题或具有害的创业动机。对话因此在是否应将心理倾向工具化与文章是否确实有害之间产生明显分歧。 [来源 1] [来源 2] [来源 3] [来源 4]
📚 术语解释 metaproject(元项目): 把若干相关或开放式长期任务归入同一“伞式”长期工程的概念,每个子项目可独立完成但共同推进一个长期目标,旨在降低选择成本、维持长期动力并把零散兴趣组织为持续可做的工作源。
类别: Work | Opinion | metaprojects | taylor.town
【11】@GoogleAIStudio Learn more: https://t.co/ppHFzA6jeJ
来源: Google AI Developers(@googleaidevs) - Google AI Developers (@googleaidevs)
发布时间: 2026-02-13T20:41:44.044Z
链接: https://x.com/googleaidevs/status/2022410886590373904
详情: @GoogleAIStudio Learn more: ai.google.dev/gemini-api/doc… 💬 0 🔄 0 ❤️ 3 👀 1231 📊 1 ⚡ Powered by xgo.ing
【12】Ready to move your Gemini projects to production?
We’ve streamlined the billing setup so you can up...
来源: Google AI Developers(@googleaidevs) - Google AI Developers (@googleaidevs)
发布时间: 2026-02-13T20:41:30.531Z
链接: https://x.com/googleaidevs/status/2022410827241000978
详情: Ready to move your Gemini projects to production? We’ve streamlined the billing setup so you can upgrade to the paid tier without leaving @GoogleAIStudio . Get higher quotas and access our most advanced models in just a few clicks. You can also monitor usage, rate limits, and costs from the revamped dashboard experience! Your browser does not support the video tag. 🔗 View on Twitter 💬 2 🔄 8 ❤️ 66 👀 3992 📊 15 ⚡ Powered by xgo.ing
【13】🤨 1180 万欧盟公民交税却无国政投票权:入籍、双重国籍与地方选举争议
来源: News Hacker | 极客洞察
发布时间: 2026-02-13T20:36:34.308Z
链接: https://newshacker.me/story?id=47006738
详情: 原标题: 《11.8M EU citizens pay taxes to governments they cannot vote for》 评分: 37 | 作者: heyimada 💭 付税却无投票权,你这是要当客人还是主人? 🎯 讨论背景 标题源自关于约 1180 万在他国居住的欧盟公民向所在国缴税却无法参与该国国政选举的讨论。争议建立在欧盟(European Union)自由移动权利与成员国各自不同的选举、登记和入籍规则之上:多数流动公民可以参加居住地的市政选举并为欧洲议会(European Parliament)投票,但国家级选举通常仅限公民且各国在邮寄投票、语言与居住年限方面标准不同。评论以英国脱欧(Brexit)、英爱特殊安排、以及美属领地(如波多黎各)和无证移民纳税的类比,扩展到政治合法性、入籍成本与信息可得性等更广泛议题。讨论的核心既有制度性差异,也有关于个人责任与民主包容性的价值冲突。 📌 讨论焦点 公民权与登记规则合理性 部分评论认为国家级选举保留给公民是合情合理的:没有公民身份就不能决定国家法律,若在意应通过入籍或在原籍申请邮寄投票解决。评论举例说明各国登记和邮寄投票有不同截止日,搬家后未登记并非特殊案例,美国换州也要重新注册并可能有居住时限。还有人强调选举站由志愿者管理,核验多国证件会增加操作复杂性——例如有人提到荷兰投票监管只接受荷兰护照/ID/驾照等具体证件要求。 [来源 1] [来源 2] [来源 3] [来源 4] [来源 5]
入籍难度与双重国籍限制 许多评论指出把“入籍”当作万能解法忽视了现实障碍:若所属国家或目的国不允许双重国籍,入籍就意味着放弃原国籍。部分国家要求长期居留(评论中提到奥地利、西班牙可能需十年)或通过严格语言考试(如评论中提到的芬兰),使得长期居民难以在短期内取得国籍。也有评论补充并非所有国家都相同——例如德国和法国在若干情况下允许双重国籍——因此入籍成本和规则在不同成员国差异巨大,直接影响能否“通过入籍获得投票权”。 [来源 1] [来源 2] [来源 3] [来源 4]
已有投票渠道:市政与欧盟议会选举 不少评论提醒读者注意已有渠道:欧盟框架下流动公民通常可以在居住地参加市政选举并为欧洲议会(European Parliament)投票,文章本身也提到这些权利但被一些人认为表述隐晦。具体国别规则差异明显:例如西班牙允许欧盟公民参加市政和欧洲议会选举,但不允许参加地区选举。因此核心问题经常不是“完全没有投票权”,而是跨国规则不统一、信息不透明和申请流程繁琐导致的现实障碍。 [来源 1] [来源 2] [来源 3] [来源 4]
与其他体制的类比:美属领地与无证移民 评论中多次把欧盟情形与美属领地或無证移民的处境类比,指出“交税无代表”并非欧盟专有问题。例子包括波多黎各居民向美国交税却无法参加联邦选举,American Samoa 持美国护照但不被视作公民,以及华盛顿特区代表权受限。还有评论指出无证移民和外籍务工者为国家缴纳大量税收但没有参政权,这把讨论拉到更广泛的税负与代表权失衡议题上。 [来源 1] [来源 2] [来源 3] [来源 4]
政治合法性与影响力的争论 评论在是否允许长期居民参与国家政治上存在根本分歧:一方以脱欧(Brexit)为例,认为只有公民才能决定国家主权问题,担心大量非公民凭经济存在影响政治构成“殖民化”或不当干预。另一方认为长期居住且纳税的人应被纳入政治决策,强调尊严与民主包容性,且人口流动与人口老龄化使得单纯排斥并非可持续策略。讨论同时触及历史例外与条约:英国—爱尔兰间的特殊安排被用来说明制度可以产生例外但也带来不均等。 [来源 1] [来源 2] [来源 3] [来源 4]
对作者与投票行为的批评 部分评论直接质疑原文作者的代表性与动机:作者本人承认多次错过邮寄投票或登记期限,因此有评论把论点称为“特例化抱怨”或“懒惰”。还有更极端的观点彻底否定选举的道德意义,认为投票只是把责任从执政者推给无力的公民。总体上,这些批评把讨论从制度缺陷拉回到个体责任、信息获取和公共话语可信性的问题上。 [来源 1] [来源 2] [来源 3] [来源 4]
📚 术语解释 双重国籍(dual citizenship): 同时拥有两个国家的国籍。不同国家法律对双重国籍态度不同,有的要求归化时放弃原国籍,这会直接影响能否在居住国与原籍国间选择投票权。 入籍 / 归化(naturalization): 外籍居民通过满足居住年限、语言考试和法律条件取得所在国公民身份的程序。入籍通常能赋予国家级选举的投票权,但可能伴随放弃原国籍或长期等待。 市政选举(municipal elections): 地方政府层级的选举。许多欧盟成员国允许在居住国的欧盟公民参与市政选举,但对区域或国家级选举的资格更为严格且各国差异大。 邮寄投票 / absentee ballot(postal vote): 因居住在国外或不在选区而通过邮寄或代理投票的机制。各成员国的申请流程和截止日期不同,错过期限会导致无法投票。 欧洲议会 / MEP(European Parliament / Member of the European Parliament): 欧盟的直接选举立法机构(European Parliament),欧盟公民通常可以在居住国或原籍国之间选择参加欧洲议会选举并选出 MEPs(欧盟议员)。
类别: Policy | Work | Opinion | EU citizens | European Union | taxes | voting rights | citizenship | expatriates | homolova.sk | Brexit
【14】⚠️ AI 不会完全替代工程师,但管理与技能差距会导致裁员
来源: News Hacker | 极客洞察
发布时间: 2026-02-13T20:31:51.219Z
链接: https://newshacker.me/story?id=47006513
详情: 原标题: 《Why I'm not worried about AI job loss》 评分: 49 | 作者: ezekg 💭 管理层要用 AI 省人,你还打算乐观到什么时候? 🎯 讨论背景 一篇关于“为什么我不担心 AI 失业”的文章在社交平台被大量传播,引发工程师群体对技术能力、管理反应与社会后果的热议。讨论围绕当前大型语言模型(LLM,例如 Claude(Anthropic 的对话/编程模型)、ChatGPT Enterprise(OpenAI 的企业版)、Codex(OpenAI 的编程模型))的实际局限,尤其是长期记忆/上下文(memory problem)和能否构建持续理解业务的 agent。工程实践中的例子(模型插入错误的 session.commit、漏掉 DB key、删掉 nginx 配置)被用来说明有经验的人与不懂行的人使用 AI 的截然不同后果;同时评论也指向管理层激励、行业差异与媒体炒作会显著影响裁员与就业结果。半导体等行业的亲历者还补充了“AI 投资不等于技术替代——错误的资本投入也会造成裁员”的现实案例。 📌 讨论焦点 技术局限与上下文记忆问题 许多工程师认为当前 LLM 在长期上下文与记忆(memory problem)上有根本限制,无法像人类那样逐步理解大型代码库或业务流程,因此不能独立完成多数复杂 ticket。实际例子包括模型在实现 RPC 时随意插入 session.commit()、遗漏数据库关键字段导致全表扫描、或误删 nginx 配置行,这类错误需要有经验的人来识别与修正。改进文档、让模型从项目早期就参与并为自己留下可读注释、或构建有状态的 agent 可以部分缓解问题,但这些都是工程与流程挑战,不是模型自动能解决的能力差距。基于此观点,软件工程师的价值仍然在于把大局目标转化为稳定、可维护的产品而非仅靠模型生成代码。 [来源 1] [来源 2] [来源 3] [来源 4]
管理与资本驱动的裁员风险 许多评论指出真正的风险来自管理层和资本决策,而非技术本身:即便 AI 只能完成一部分任务,管理者也可能以此为由压缩人力或提高对剩余员工的产出期待。有人警告“AI 做 80% 工作”会被解释为可以裁掉 80% 人员,导致先裁后悔或反复雇佣的低效循环。讨论中也包含对现实操作的质疑——如果真能自动完成 backlog,为什么公司不直接用临时人手或专门流程去做并最终解散岗位——说明监督成本、组织政治与短期财务动机会决定裁员发生与否。综上,组织如何解读 AI 能力和激励管理层比技术成熟度更能左右失业结果。 [来源 1] [来源 2] [来源 3] [来源 4] [来源 5] [来源 6]
技能分化:资深受益、初级或能力不足者遭殃 评论普遍认为 AI 会放大技能差距:有经验的工程师能把大部分机械性编码工作交给 Claude 等模型,从而专注架构与审查,但初级或不理解底层原理的开发者无法识别模型错误,容易被“带崩”。帖子里有具体轶事:新人因接受模型建议导致无法复原的配置删除、用 Claude 生成了不合时宜的 ORM 重写、或耗时修复模型建议引发的问题。因此 AI 对资深人员是效率倍增器,但对新人或技能薄弱的人则可能直接导致失业风险上升与岗位压缩。长期会出现岗位两极化:高阶审查与设计角色更值钱,单一可并行化任务的岗位被压缩。 [来源 1] [来源 2] [来源 3] [来源 4]
行业差异与自动化经济学 评论强调不同产业的自动化门槛不同:物理劳动(如快餐)的机器人化受高额资本投入、维护与服务成本制约,而纯软件或白领工作受 LLM 影响更直接。对快餐业的分析举出历史演变与设备维护成本,指出许多自动化项目在经济上并不现实,但也有地缘差异(例如部分韩国门店实现高度自动化的例子)。另有来自半导体行业的亲历者指出,部分裁员并非由技术替代直接导致,而是公司对 AI 项目的过度投资未带来收入所致。因此不同产业、不同国家与不同业务模式会有截然不同的自动化路径与时间表,不能一概而论。 [来源 1] [来源 2] [来源 3] [来源 4] [来源 5]
舆论放大、时间线与可信度争议 一篇关于“为何不担心 AI 失业”的长文在社交平台被广泛传播(被宣称数千万到上亿次观看),引发恐惧與怀疑并存的反应:有人认为这是催化公众恐慌的噱头或产品营销,有人则认为它把合理担忧放大了。从业者在评论里劝诫要对时间线保持怀疑,指出能力分布不均与大量工程实践难题仍存在;同时也有文体学与模型行为分析的讨论以识别“slop”或合成写作痕迹。总体来看,媒体传播把不同立场放大成两极化的叙事,增加了公众对短期影响的焦虑。 [来源 1] [来源 2] [来源 3] [来源 4] [来源 5] [来源 6]
组织与流程调整可以放大或抑制替代效应 多位评论指出,企业通过改造流程(更严格的文档、让模型从项目起始参与并写注释、构建带状态的 agent)能显著提升 AI 的有效替代率,反之则效果有限。有观察认为 AI-forward 的公司已经在利用工具缩短 backlog,瓶颈并非模型产出而是监督、review 与人力带宽。因此是否被替代在很大程度上取决于组织是否愿意重新设计工作流,建立能被模型消费的需求与监控链路。这使得替代既是技术问题,也是管理与流程工程问题。 [来源 1] [来源 2] [来源 3] [来源 4]
📚 术语解释 agent(自主代理): 一种能主动执行多步任务并维持状态的自动化程序或系统,评论中指希望通过解决“memory problem”让 agent 持续理解业务、跟踪历史决策并在代码库中长期工作。 memory problem(长期记忆/上下文限制): 指现有 LLM 难以跨会话或长期保持业务规则、代码状态与历史背景的能力,导致模型无法像人类工程师那样逐步学习与维护复杂系统。 prompt / prompt engineering(提示工程): 通过设计精确的文字提示来引导模型行为的技术,评论认为很多任务能否被自动化取决于 prompt 是否足够明确,以及是否有熟练的人对输出进行审查和纠正。 comparative advantage / labor substitution(比较优势 / 劳动力替代): 经济学概念,用以评估在 AI 与人共同生产下是否仍有让人参与能提高总体产出或成本效益,讨论中用来说明即便 AI 在多数任务上更强,人机组合仍可能存在价值或被管理层用于裁员判断。 LLM(Large Language Model,大型语言模型): 以生成与理解自然语言为核心的深度学习模型(例如 Claude、ChatGPT、Codex),当前许多代码生成與文本自动化都基于 LLM,但其事实准确性、长期记忆与复杂推理仍有局限。
类别: AI | Work | Programming | Opinion | AI | job loss | software engineering | David Oks | backlog | labor substitution
【15】🥪 把 SBOM 套到三明治:版本锁定、许可与供应链笑话
来源: News Hacker | 极客洞察
发布时间: 2026-02-13T20:21:16.200Z
链接: https://newshacker.me/story?id=46939613
详情: 原标题: 《Sandwich Bill of Materials》 评分: 170 | 作者: zdw 💭 吃三明治前先更新 lockfile,真香? 🎯 讨论背景 这是把软件行业的 SBOM(Software Bill of Materials)概念幽默地移植到三明治与食材供应链上的一轮讨论。评论假设读者熟悉包管理、版本控制、许可(如 AGPL)、校验(SHA-256)和历史事件(如 left-pad)等软件背景,并用这些概念去检验可重现性、可追溯性与现实可行性。对话同时触及企业采购与合规层面(如 SAP、EDI、ISO、EU 的 CRA)以及工具链实践(purl、homebrew、Claude),把技术笑话与真实业务痛点交织在一起。整体讨论既是对过度形式化的嘲讽,也暴露了把数字化流程硬套到物理供应链时的具体摩擦与限制。 📌 讨论焦点 版本锁定与易腐性问题(lockfile) 评论指出把软件世界的 version pinning 和 lockfile 直接套用到食品供应链会造成实际问题:对易腐食材使用 lockfile 会导致“spoilage”,除非每隔几小时更新锁文件,因此更可行的做法是在构建(装配)时检查新鲜度并把解析到的版本记录在 SBOM 中。有人把这种风险称为“Spoilage Vulnerabilities”,并用 left-pad 式的连锁故障(例:2025 年蛋价危机)来说明版本锁定带来的单点故障风险。讨论还延伸到完整性校验(有人戏称对食材计算 SHA-256)和 semver 是否应记录“把面包稍微烤一下”这种微调,强调把数字化概念直接映射到物理食材时的局限性与荒诞。玩笑式的 RAM 与蛋黄酱混合等段子进一步暴露出实践层面的不适配问题。 [来源 1] [来源 2] [来源 3] [来源 4] [来源 5]
许可与 API 的食品化恶搞(AGPL / API / MCP) 多条评论用开源许可和接口术语做文字游戏来放大荒诞:把 AGPL 恶搞为 'Affero General Pickle License',暗指若通过外卖等网络服务提供三明治就必须公开配方,解释了餐馆为何会避开这类“酱料许可”。还有建议把酱类(如 guacamole、relish)定义为稳定的 API('Avocado and Pickle Interface')以避免歧义,连 MCP(玩笑的 Mutton Context Protocol)与 token 瘦肉梗概也被调侃。有人贴工业化三明治生产的视频与段子,借助具体术语把把软件工程套路硬套到现实食品上的荒谬性凸显出来,既是技术笑话也是对过度形式化的讽刺。 [来源 1] [来源 2] [来源 3] [来源 4] [来源 5] [来源 6]
企业合规与采购实践(SAP / EDI /ISO /CRA) 讨论把梗拉回企业级采购与合规:有人打趣要把 SBOM 正确载入 SAP,然后用 SAP 的采购模块与 EDI 来追溯食材来源以满足 ISO 标准,這模擬了真实世界的可追溯性需求。评论提到 SBOM 不仅限于政府合约,在收购尽职调查时也会遇到,且 EU 的 CRA(Cyber Resilience Act,欧盟网络韧性法案)正在推动相关合规讨论升温。实务层面的建议出现于评论中,例如 second sourcing(备选来源)以降低中断风险,以及通过统一供应源(如同一 dairy repo)在成本与运维上取得优化。 [来源 1] [来源 2] [来源 3] [来源 4] [来源 5] [来源 6]
打包、可重现性与工具链痛点(purl / homebrew /Claude) 有人把包管理与可重现性的实际难题带进来:询问 purl(Package URL)如何表示像 surl:mystery 这种只能通过运行安装脚本才能装的软件,担心文档里只建议“运行脚本”而不建议先审阅。评论补充 Claude Code 有 homebrew cask,homebrew 支持 Linux,因此可以在 purl 中写成 pkg:brew,但这暴露出声明性包标识与脚本式安装之间的张力。另有用户让 Claude 基于 SBOM 生成不加洋葱的火腿沙拉三明治并计划把它发给本地面包店,指出需要为不同的“build environment”做适配,体现从可审计元数据到现实构建环境之间的摩擦与实际改造成本。 [来源 1] [来源 2] [来源 3]
📚 术语解释 SBOM: SBOM(Software Bill of Materials):记录组件、来源与版本的清单,原指软件供应链清单,帖中以 'Sandwich Bill of Materials' 做双关,用来把软件物料清单的概念套到食材上。 lockfile: lockfile:包管理中用于固定依赖具体版本的锁文件。评论批评对易腐食材使用 lockfile 会导致变质或需要频繁更新,不适合物理供应链。 purl (Package URL): purl(Package URL):用于标准化描述软件包来源与类型的标识符(例如 pkg:brew 表示 homebrew 包),讨论里用于探讨如何在可识别元数据与脚本式安装之间表达依赖。 AGPL: AGPL(Affero General Public License):一种开源许可证,要求在通过网络提供服务时也要开源代码;评论把它戏称为 'Affero General Pickle License',用来嘲讽外卖场景下必须公开配方的后果。 semver: semver(semantic versioning):语义化版本号规则,评论里被用来戏谑是否要对诸如“把面包烤一点”之类的微调也打版本号。 SHA-256: SHA-256:常用的加密哈希算法,用于校验文件或组件完整性,评论中被戏谑地提到对食材做哈希以保证完整性。
类别: Security | Programming | Business | Opinion | SBOM | Sandwich Bill of Materials
社交媒体(共 40 条,展示前 15 条)
【1】[D] Mamba exhibits "Active Sensing" while LSTM suffers "Posterior Collapse" under Adversarial Noise
来源: newest submissions : MachineLearning
发布时间: 2026-02-14T00:03:41.252Z
链接: https://www.reddit.com/r/MachineLearning/comments/1r45gga/d_mamba_exhibits_active_sensing_while_lstm/
详情: Hi everyone, I am a 2nd year Computer Science student currently benchmarking State Space Models (Mamba-S6) against LSTMs on adversarial time-series tasks. I observed a significant divergence in how they handle signal degradation and wanted to ask the community if my interpretation holds up. The Experiment: I trained both architectures to classify latent states in a synthetic microstructure dataset (detecting hidden order flow). During inference, I injected Laplace noise ($\sigma=0.1$ to $5.0$) to test robustness. The Anomaly: Mamba: Sensitivity is +129% . As noise increases, the model's error rate scales linearly. I interpret this as "Active Sensing," meaning the model remains causally linked to the input quality. LSTM: Sensitivity is -21% . As noise increases, the model's error remains suspiciously flat. Interpretation: I interpret this flatline as "Posterior Collapse," where the LSTM’s gated memory likely saturated, causing the model to ignore the input sequence entirely and fall back to a learned prior. In contrast, Mamba’s Selection Mechanism seems to act as a variance filter by effectively "shutting" the gate when the input is noisy. Questions: Is "Posterior Collapse" the correct mathematical term for this behaviour in a supervised setting, or is it just mode collapse? Has anyone successfully regularized LSTMs to mimic this "variance filtering" behaviour? Since this is synthetic data, what is the best way to validate this on real financial data without ground-truth labels? Code: jackdoesjava/mamba-ssm-microstructure-dynamics: Investigating the Information Bottleneck in Stochastic Microstructure: A Comparative Study of Selective State Space Models (Mamba) vs. Gated RNNs. Please take these results with a pinch of salt as I am an undergraduate still learning the ropes. Any feedback on the methodology would be huge. Thanks! submitted by /u/PuzzleheadedBeat2070 [link] [comments]
【2】[D] Benchmarking Deep RL Stability Capable of Running on Edge Devices
来源: newest submissions : MachineLearning
发布时间: 2026-02-13T21:22:02.788Z
链接: https://www.reddit.com/r/MachineLearning/comments/1r41k5r/d_benchmarking_deep_rl_stability_capable_of/
详情: This post details my exploration for a "stable stack" for streaming deep RL (ObGD, SparseInit, LayerNorm, and online normalization) using 433,000 observations of real, non-stationary SSH attack traffic. Learnings From Tests: Computational Efficiency: Using JAX's AOT compilation pipeline and cost_analysis() , the tests measure the per-update FLOP counts. An MLP with two hidden layers of 128 nodes each learner requires 271k FLOPs per update, capable of processing 477k observations/second maintaining significant headroom even on high-bandwidth links on low(er) powered edge devices. Normalization on Non-Stationary Streams: The experiments found that EMA (decay=0.99) significantly outperforms Welford’s cumulative algorithm on adversarial traffic with sudden bursts. EMA’s exponential forgetting allows for faster recovery from distribution shifts compared to cumulative statistics. Regardless of EMA or Welford what is evident that external normailzation of input data is pretty much required. Gradient Coherence: Global scalar bounding (ObGD) (Elsayed et al. 2024) was found to be critical for maintaining stability in single-sample streaming updates. Per-unit Adaptive Gradient Clipping (AGC) doesn't work well for the tests I'm doing here. Full Post and Empirical Analysis: Validating Streaming Deep RL on Attack Traffic This is my early learnings on RL prediction as I work through the steps of the Alberta Plan for AI research. Feedback, suggestions for further tests and related literature would be appreciated. submitted by /u/debian_grey_beard [link] [comments]
【3】Not gonna lie it's kinda amazing to see gluon scattering trending on Twitter... my worlds colliding https://x.com/i/trending/2022395629113377198
来源: twitter-Kevin Weil 🇺🇸
发布时间: 2026-02-13T21:00:25.887Z
链接: https://x.com/kevinweil/status/2022415586500964476
详情: Not gonna lie it's kinda amazing to see gluon scattering trending on Twitter... my worlds colliding https://x.com/i/trending/2022395629113377198
【4】👇💥
来源: twitter-Kevin Weil 🇺🇸
发布时间: 2026-02-13T19:46:08.898Z
链接: https://x.com/kevinweil/status/2022396896023810219
详情: 👇💥 Patrick OShaughnessy: I spent last night with Andrew Strominger and Alex Lupsasca, two of the top physicists in the world They just released a paper, co-authored with OpenAi, that seems to me like ASI Andrew, who helped develop string theory, told me that a year ago, his view was that he didn’t know [图片: https://pbs.twimg.com/media/HBD9qrwWkAA1XAs?format=jpg&name=orig ]
【5】By the end of next year there is no way humans will be able to outperform their clankers in theoretical physics Congratulations to the team, looking f...
来源: twitter-Emad
发布时间: 2026-02-13T19:40:01.688Z
链接: https://x.com/EMostaque/status/2022395353891528825
详情: By the end of next year there is no way humans will be able to outperform their clankers in theoretical physics Congratulations to the team, looking forward to more of physics being elucidated(maybe something from us soon on this!) 🚀 ✨ OpenAI: GPT-5.2 derived a new result in theoretical physics. We’re releasing the result in a preprint with researchers from @the_IAS, @VanderbiltU, @Cambridge_Uni, and @Harvard. It shows that a gluon interaction many physicists expected would not occur can arise under specific
【6】Google Chrome 团队刚刚发布了 WebMCP 的早期预览版。简单来说,WebMCP 是一套标准化协议,让网站可以主动告诉 AI Agent "你能在我这里做什么、怎么做",而不是...
来源: twitter-宝玉
发布时间: 2026-02-13T19:27:13.516Z
链接: https://x.com/dotey/status/2022392133827932255
详情: Google Chrome 团队刚刚发布了 WebMCP 的早期预览版。简单来说,WebMCP 是一套标准化协议,让网站可以主动告诉 AI Agent "你能在我这里做什么、怎么做",而不是让 Agent 自己去猜测和操作 DOM。 它提供了两种 API:一种是声明式的,基于 HTML 表单定义标准操作;另一种是命令式的,通过 JavaScript 处理更复杂的动态交互。典型应用场景包括客服工单自动填写、电商购物导航、机票搜索预订等。 WebMCP 是在浏览器层面为 AI Agent 建立了一条与网站直接对话的通道,网站不再是被动等着 Agent 来“点点点”,而是主动暴露结构化的工具接口,让 Agent 操作更快、更准、更可靠。目前处于早期预览阶段,感兴趣的开发者可以申请加入预览计划。 申请地址: https://developer.chrome.com/docs/ai/join-epp Chrome for Developers: WebMCP is available for early preview → https://goo.gle/4rML2O9 WebMCP aims to provide a standard way for exposing structured tools, ensuring AI agents can perform actions on your side with increased speed, reliability, and precision. [图片: https://pbs.twimg.com/media/HBDggPEXgAEzy4q?format=jpg&name=orig ]
【7】 http://x.com/i/article/2022389001198411776
来源: twitter-宝玉
发布时间: 2026-02-13T19:21:07.195Z
链接: https://x.com/dotey/status/2022390596275466609
详情: http://x.com/i/article/2022389001198411776
【8】Codex agentic sandbox for Windows:
来源: twitter-Greg Brockman
发布时间: 2026-02-13T19:15:06.084Z
链接: https://x.com/gdb/status/2022389084598210666
详情: Codex agentic sandbox for Windows: Alexander Embiricos: We just launched the world's first coding agent sandbox for Windows! Now you can safely let the agent work, without needing to approve specific commands. We've been testing it experimentally for some time. Now it's live in the CLI. Next up, IDE extension and Windows Codex app!
【9】Something Big Is Happening - really?
来源: newest submissions : artificial
发布时间: 2026-02-13T19:04:20.121Z
链接: https://www.reddit.com/r/artificial/comments/1r3xyo8/something_big_is_happening_really/
详情: [图片: Something Big Is Happening - really? https://external-preview.redd.it/Aj54Mupxk_vrwCVcpuraTqDndmwWcOiH9aEloiDea6g.jpeg?width=640&crop=smart&auto=webp&s=6edcca00d5f232d06b86323ed1e7660fb4ef1260 ] The viral article by Matt Shumer sounds like hype disguised as advice. Do you agree? submitted by /u/BubblyOption7980 [link] [comments]
【10】Very hard to find AI benchmarks that don't look like this (and seems unlikely that a lot of these benchmarks are important enough to actually train on...
来源: twitter-Ethan Mollick
发布时间: 2026-02-13T19:03:31.276Z
链接: https://x.com/emollick/status/2022386169242325462
详情: Very hard to find AI benchmarks that don't look like this (and seems unlikely that a lot of these benchmarks are important enough to actually train on) [图片: https://pbs.twimg.com/media/HBD1XbpXAAE1Nj3?format=jpg&name=orig ] [图片: https://pbs.twimg.com/media/HBD1YO-XwAAIroQ?format=jpg&name=orig ] [图片: https://pbs.twimg.com/media/HBD1ZE8akAET3wh?format=jpg&name=orig ] [图片: https://pbs.twimg.com/media/HBD1aDwXUAA_kIw?format=jpg&name=orig ]
【11】AI doesn't know what a syllable is
来源: newest submissions : artificial
发布时间: 2026-02-13T18:51:55.080Z
链接: https://www.reddit.com/r/artificial/comments/1r3xmmq/ai_doesnt_know_what_a_syllable_is/
详情: if you go to AI for how to spell a word, and you spell it wrong. but use the a letter that sounds the same (syllables) AI wont correct the word. it doesn't know "I and E" for example can make the same sound. example rediculas. you can sound it out, and figure out what word I'm trying to spell, you could probably tell me how to spell the word, we learned that in kindergarten. this blew my mind I've always been bad at spelling and relied on spell check, but I have to adapt. its probably going to become a lost technology. when you think about it sounds obvious, why are humans using ai to spell check? its so much worse... submitted by /u/Gameasor [link] [comments]
【12】Gemini 出了一个 Skill 帮你开发 Gemini API 说实话,实用性不高,因为如果你不需要高频使用,就没必要安装,就算你要用,资料也够多,或者复制下它的文档就可以...
来源: twitter-宝玉
发布时间: 2026-02-13T18:41:53.083Z
链接: https://x.com/dotey/status/2022380725928919420
详情: Gemini 出了一个 Skill 帮你开发 Gemini API 说实话,实用性不高,因为如果你不需要高频使用,就没必要安装,就算你要用,资料也够多,或者复制下它的文档就可以了 Logan Kilpatrick: We made a skill for the Gemini API! https://github.com/google-gemini/gemini-skills
【13】[R] Higher effort settings reduce deep research accuracy for GPT-5 and Gemini Flash 3
来源: newest submissions : MachineLearning
发布时间: 2026-02-13T18:00:15.523Z
链接: https://www.reddit.com/r/MachineLearning/comments/1r3w853/r_higher_effort_settings_reduce_deep_research/
详情: We evaluated 22 model configurations across different effort/thinking levels on Deep Research Bench (169 web research tasks, human-verified answers). For two of the most capable models, higher effort settings scored worse. GPT-5 at low effort scored 0.496 on DRB. At high effort, it dropped to 0.481, and cost 55% more per query ($0.25 → $0.39). Gemini 3 Flash showed a 5-point drop going from 0.504 at low effort, to 0.479 at high effort. Most models cluster well under a dollar per task, making deep research surprisingly affordable. Methodology, pareto analysis of accuracy vs cost are at https://everyrow.io/docs/notebooks/deep-research-bench-pareto-analysis submitted by /u/ddp26 [link] [comments]
【14】终于让 Code Code 开发好了。 1. 读到好文章,一句话重写配图发布到网站。 2. 支持中英双语 3. 框架用 Hugo + Papermod 主题 4. 支持 X 分享显示封面等 体验地址:h...
来源: twitter-向阳乔木
发布时间: 2026-02-13T17:55:03.291Z
链接: https://x.com/vista8/status/2022368938169110946
详情: 终于让 Code Code 开发好了。 1. 读到好文章,一句话重写配图发布到网站。 2. 支持中英双语 3. 框架用 Hugo + Papermod 主题 4. 支持 X 分享显示封面等 体验地址: https://ainews.qiaomu.ai/ [图片: https://pbs.twimg.com/media/HBDlXcYaMAAuGo4?format=jpg&name=orig ] 向阳乔木: 只要敢提要求,Claude Code 就敢出方案干。 且比我设想的方案还要好很多。 自己 SSH 到服务器,查询已经有的网站配置。 建议不用 Hexo,转用 Hugo+PaperMod,说内置 SEO 功能,Cli 支持的也更好。 另外,还说干这件事符合我的 TELOS 准则。 [图片: https://pbs.img.com/media/HA9tLO-bYAANyfl?format=jpg&name=orig ]
【15】可以在 PieceOne 里联机玩三国志你敢信吗? https://piece.one?pos=-745,2412
来源: twitter-大帅老猿
发布时间: 2026-02-13T17:52:04.298Z
链接: https://x.com/ezshine/status/2022368189452329260
详情: 可以在 PieceOne 里联机玩三国志你敢信吗? https://piece.one?pos=-745,2412 [图片: https://pbs.twimg.com/media/HBDlEPkbQAAtG2n?format=png&name=orig ]
开源项目(共 10 条,展示前 10 条)
【1】aios-core
来源: GitHub Trending
发布时间: 2026-02-14
链接: https://github.com/SynkraAI/aios-core
详情: Synkra AIOS:AI 编排的全栈开发系统 - 核心框架 v4.0
【2】chrome-devtools-mcp
来源: GitHub Trending
发布时间: 2026-02-14
链接: https://github.com/ChromeDevTools/chrome-devtools-mcp
详情: 用于编码智能体的 Chrome 开发者工具
【3】Personal_AI_Infrastructure
来源: GitHub Trending
发布时间: 2026-02-14
链接: https://github.com/danielmiessler/Personal_AI_Infrastructure
详情: 旨在增强人类能力的智能体 AI 基础设施
【4】ai-engineering-hub
来源: GitHub Trending
发布时间: 2026-02-14
链接: https://github.com/patchy631/ai-engineering-hub
详情: LLMs、RAGs 和真实世界 AI 智能体应用的深入教程
【5】MTProxy
来源: GitHub Trending
发布时间: 2026-02-14
链接: https://github.com/TelegramMessenger/MTProxy
详情:
【6】superhuman
来源: GitHub Trending
发布时间: 2026-02-14
链接: https://github.com/google-deepmind/superhuman
详情:
【7】free-llm-api-resources
来源: GitHub Trending
发布时间: 2026-02-14
链接: https://github.com/cheahjs/free-llm-api-resources
详情: 可通过 API 访问的免费 LLM 推理资源列表
【8】Hands-On-Large-Language-Models
来源: GitHub Trending
发布时间: 2026-02-14
链接: https://github.com/HandsOnLLM/Hands-On-Large-Language-Models
详情: O'Reilly 图书《大型语言模型实战》的官方代码仓库
【9】slime
来源: GitHub Trending
发布时间: 2026-02-14
链接: https://github.com/THUDM/slime
详情: slime 是一个用于 RL 规模化的 LLM 后训练框架
【10】DebugSwift
来源: GitHub Trending
发布时间: 2026-02-14
链接: https://github.com/DebugSwift/DebugSwift
详情: 一个简化 iOS 应用程序调试的工具包 🚀