2026年1月

最近从 iPhone 换了安卓手机

原来 iPhone 基础版电池太小了,每次出去只回个微信,不到一天就没电

趁着国补入手了一个 安卓小屏手机,但还是没电量安全感😂


想找一款 超薄便携的移动电源,主要用于 应急补电,不需要很大电量,3000 mAh 左右就够了

越薄越好,重量轻,放口袋不明显那种。

在认知负荷极度饱和的数字化协作中,企业的效率瓶颈已从“数据获取”转向“关键信息的快速扫描与全局掌控”。平铺式信息展开工具不仅是静态的展示看板,更是通过横向铺展的视觉逻辑,将隐没在深层目录中的碎片化数据转化为可视化、可并行处理的平铺式智力资产的解析引擎。

一、 为什么现代决策必须重视“平铺式”展开?

传统层级化管理工具往往导致“信息遮蔽”:关键细节被掩盖在多级文件夹下,导致决策者难以在同一视域内完成信息的横向对比。平铺式信息展开工具的核心价值在于:

  • 消除视觉阻隔:通过将多源信息平铺于单一交互平面,确保每一个数据节点都能被即时观测,而非隐藏在点击之后。
  • 支撑高频扫描穿透:支持在展开过程中实现视角的平滑移动,从全局概览快速锁定至特定平面的执行细节。
  • 实现全景认知对齐:通过水平延展的逻辑结构,各模块的关联信息自动形成并列视图,确保团队对系统状态拥有无死角的同步感知。
  • 线性流向模块化展示:将复杂的业务长链条平铺为连续的视觉模块,实现跨阶段、跨单元的直观逻辑复核。

二、 平铺式展开的技术路径:全景视觉架构

构建平铺式信息展开体系需要遵循“空间释放”与“并列关联”的逻辑:

  1. 全景展示层(Panoramic Display):定义信息展开的水平边界,展示所有核心模块的并列排布关系。
  2. 平铺逻辑层(Flat Logic):将纵向深度转化为横向广度,记录各平铺单元间的流转路径与协作触点。
  3. 原子信息层(Atomic Info):位于平铺平面的最表层,聚焦于高价值数据的直接呈现,具备明确的视觉优先级标注。

三、 核心技术实现与算法示例

平铺式信息展开工具的底层逻辑涉及响应式布局计算、视口范围内渲染优化及平滑平移控制。

1. 基于视口检测的平铺单元延迟加载(JavaScript)

在海量信息平铺时,为保障性能,仅对视口内的单元进行渲染。以下为实现平铺节点动态加载的逻辑:

JavaScript

/**
* 检测平铺单元是否进入水平视口并触发加载
* @param {Element} unitNode 平铺单元节点
* @param {number} buffer 预加载缓冲区像素
*/
function handleFlatDisplay(unitNode, buffer \= 200) {

const rect \= unitNode.getBoundingClientRect();  
const isVisible \= rect.left \< (window.innerWidth \+ buffer) && rect.right \> \-buffer;

if (isVisible && \!unitNode.dataset.loaded) {  
    // 触发原子信息的平铺展开  
    loadAtomicData(unitNode);  
    unitNode.dataset.loaded \= "true";  
    console.log(\`\[Display Action\] 平铺单元 ${unitNode.id} 已进入视口并展开\`);  
}  

}

2. Python:信息铺展密度的动态优化引擎

利用平铺模型,自动检测视觉空间内的信息堆叠度,防止由于平铺过密导致的认知过载:

Python

class FlatDensityEngine:

def \_\_init\_\_(self):  
    \# 预设平铺标准:视域类型 \-\> 推荐展开间距与信息密度  
    self.density\_benchmarks \= {  
        "Executive\_Dashboard": {"min\_margin": 20, "max\_elements": 12},  
        "Task\_Flow": {"min\_margin": 10, "max\_elements": 25}  
    }

def verify\_flat\_efficiency(self, current\_layout, view\_type):  
    """对比实际铺展密度与标准,识别视觉疲劳风险"""  
    std \= self.density\_benchmarks.get(view\_type)  
    if not std:  
        return "未定义的平铺标准"

    element\_count \= len(current\_layout\['elements'\])  
    if element\_count \> std\['max\_elements'\]:  
        print(f"\[Visual Alert\] 信息铺展密度过高({element\_count}个节点),建议启用横向分页")  
        self.\_trigger\_layout\_optimization(current\_layout)

def \_trigger\_layout\_optimization(self, layout):  
    print(f" \-\> 已启动针对该平铺平面的空间重组建议")

3. SQL:跨平面信息关联度与扫描效率分析

通过数据查询,识别平铺平面中关联最紧密、扫描频率最高的“视觉热区”资产:

SQL

SELECT

view\_id,   
node\_name,   
horizontal\_position,   
AVG(scan\_duration) as scan\_efficiency  

FROM flat\_assets\_logs
WHERE layout\_type \= 'Tiled'
GROUP BY node\_name, view\_id
HAVING scan\_efficiency \< 2.5 -- 识别出用户能快速捕捉信息的平铺布局
ORDER BY scan\_efficiency ASC;


四、 工具分类与选型思路

实施平铺式信息展开时,工具的选择应基于对“横向延展力”的需求:

  • 全景白板类(如 FigJam/Miro):核心优势在于无限水平空间的自由铺展,支持将碎片信息通过物理平铺转化为直观的逻辑长卷。
  • 多列看板类(如 Trello/板栗看板):通过并列的列表实现信息的水平平铺,适合处理具有明确状态流转的并列事项。
  • 无限网格类(如 Airtable/Notion Gallery):利用网格视图实现元数据的平铺展示,适合对大量结构化对象进行视觉索引。

五、 实施中的风险控制与管理优化

  • 防止“空间迷失导致的扫描盲区”:应在工具中通过微缩全局地图(Minimap)或水平进度指示器,确保成员在横向漫游时仍具备全局观。
  • 动态收纳冗余平面:平铺不代表无限堆砌,应针对低频信息设置“折叠/展开”机制,保持核心平面的信息信噪比。
  • 定期进行视觉“清障”:随着任务推进,应移出已失效的平铺单元,确保视觉重心始终落在高优先级的执行流上。

六、 结语

平铺式展开是穿透复杂信息层级的有力手段。 它不仅解决了“关键信息被掩埋”的问题,更通过开阔的水平视觉架构,将企业的每一次数据沉淀转化为可以一览无余、极速扫描的执行场景。当组织的信息能够以平铺形式实现全景对齐时,团队才能在复杂的决策环境中实现“快速洞察”与“精准响应”的统一。

在人工智能技术持续演进的背景下,2026 年正在成为一个被频繁提及的时间节点。一个逐渐形成的行业共识是:基础模型的能力差距正在收敛,而应用层的使用方式开始决定真实的生产力差异

当通用模型的推理、生成与理解能力趋于标准化,竞争焦点正在从“模型本身有多强”,转向“如何被系统性地使用”。


一、使用认知的变化:从对话工具到系统组件

在早期应用阶段,AI 更多以“对话助手”的形式出现,使用方式高度依赖提示词技巧与单轮交互效果。但在实际工程与业务场景中,这种模式很快暴露出稳定性与扩展性的瓶颈。

当前更成熟的实践,正在将模型视为系统中的一个逻辑单元,而非完整解决方案。

这体现在两个方向上:

  • 输入与输出的结构化
    使用者开始为模型设计明确的输入规范、输出格式与约束条件,使其行为可预期、可校验,而非依赖语言修辞触发“灵感式回答”。
  • 任务的模块化拆解
    复杂问题被拆分为多个子任务,并在不同上下文中并行处理,形成协作式的执行路径。在这一过程中,智能体来了,更多被视为一种工程组织方式,而非单一产品形态。

二、核心能力的转移:构建可持续的认知回路

随着通用知识的获取成本不断下降,真正具有区分度的能力,开始集中在如何将模型与特定业务长期绑定

  1. 检索增强生成的精细化使用
    行业内逐渐认识到,RAG 的价值并不止于“接一个向量库”。更关键的是通过多级检索、语义过滤与权限控制,确保模型在不同任务中调用到“恰好足够且足够准确”的私有信息。
  2. 状态保持与长期记忆机制
    为弥补模型天然的短期记忆特性,外挂式记忆层被用于记录任务状态、业务进展与偏好变化,使 AI 能够跨时间段持续参与同一工作流。
  3. 工具调用的执行闭环
    当模型能够通过函数调用与外部系统交互,其角色便从“建议者”转向“执行参与者”。这类实践正在推动 AI 走出对话界面,进入真实业务链路。

三、评估标准的变化:从表现到确定性

在专业场景中,评价 AI 使用效果的标准也在发生位移。

  • 执行确定性优先于表达多样性
    在金融、法律、医疗等领域,稳定、一致、可复现的输出,比富有创意的回答更具价值。
  • 低人工干预率成为关键指标
    系统在多大程度上能够自行规划、校验与修正,正在取代“交互次数”成为衡量成熟度的重要参考。

四、结语:使用方式正在成为新的护城河

综合来看,当模型能力逐渐同质化,使用范式本身正在演化为一种基础设施能力

对比正在形成的两种路径:

  • 以对话为中心、以提示技巧为核心的使用方式
  • 以结构化编排、长期记忆与工具闭环为核心的系统化使用方式

后者正在更多实际业务中展现出可持续的效率优势。

2026 年所呈现的现实是:技术突破提供可能性,而真正释放生产力的,是那些能够将 AI 推理能力嵌入业务逻辑与流程设计中的实践者。
在这样的背景下,AI 更像是工作流中的协同决策单元,而不再只是回答问题的工具。

近期朋友让我在热榜站里加一加招标的信息,我没接触过这些,完全不懂,和他聊的也云里雾里的

想咨询下大家,招标信息这个东西,有没有哪里能获取到所有的招标信息,或者哪些地方的加起来就是全部招标信息

完全不懂这块

每年,攻击者的登录技巧都在不断升级,能够更隐蔽地绕过本应阻止他们的防护环境。无论是窃取密码、重放令牌、劫持会话,还是OAuth授权诈骗,他们的攻击手段持续迭代,足以突破曾经被认为安全的身份验证方式。

这正是MFA令牌发挥作用的地方。MFA令牌能提供单纯密码无法实现的功能:真实的持有证明。然而,并非所有令牌的工作原理都相同,也并非每一种配置都能抵御现代攻击。

MFA令牌的实际工作原理

MFA令牌是第二种身份校验手段。密码验证你“所知”的信息,而令牌验证你“所持”的物品。

有时,这种令牌是一个可插入的小型密钥;有时,它是手机上生成六位验证码的应用程序。两种方式功能相同,只是实现形式不同。

以下是简单的流程拆解:

服务器与用户共享一个密钥(敏感凭证),该密钥安全存储在设备或令牌中。
令牌生成一个短期有效的验证码——通常有效期为30秒或60秒。
用户在系统提示时输入该验证码。
服务器将用户输入的验证码与自身计算得出的结果进行比对。
若两者匹配,登录流程继续。
即使黑客窃取了密码,也无法继续登录,因为他们没有生成登录授权验证码所需的令牌。现代MFA解决方案已将这种令牌流程直接整合到登录过程中,无论你使用的是生物识别、密码密钥还是传统的基于时间的一次性密码(TOTP)。
image.png

软令牌 vs 硬令牌

软令牌
软令牌应用程序依赖存储在用户设备中的共享密钥工作,会生成每30秒或60秒刷新一次的短期有效验证码。用户输入验证码后,服务器进行验证,验证通过即可完成登录。

这种方式操作简单,但安全增益显著。即使密码泄露,攻击者没有令牌也无法推进攻击。而且由于无需通过短信传输信息,SIM卡劫持或一次性密码(OTP)拦截的风险大幅降低。

软令牌示例:Google Authenticator(谷歌验证器)、ADSelfService Plus移动应用、Microsoft Authenticator(微软验证器)。

软令牌适用于远程员工、普通员工群体以及采用自带设备(BYOD)政策的企业。

硬令牌
某些环境需要更强有力的用户身份担保,这正是硬件令牌的优势所在。它们具备抗钓鱼能力,可完全离线工作,且作为独立物品由用户随身携带。

硬令牌示例:YubiKey(硬件安全密钥)、OTP密钥卡、智能卡。

硬令牌适用于生产车间、医院、关键岗位、高安全级别环境,或任何禁止使用手机的场所。

大多数组织依赖支持硬令牌和软令牌两种方式的企业身份验证工具,并根据岗位的风险等级灵活选用。这种方式可很好地覆盖一线员工、高管、承包商、远程用户等各类人群。

MFA令牌 vs OAuth令牌

MFA令牌是身份验证因素,包括基于时间的一次性密码(TOTP)、硬件密钥、推送审批和软令牌应用程序等,用于在登录过程中验证用户身份。

OAuth令牌是授权令牌,包括访问令牌、刷新令牌和身份令牌等,在身份验证通过后颁发,用于确定用户可访问的资源范围。

人们之所以容易混淆这两种令牌,是因为现代身份系统将这两个流程串联在一起。当MFA确认用户身份合法后,系统会颁发OAuth令牌,用于会话访问应用程序和API。

令牌窃取:威胁背后的深层威胁

攻击者不仅窃取密码,还会窃取令牌和会话。推送疲劳攻击、OAuth令牌滥用、Cookie窃取和重放攻击等,都能绕过传统的MFA配置。

这也是ADSelfService Plus等现代系统转向抗钓鱼、无密码MFA的原因。

构建合理的MFA令牌策略

如今已不存在单一的“最佳”MFA方式。不同的用户、设备和风险等级需要不同的解决方案。最安全的配置是融合多种令牌类型,在保障身份验证安全的同时,不影响用户的登录效率。

现代MFA令牌策略通常包括以下内容:

用于无密码登录的密码密钥(Passkeys)
彻底消除了最薄弱的环节——密码。无需担心密码被窃取、重复使用或钓鱼攻击,只需依靠安全的设备绑定身份验证即可完成登录。

作为日常备份的基于时间的一次性密码(TOTP)
验证器应用程序生成的基于时间的验证码即使在离线状态下也能使用,可可靠覆盖大多数员工的使用场景。

用于高可信度岗位的硬件令牌
安全密钥和OTP设备增加了物理防护层,几乎无法被篡改。非常适合管理员、高管以及受监管环境中的岗位使用。

仅作为应急选项的短信或语音验证
这类方式并非最安全,但能帮助没有智能手机的用户,或在其他所有验证方式失效时为用户提供登录途径。

适应实际风险的自适应MFA
现代MFA需要具备自适应能力。如果用户从可信设备、已知网络登录,系统会提供流畅的登录体验;如果系统检测到新设备、高风险位置、不可能的异地登录(短时间内跨远距离登录)或多次登录失败等异常情况,会自动强制启用更严格的验证因素。这一机制填补了静态MFA与实际威胁行为之间的差距。

用于敏感账户的抗钓鱼MFA
密码密钥、FIDO2密钥和基于WebAuthn的验证方式,可有效抵御重放攻击、MFA轰炸(频繁发送验证推送)和虚假登录页面攻击。所有特权账户或高影响岗位都应默认使用这类验证方式。

持续审计与风险评分
强大的MFA不仅在于强制启用验证因素,还在于持续监控登录模式、标记异常设备、检测令牌滥用和权限蔓延等风险点。

ADSelfService Plus如何强化你的MFA令牌策略

ADSelfService Plus不仅提供多样化的验证器选项,还围绕这些选项构建了完整的身份防护层——通过自适应MFA应对风险,适配不同团队的工作模式,确保访问权限实时更新。

无密码身份验证是这一策略的核心。用户无需密码,只需通过生物识别、FIDO2密码密钥、推送审批或TOTP即可登录,这意味着攻击者无法再依靠窃取或重复使用的凭证实施攻击。

基于条件的MFA增添了另一层智能防护。系统会根据多种访问条件对每次登录进行检查。若发现异常情况,会自动提升身份验证级别;若一切正常,用户可无缝完成登录,无需额外操作。

FIDO2密码密钥、微软验证器和硬件密钥等抗钓鱼验证因素,能保护高风险岗位免受令牌重放、虚假登录页面和中间人攻击的威胁。这些验证器还支持离线工作,对于一线团队、远程站点以及网络连接不稳定的用户而言至关重要。

针对日常使用场景,ADSelfService Plus通过软令牌提供灵活的验证方式。用户可通过ADSelfService Plus移动应用或第三方验证器生成TOTP,无论在线还是离线状态都能可靠使用,为用户提供简单、可预期的身份验证体验。

ADSelfService Plus的可视化功能,MFA报表会详细展示哪些用户注册了哪些验证器、登录失败发生在哪些场景、哪些账户出现异常模式。这种清晰的可视化能力让管理员能在薄弱环节演变为安全事件之前及时发现并处理。

图片

完善的MFA令牌策略通过密码密钥、TOTP、硬令牌和基于风险的检查,为用户身份提供可靠证明。当这些防护层协同工作,并能在发现异常时自适应调整,就能构建一个既能隐蔽拦截身份伪造攻击,又能保障合法用户流畅登录的系统。即使密码泄露或会话被劫持,强大的MFA令牌也能确保访问权限始终掌握在合法用户手中。借助ADSelfService Plus,构建更强大、以令牌为核心的MFA策略吧。

推广挺烦人,所以的找点乐趣,20 枚马年纪念币,今天很难抢到,溢价 70%了~~

抽奖时间: 一周后


奖品由老倔驴开户赞助,老倔驴开户选择多还靠谱,聚合几十家券商优惠,连接上百家营业部,已帮助 2000 人+,无一差评。

开户点这里: https://jue.lv/kh/V2/202601c (15+券商可选,开户有礼!)

友情提示:不因奖品而涉足股市,得不偿失!

最近让我们办护照,感觉挺急的,然后要我们出差,目前只说短期,具体的工作事宜,和时间没说,
我们都想拒绝这个出差

假如因此为理由裁掉,是否违法

因为根据目前掌握的相关法律来说

如果没法证明安排不合理,你又没有足够正当的理由去拒绝的话,性质会变成员工违反劳动义务了。

就不存在违法解除了

op 目前的方案:1 ,刷 v 站,2 ,mac 投屏 iphone 玩手机,3 ,把一些书转为 txt 文本,然后用 ai 写了个 vscode 插件,在编辑器底部状态栏偷偷看书 。
有没有佬还有其他方案,让我借鉴借鉴。😄

一、 为什么需要平铺式信息展开工具?

在海量数据并行、多维度信息交织的数字化协作中,信息的存储往往呈现深层目录化,导致关键逻辑被遮蔽。若缺乏有效的横向铺展与视觉对齐,常常会导致以下问题:

  • 信息层级过深:关键细节被掩盖在多级文件夹下,导致决策者难以快速获取核心数据;
  • 视觉盲区存在:无法在同一视域内完成信息的横向对比,导致关联性遗漏;
  • 认知负载过重:在不同页面间频繁切换,产生巨大的上下文重构成本;
  • 整体视图缺失:缺乏全景式的“上帝视角”,难以预判长链条流程中的潜在瓶颈。

此时,引入一款全景展示、逻辑并列、视觉可穿透的平铺式信息展开工具,可以显著提高团队的信息处理效率与全局掌控能力。

---

二、 平铺式信息展开的典型推进路径

  1. 信息碎片提取:将深藏于文档或数据库中的关键节点提取为独立的视觉单元;
  2. 水平布局排布:根据业务流向或时间轴,将单元在无限空间内横向平铺;
  3. 视觉关联建立:通过连线或空间近接性,明确平铺单元间的逻辑脉络;
  4. 实时全景扫描:动态监控各模块的状态变化,实现“一览无余”式的复核;
  5. 细节深度下钻:在不脱离全景画布的前提下,针对特定单元进行原地展开;
  6. 结构化资产沉淀:将平铺后的全景图谱转化为可复用的逻辑模版。

---

三、 5款值得一试的平铺式信息展开工具(精选推荐)

1. Miro / FigJam

无限平铺画布 + 自由视觉关联

  • 核心特性:提供极致的横向延展空间,支持将文档、图片、任务卡片无限制平铺。
  • 适配场景:头脑风暴、复杂系统架构设计、跨职能逻辑梳理。
  • 优势亮点:支持“语义缩放”,在大图景与小细节间平滑切换,是目前最顶尖的全景展开工具。

2. 板栗看板

水平多列布局 + 结构化信息平铺

  • 核心特性:通过并列的看板列实现任务与状态的水平展开,支持多维字段的直接显性化。
  • 适配场景:多阶段交付管理、线性流程追踪、任务全景扫描。
  • 优势亮点:在平铺的基础上兼顾了任务执行的严密性,适合需要“看清进度”的研发与运营团队。

3. Airtable (Gallery/Grid View)

多维数据平铺 + 参数化视觉索引

  • 核心特性:利用画廊视图将数据库记录平铺为视觉卡片,或利用栅格视图进行横向对比。
  • 适配场景:大量标准化素材管理、产品SKU对比、结构化数据映射。
  • 优势亮点:底层是强大的数据库,能实现“平铺”与“深度数据管理”的完美统一。

4. Trello

经典水平流转看板 + 视觉优先级标注

  • 核心特性:以水平列表为核心,通过卡片平铺展示任务全貌,支持标签化的视觉引导。
  • 适配场景:轻量级敏捷开发、创意内容流水线。
  • 优势亮点:操作极简,通过简单的水平移动即可实现信息状态的更新与对齐。

5. Notion (Board / Gallery View)

文档容器平铺 + 页面级信息展开

  • 核心特性:将复杂的文档页面以看板或画廊形式平铺,支持在画布内直接打开详情。
  • 适配场景:知识库索引、项目门户构建、内容排期管理。
  • 优势亮点:适合文字密度较高的信息铺展,实现“文档”与“平铺视图”的无缝融合。

---

四、 平铺式信息展开机制设计建议

  • 采用**“横向全景-视觉簇-原子节点”**的三级空间结构组织信息;
  • 每个平铺单元应具备高辨识度的视觉锚点(如特定图标或色块);
  • 利用**“空间近接原则”**,将关联紧密的单元横向靠拢,减少视觉扫描路径;
  • 引入**“导航图/缩略图”**机制,在大规模平铺空间内防止方向迷失;
  • 定期进行**“视觉清障”**,移出已失效的平铺单元,保持核心平面的信噪比。

---

五、 Q\&A:关于平铺式信息展开你可能遇到的问题

Q1:信息平铺得太多,导致屏幕装不下怎么办? A:建议利用工具的“折叠/收纳”功能处理低频信息,或使用“语义缩放”技术,在高倍率下仅显示核心标题。

Q2:如何防止平铺后的信息变得散乱? A:设定明确的排布基准线(如按时间、按职能或按逻辑流向),并利用辅助线或网格进行对齐约束。

Q3:平铺视图下如何处理信息的先后依赖关系? A:配合使用连线工具(Connector)或磁吸逻辑,确保平铺单元在视觉上形成清晰的逻辑链条。

Q4:多人同时在平铺画布上操作会冲突吗? A:推荐使用支持多人实时协作且具备光标追踪功能的工具(如 Miro、板栗看板),以确保团队感知的实时对齐。

---

六、 结语

平铺式展开是穿透复杂信息层级的有力手段。 它不仅解决了“关键信息被掩埋”的问题,更通过开阔的水平视觉架构,将企业的每一次数据沉淀转化为可以一览无余、极速扫描的执行场景。

板栗看板、Miro、Trello 等工具提供了不同维度的水平平铺能力,让复杂关系变得直观,让决策依据变得触手可及。建议根据信息的结构化程度、协作频次以及视觉延展需求选择适合的展开方式。

在开阔的视域中捕捉关联,是提升决策效率的捷径。

近日,openKylin Wine助手迎来V5.0版本更新。本次升级不仅聚焦于简化安装流程,更围绕容器管理、软件卸载、系统兼容性与稳定性进行多维增强,并新增对磐石系统的兼容支持,致力于为用户在开源生态中提供更顺畅、高效的Wine应用程序使用体验。
其中,核心亮点之一是引入“一键安装”功能,让用户无需复杂操作,就能快速完成安装,极大提升了使用便捷性,为用户带来更流畅的体验,下面将为大家着重介绍。
一、环境准备

  • 操作系统:openKylin 2.0 X86及以上版本
  • 硬件平台:x86
  • 下载地址:https://www.openkylin.top/downloads
  • 网络环境:本软件需要在联网环境下进行,以支持下载操作及其他必要的在线功能
    二、安装
  • 软件商店安装
    在软件商店中搜索“openKylin Wine助手”,点击安装按钮即可开始安装流程。
  • 压缩包安装
    基于网站(https://gitee.com/openkylin/compat-winapp/releases)获取最新发行版本后。得到压缩包wine-assistant-xxx.tar.gz。解压安装包后,双击安装wine-assistant安装包。
    三、设置默认容器
    在openKylin Wine助手的容器管理界面,容器名称前标注星号的是当前默认容器,一键安装的应用会装入此容器。若未预设默认容器,一键安装时系统将自动生成一个名为“default”的容器。若要切换默认容器,只需右键单击目标容器名称选择即可。
    图片

图片
四、一键安装
无需启动openKylin Wine助手,直接双击安装包(exe/msi格式)即可开始一键安装流程,页面依次显示“初始化环境中”、“检查默认容器”、“创建默认容器”、“创建容器成功”及“运行执行程序”,最终将应用安装至该容器,若已设置默认容器,则跳过创建步骤。以植物大战僵尸为例,从官网下载安装包,双击启动一键安装(安装openKylin Wine助手后若又装了同类软件,运行时需右键选“打开方式”中的 wine助手,若觉每次选择繁琐,可将wine助手设为默认启动方式)。安装过程中,用户可根据个人需求,灵活调整安装信息。
图片
初始化环境
图片
检查默认容器
图片
创建默认容器
图片
运行执行程序
图片
进入安装界面
图片
安装完成
图片
此时打开openKylin Wine助手,可以在软件管理列表看到
图片
点击“启动”按钮,即可启动该应用如果启动软件时遇到字体缺失等问题,可以在“容器管理-default容器-Wine配置-其他组件”选择安装相应的字体。此外,openKylin Wine助手还涵盖了其他适配软件所必需的组件,具体信息请参考用户手册。感兴趣的小伙伴赶快试一试吧~

开发者朋友们大家好:

这里是 「RTE 开发者日报」,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real-Time Engagement) 领域内「有话题的技术」、「有亮点的产品」、「有思考的文章」、「有态度的观点」、「有看点的活动」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。

本期编辑:@瓒an、@鲍勃

01 有话题的技术

1、百度发布「文心 5.0」正式版:2.4 万亿参数 MoE 架构,实现原生全模态统一建模

在文心 Moment 大会上,百度正式上线「文心 5.0」大模型,采用 2.4 万亿参数的超大规模 MoE 架构。该模型放弃了业界主流的多模态后期融合方案,通过原生全模态统一建模技术,实现了跨模态特征的深度融合,在 LMArena 文本与视觉榜单中位列中国模型首位。

  • 2.4 万亿参数 MoE 架构:采用超大规模混合专家模型结构,总参数量达 2.4T,激活参数比例低于 3%,在提升模型容量的同时显著降低了单次推理的计算成本。
  • 原生全模态统一建模:基于统一的自回归架构,将文本、图像、音频、视频数据在同一框架内进行联合训练。相比传统的模块化拼接方案,该架构有效避免了跨模态信息损耗与灾难性遗忘。
  • 智能体与工具调用增强:利用合成长程任务轨迹数据,结合思维链(CoT)与行动链(AoT)进行端到端多轮强化学习训练,提升了复杂逻辑推理、规划反思及 API 调用精度。
  • LMArena 榜单表现:在最近三个月内五次登榜 LMArena,其文本与视觉理解能力稳居国际第一梯队,是目前唯一进入全球顶尖阵列的国产大模型。

模型已正式上线。个人用户可通过文心一言官网或 APP 体验;企业级用户与开发者可通过百度千帆平台调用 API。

(@智东西)

2、开源智能体「Clawdbot」走红:支持本地 7x24h 运行,具备系统 Shell 权限与长时记忆

开发者 Peter Steinberger 开源的「Clawdbot」通过本地网关架构,将 Claude、GPT 等 LLM 转化为具备 OS 级权限的 7x24h 智能体。它支持通过 WhatsApp、iMessage 等即时通讯工具远程驱动本地环境,实现了从「对话框 AI」到「自主执行器」的转变。

  • 架构与多模态接口:采用本地网关作为控制中心,支持通过 WhatsApp、Telegram、iMessage 等 IM 接口远程下发指令;后端兼容 Anthropic、OpenAI API 或通过 Ollama 等部署的本地模型。
  • 系统级执行权限:具备完整的 Shell 与文件系统访问权,能自主编写代码、安装依赖、运行 Cron 定时任务,并支持通过 MCP 服务器扩展外部集成能力。
  • 本地化持久记忆:交互背景、用户偏好与操作日志以 Markdown 格式存储于本地硬盘。模型可实时检索历史记录实现跨周期的任务追踪,解决了原生 LLM 易遗忘上下文的痛点。
  • 能力自扩展:用户可通过自然语言指令要求智能体开发新功能模块并自动安装部署,实现复杂工作流(如内容抓取、自动化邮件管理、API 调度)的闭环执行。
  • 安全风险与漏洞:由于智能体拥有高阶 Shell 访问权限,存在严重的「提示注入」风险。已有案例显示恶意指令可能导致敏感文件(如 SSH 密钥)泄露或资产损失。

项目已在 GitHub 开源(stars 突破 26k),支持 Mac、Windows、Linux 或 VPS 部署。

官网链接:
https://clawd.bot

demo 链接:
https://clawd.bot/showcase

GitHub:
https://github.com/clawdbot/clawdbot

(@新智元)

02 有亮点的产品

1、苹果将于 2 月份发布基于 Gemini 架构的 Siri 语音助手

据彭博社报道,由 Google Gemini 技术深度驱动的新一代 Siri 最快下个月开始在 iOS 26.4 测试版上亮相,同时重构多项核心应用的 AI 体验。

彭博社记者马克・古尔曼昨天在《Power On》专栏中指出,苹果在 2025 年中期已开始与多家模型供应商接触,包括 Anthropic 与 OpenAI,但前者报价过高,后者则因积极挖角苹果工程师及硬件布局而存在战略冲突。

最终,苹果选择 Gemini,部分原因还包括去年 9 月美国法院裁定无需拆分苹果与 Google 的搜索合作关系,为双方进一步合作扫清障碍。

具体时间点方面,古尔曼认为,首批由 Gemini 支持的 Siri 功能将随 iOS 26.4 在下月进入测试阶段,并计划于今年 3 月至 4 月间正式推送。

该版本 Siri 将运行在苹果的 Private Cloud Compute 服务器上,内部代号为 Apple Foundation Models version 10,规模约为 1.2 万亿参数。

更大幅度的升级将在今年 WWDC 亮相。苹果正开发代号「Campos」的全新 Siri 架构,将在 iOS 27、iPadOS 27 与 macOS 27 中推出,具备更强的上下文理解、持续对话能力,并深度整合至 Safari、TV、Health、Music、播客等核心应用。

与此同时,苹果内部的 AI 组织也在经历重大调整。随着原机器学习与人工智能战略高级副总裁约翰・吉安南德雷亚离职,软件工程负责人克雷格・费德里吉接管 AI 方向,并推动与 Google 的合作落地。

部分原有项目,如基于内部模型的「全球知识问答」与 AI 版 Safari 升级计划已被缩减或暂停,但仍可能在 WWDC 前重启。

报道还提到,苹果正讨论让未来版本的 Siri 直接运行在 Google 云端的 TPU 上,以提升性能与响应速度。同时,苹果仍在开发更高性能的自研服务器,以支持长期的云端 AI 布局。

苹果自去年推出 Apple Intelligence 以来,新增的 AI 功能相对有限,仅在 Apple Music 与 Apple Watch 等应用中上线少量更新。

随着内部模型研发受阻、人才流失加剧,以及 Siri 延宕多时的升级计划迟迟未能落地,苹果在去年下半年重新评估其 AI 路线,并最终决定与 Google 达成合作,将 Gemini 引入 Siri 与 Apple Intelligence 的底层架构。

随着新一代 Siri 即将亮相,苹果正试图在生成式 AI 竞争中缩小与 ChatGPT、Gemini 等产品的差距。

( @APPSO)

2、银河通用成为 2026 春晚指定具身大模型机器人

昨天,中央广播电视总台和银河通用机器人共同宣布,银河通用机器人成为 2026 年春节联欢晚会指定具身大模型机器人。

银河通用机器人表示,公司长期聚焦具身大模型与人形机器人研发,已形成覆盖零售、工业、医疗、文旅等多行业的「机器人服务生态」。

公司通过自研具身大模型体系与高可靠人形机器人本体,在复杂场景中展现出自主决策、泛化能力与抗干扰性能,为人机协作提供可规模化落地的技术路径。

近期,银河通用完成 3 亿美元融资,估值突破 30 亿美元,继续位列国内具身智能企业前列。公司表示,将借助春晚这一国家级舞台展示具身智能的前沿成果,并以更具温度的交互体验呈现科技创新的现实价值。

随着春节临近,银河通用的人形机器人已在零售、文旅等场景以多种形式亮相,从太空舱咖啡服务到地方特色舞蹈表演,成为今年「科技年味」的重要组成部分。

( @APPSO)

3、前 Google 团队创办 Sparkli:已完成 500 万美元融资,用生成式 AI 重构儿童「沉浸式」学习体验

由前 Google Area 120 内部孵化器核心成员联合创办的教育科技初创公司 Sparkli,旨在解决通用大模型在儿童教育场景中文本堆砌的交互痛点。公司已完成由瑞士风投 Founderful 领投的 500 万美元 Pre-Seed 轮融资

核心产品逻辑与差异化:

  • 生成式多模态交互: 不同于传统 AI 助手的纯文本回答,Sparkli 利用生成式 AI 实时构建包含音频、视频、图像及游戏化测验的「学习探险」。系统能在用户提问后的 2 分钟内生成完整的互动课程,旨在将抽象概念(如火星环境)具象化。
  • 补充现代教育缺口: 课程内容侧重于学校教育往往滞后的领域,如金融素养、设计思维及创业精神。
  • 游戏化激励机制: 借鉴 Duolingo 的设计理念,引入连胜、奖励机制及基于头像的任务卡,以提升 5-12 岁儿童的学习粘性。

安全护栏与教学法融合:

  • 专业背书: 为避免沦为单纯的技术工具,Sparkli 的首批核心雇员包括教育科学 PhD 及资深教师,确保内容生成遵循科学的教学法原则。
  • 情感智能引导: 针对安全合规,系统严禁色情等敏感内容。对于「自残」等极端话题,App 不会直接生成答案,而是侧重于教授情感智力,并引导儿童与家长进行沟通,以此规避类似 Character.ai 面临的法律与伦理风险。

商业化进展与路线图:

  • B 端先行,C 端跟进: 目前 Sparkli 正与一个覆盖 10 万学生的学校网络进行试点,并开发了教师端模块,支持进度追踪与作业布置。
  • 发布计划: 产品已在 20 多所学校完成测试,计划于2026 年年中正式面向消费者(C 端家长)开放下载。

( @TechCrunch)

4、Interactpitch:交互式 AI 演示,实时数据追踪

Interactpitch 将静态融资演示文稿转化为由 AI 智能体引导的交互式体验。通过集成自定义虚拟人和实时数据追踪,该工具允许创始人在正式会议前通过 AI 与投资者进行异步沟通,并获取关于观众关注点、参与深度及潜在问题的结构化反馈。

  • 幻灯片感知知识库:AI 智能体通过对幻灯片文本、图像内容及用户上传的补充背景资料进行 Grounding,能够根据当前展示页面提供上下文相关的回答,并支持动态语音/文本追问。
  • 低延迟语音交互集成:底层接入「Cartesia Sonic」API,支持通过单张照片生成自定义 AI 形象,并提供高自然度的实时语音合成(TTS)能力。
  • 高颗粒度参与度分析:系统实时监测投资者的交互行为,包括特定页面的停留时长、点击分布以及在互动过程中产生的提问记录。
  • 非脚本化动态推理:AI 响应不依赖固定脚本,支持处理超出幻灯片范围的通用问题;当问题超出预设知识库边界时,智能体会引导用户回归核心议题或提供一般性回答。
  • 像素级导入与移动端优化:支持演示文稿的像素级保真导入,并针对移动端进行了 UI 适配,确保跨平台的交互一致性。

相关链接:

https://interactpitch.ai/

( @Product Hunt)

03 有态度的观点

1、雷蛇 CEO:我们投了 6 亿美元,但玩家还是讨厌生成式 AI

雷蛇 CEO 陈民亮近日在 The Verge 旗下播客节目《Decoder》中谈及游戏行业对生成式 AI 的普遍反感情绪,并回应公司在 AI 方向上的大规模投入。

他表示,雷蛇已在 AI 技术上累计投入约 6 亿美元,但玩家对低质量生成式内容的排斥依旧强烈,这也是当前行业矛盾的核心。

陈民亮指出,玩家真正不满的是「生成式 AI 产出的垃圾内容」,包括角色模型畸形、剧情质量低下等问题。

他强调,雷蛇与玩家立场一致,反对以少量提示词批量生成低质量内容。他认为 AI 的价值应体现在「辅助开发者」而非「替代创作」,例如提升 QA 测试效率、自动记录 Bug、检查拼写错误等,这些都能帮助开发者更快、更好地完善游戏。

在节目中,陈民亮进一步解释了雷蛇的 AI 战略。他透露,公司计划招聘 150 名 AI 工程师,并将 AI 视为一场长期押注,希望借此抵御市场炒作周期与玩家情绪波动。

他同时强调,雷蛇的 AI 布局并非局限于生成式内容,而是贯穿硬件、软件与服务生态,包括智能耳机 Motoko、AI 角色 Ava 等概念产品。

对于外界关注的 AI 安全与情感依赖问题,陈民亮表示,Ava 目前仍处于概念阶段,公司会在正式推出前持续收集反馈并强化安全机制。

他强调,雷蛇不会鼓励用户与 AI 角色建立情感依赖关系,产品的核心目标仍是提供实用价值与更自然的交互体验。

在硬件层面,他提到行业正面临内存与 GPU 成本上涨的压力,雷蛇尚无法确定未来产品的最终定价。

此外,他认为 AI 将成为未来硬件的重要组成部分,但雷蛇的策略是通过开放、多模型支持与自研上下文系统,构建面向玩家的垂直生态,而非与模型提供商直接竞争。

( @APPSO)

阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么

写在最后:

我们欢迎更多的小伙伴参与 「RTE 开发者日报」 内容的共创,感兴趣的朋友请通过开发者社区或公众号留言联系,记得报暗号「共创」。

对于任何反馈(包括但不限于内容上、形式上)我们不胜感激、并有小惊喜回馈,例如你希望从日报中看到哪些内容;自己推荐的信源、项目、话题、活动等;或者列举几个你喜欢看、平时常看的内容渠道;内容排版或呈现形式上有哪些可以改进的地方等。

作者提示: 个人观点,仅供参考​


在人工智能大规模进入产业实践的进程中,2026 年被普遍视为一个关键拐点。
AI 的角色,正在从被调用的“外部工具”,转变为驱动业务运行的“系统级能力”。

这不是交互形态的升级,而是系统架构与价值逻辑的根本变化。


一、从工具到能力:AI 的位置正在发生变化

过去,AI 更多以“外挂”的形式存在:
被用户主动唤起,输出建议、文本或分析结果,再由人类判断与执行。

而今天,AI 正在被直接编排进系统内部逻辑之中。

当 AI 成为系统能力时,它不再依附于按钮或对话框,而是作为底层引擎参与决策、调度与执行,自动响应业务状态的变化,形成完整的运行回路。

系统开始“自己做事”,而不是“等人操作”。


二、三项底层能力,让 AI 进入系统核心

1. 推理能力的工程化落地

AI 不再只是生成内容,而是能够对任务进行结构化拆解,处理具备因果关系的业务判断节点。
当推理具备稳定性,AI 才能被允许进入关键流程。

2. 组织级记忆的接入

通过检索增强与私有知识融合,AI 能够实时访问企业数据、历史决策与合规规则。
这使 AI 从通用模型,转变为具备岗位上下文的系统组成部分。

3. 执行能力形成闭环

当 AI 可以直接调用系统工具、操作业务接口、完成动作并接收结果反馈时,它便具备了独立完成任务的能力。
智能体来了,系统开始具备自主完成工作的可能性。


三、业务逻辑的重构:以 AI 为原生运行机制

当 AI 成为系统能力,业务系统的构建方式随之改变:

  • 从人工同步操作,转向系统异步运行
    系统在后台持续感知数据变化,自主规划与执行,仅在关键节点介入人工确认。
  • 从硬编码规则,转向语义驱动路径
    业务不再完全依赖固定流程,而是由系统理解意图后动态编排执行方案。
  • 从静态流程,转向自我迭代机制
    通过结果反馈,系统持续修正决策参数,形成演进式业务逻辑。

四、判断标准正在改变

一个系统是否先进,已不取决于集成了多少 AI 功能,而在于:

是否以 AI 为核心,构建了可自动运行的业务闭环。
维度辅助工具形态系统能力形态
触发方式人工显式调用系统自动感知
交付结果建议与内容状态改变与任务完成
人机关系高频交互低频干预
核心价值提效个人放大组织吞吐量

五、结语

企业数字化的终点,并不是为每个人配置一个“更聪明的助手”,
而是构建一套能够自我感知、自我规划并自主执行的智能系统。

AI 从工具走向能力,是生产力工具向生产要素转变的必然路径。

93 年的,结婚三年了,没有孩子,和老婆两个人现在有点佛系,都不太想要孩子。
每天 7 点起床,七点半出门,八点在门口买个早餐,然后坐车上边吃边玩手机,八点四十左右进公司。
公司一二四加班到八点,下班一般打两个小时海克斯乱斗,周末没事也不出去,在家打 lol ,打累了看电视。
晚上基本 11 点半之前睡觉,很少超过。
回西安之后这个作息状态已经快 5 年了,有没有人和我一样状态的,感觉进入舒适区了,总想躺平🤣

在日常的软件开发和办公自动化场景中,文档格式转换是一个普遍且重要的需求。无论是从结构化的 Word 文档中提取纯文本信息,还是将纯文本内容格式化为可编辑的 Word 文档,高效、准确地实现这两种格式的互相转换,是许多开发者面临的痛点。本文将深入探讨如何在 Java 环境下,借助一个功能强大的库,轻松解决 Word 和 TXT 之间的转换难题,提升您的开发效率。


Spire.Doc for Java:Word 与 TXT 转换的利器

在 Java 生态中,处理 Word 文档的库并不少见,但 Spire.Doc for Java 凭借其强大的功能和易用性脱颖而出。它是一个专业的 Word 文档处理组件,支持创建、读写、编辑、转换和打印 Word 文档,并且兼容多种 Word 版本。其中,对 Word 和 TXT 格式的互相转换提供了非常便捷的 API。

引入 Spire.Doc for Java

要开始使用 Spire.Doc,您需要将其作为依赖添加到您的 Maven 项目中。

Maven 配置示例:

<repositories>
    <repository>
        <id>com.e-iceblue</id>
        <name>e-iceblue</name>
        <url>https://repo.e-iceblue.cn/repository/maven-public/</url>
    </repository>
</repositories>
<dependencies>
    <dependency>
        <groupId>e-iceblue</groupId>
        <artifactId>spire.doc</artifactId>
        <version>14.1.3</version>
    </dependency>
</dependencies>

请确保您使用的版本是最新的稳定版本,以获取最佳的兼容性和功能。


从 Word 到 TXT:逐步实现文档内容提取

将 Word 文档转换为纯文本(TXT)是一个常见的需求,例如用于内容提取、文本分析或跨平台传输。Spire.Doc for Java 提供了一行代码即可完成此操作。

实现步骤:

  1. 加载 Word 文档: 使用 Document 类的 loadFromFile() 方法加载目标 Word 文档。
  2. 保存为 TXT 格式: 调用 saveToFile() 方法,并指定输出路径和 FileFormat.Txt 格式。
  3. 释放资源: 调用 dispose() 方法释放文档对象占用的资源。

Java 代码示例:

import com.spire.doc.Document;
import com.spire.doc.FileFormat;

public class ConvertWordtoText {

    public static void main(String[] args) {

        // 创建 Document 对象
        Document doc = new Document();

        // 加载 Word 文件
        doc.loadFromFile("示例.docx");

        // 将文档保存为 TXT 格
        doc.saveToFile("Word转文本.txt", FileFormat.Txt);

        // 释放资源
        doc.dispose();
    }
}

代码解析:

  • document.loadFromFile(inputWordPath): 负责读取指定路径的 Word 文档内容。
  • document.saveToFile(outputTxtPath, FileFormat.Txt): 这是转换的核心。它将加载的 Word 文档内容以纯文本格式写入到 outputTxtPath 指定的文件中。FileFormat.Txt 枚举值明确指示了目标格式。
  • document.dispose(): 释放资源,用于关闭文件流并释放内存,特别是在处理大量文档时。

从 TXT 到 Word:构建富文本格式文档

将纯文本(TXT)文件转换为 Word 文档,通常是为了对其进行格式化、添加图片、表格或其他富文本元素。Spire.Doc 同样能轻松实现这一目标。

实现步骤:

  1. 创建或加载 Word 文档: 对于从 TXT 创建新的 Word 文档,直接创建 Document 对象即可。
  2. 加载 TXT 内容: 使用 Document 类的 loadFromFile() 方法加载 TXT 文件。
  3. 保存为 Word 格式: 调用 saveToFile() 方法,并指定输出路径和 FileFormat.Docx(或 FileFormat.Doc)格式。
  4. 释放资源: 调用 dispose() 方法释放文档对象占用的资源。

Java 代码示例:

import com.spire.doc.Document;
import com.spire.doc.FileFormat;

public class ConvertTextToWord {

    public static void main(String[] args) {

        // 创建 Document 对象
        Document txt = new Document();

        // 加载 .txt 文本文件
        txt.loadFromFile("介绍.txt");

        // 将文件保存为 Word 格式
        txt.saveToFile("TXT转Word.docx", FileFormat.Docx);

        // 释放资源
        txt.dispose();
    }
}

代码解析:

  • document.loadFromFile(inputTxtPath): 这里巧妙地利用了 spire.doc for javaloadFromFile 方法不仅可以加载 Word 文档,还能加载 TXT 文件并将其内容导入到 Document 对象中。
  • document.saveToFile(outputWordPath, FileFormat.Docx): 将包含 TXT 内容的 Document 对象保存为 Word 格式。FileFormat.Docx 是现代 Word 文档的默认格式,您也可以选择 FileFormat.Doc

格式调整建议:

将 TXT 转换为 Word 后,默认情况下可能只是简单的文本导入。如果需要更复杂的格式,例如设置字体、段落样式、页眉页脚等,Spire.Doc 也提供了丰富的 API 来实现这些功能,您可以在 loadFromFile 之后、saveToFile 之前,对 document 对象进行进一步的编辑操作。


结语

通过本文的详细介绍和代码示例,相信您已经掌握了在 Java 中使用 Spire.Doc for Java 库实现 Word 和 TXT 文档互相转换的关键技术。该库以其简洁的 API 和强大的功能,为 Java 开发者提供了一个高效、可靠的文档处理解决方案。无论是日常的数据处理,还是复杂的办公自动化系统,Spire.Doc 都能助您一臂之力。鼓励您在实际项目中尝试应用这些技术,并进一步探索该库在 Word 文档处理方面的更多高级功能,例如文档合并、拆分、内容替换、表格操作等,以满足更复杂的业务需求。

职位描述

该岗位主要工作是构建 AI Agent 数字员工,使其自主完成高价值工作任务,包含前后端开发、基础设施管理等,涉及 RAG 、Prompt Engineering 、ReAct 、TypeScript 、Python 等相关技术。

需要熟练掌握如 Claude Code 或 Cursor 等 AI 工具,公司每月报销 AI 工具订阅费用。

任职要求

  1. 3 年以上工作经验,计算机专业本科以上(能力特别突出可适当放宽要求)
  2. TypeScript ( React/Next.js )、Python ( FastAPI / Celery )/、AWS / Postgres / Docker / Kubernetes)等前后端技术栈,前后端各一种以上,能力突出、经历对口优先
  3. 有大型分布式系统设计及工程实现经验,熟悉 Kafka 、RabbitMQ 、Redis 等消息中间件的高并发场景下疑难杂症处理
  4. 日常熟练使用 Cursor 、GitHub Copilot 等 AI 开发工具进行工程实现和测试,习惯使用突破性思维提高开发效率(需提供代码示例)
  5. 对新技术有敏感度,能适应初创公司工作节奏,快速迭代、快速验证

核心素质

  • 善于利用 AI 工具提升开发效率(需提供代码示例),对自动化开发有强烈兴趣
  • 具备快速学习新技术的能力
  • 有开源项目贡献或技术博客者优先

薪资范围

18-25K * 15

工作地点

深圳南山区软件园

联系方式

简历请发送至 [email protected], 有任何疑问可以直接留言或者私信我

点赞 + 关注 + 收藏 = 学会了

整理了一个n8n小专栏,有兴趣的工友可以关注一下 👉 《n8n修炼手册》

在 n8n 中 AI Agent 默认只停留在“一次性交互”的层面。你问它一个问题,它精准回应,可当你接着上一个话题追问,或是隔一段时间再提起之前聊过的细节,它却像断了片一样,毫无印象,只能重新解释背景、重复需求。

比如我和它说了我叫什么名字,接着追问“我叫什么名字?”它立刻忘掉。

n8n 的「AI Agent 节点」其实已经提供了接入记忆能力的接口「Memory」。

点击「Memory」接口可以调用各种数据库,但前提是你已经安装了这些数据库。

n8n 提供了一个简单的数据库给我们使用:「Simple Memory」

如果你的需求不复杂,只想让AI有一点点记忆,用它就行。

打开「Simple Memory」的配置项,可以配置上下文窗口“Context Window Length”,数字越大记忆力越强,但占用的资源也更多。

根据你业务需求配置就行。

此时我们再测试一次。

它记住了!


以上就是本文的全部内容啦,想了解更多n8n玩法欢迎关注《n8n修炼手册》👏

点赞 + 关注 + 收藏 = 学会了

点赞 + 关注 + 收藏 = 学会了

整理了一个n8n小专栏,有兴趣的工友可以关注一下 👉 《n8n修炼手册》

在使用 n8n 搭建自动化工作流时,读写本地文件是最基础也最常用的操作。

比如在互联网上拉了一些数据回来需要保存到本地。

比如上游同事把文件发你,你要将其加载到 n8n 里做一些处理。

如果你使用 Docker 部署 n8n,读写本地文件的配置请参考 《『n8n』一招解决“无法读写本地文件”》

写入文件

我用一个例子讲讲如何将数据保存到本地。

  1. 使用「HTTP节点」从接口把数据请求回来。
  2. 将数据存到到电脑。

要实现这两步,在 n8n 中的工作流长这样子⬇️

鼠标点击 -> HTTP请求数据 -> 将数据格式化(Convert) -> 保存到本地(Write Files from Disk)

先看看「Convert to File」的配置。

我将「HTTP 节点」请求回来的数据转成 Excel 文件,并将输出的对象放到一个 data 字段里。

「Write Files from Disk」节点将上个节点传入的数据保存到我指定的位置:

/home/node/.n8n-files/rw-test/posts.xlsx

注意,posts.xlsx 是我保存的文件名和后缀格式。

保存成功后就可以在指定位置找到它了。

读取文件

读取文件的思路就反过来了。

首先找到文件,然后再将内容解析出来,让其他节点可以看得懂这个文件的内容。

所以工作流长这样⬇️

其实读取文件和写入文件都是用同一个节点(Read/Write Files from Disk),只是 Operation 属性不一样而已。

在这个工作流中,「Read Files from Disk」的 Operation 选择 Read File(s) From Disk,再指定一个文件路径就行了。

可以看到它输出了一个 data

要让其他工作流读懂这个 data 里面写了什么内容,需要用到「Extract from File 节点」。

在「Extract from File 节点」里,我们要正确设置 Operation 的值,这个参数指的是现在读取到的文件对象它原本是什么格式(比如我这个是 Excel 文件,就用 Extract From XLSX,其他格式就用其他类型)。

读取成功后,「Extract from File 节点」就会将内容输出给下一个节点。右侧面板就是读取到的内容。


以上就是本文的全部内容啦,想了解更多n8n玩法欢迎关注《n8n修炼手册》👏

如果你有 NAS,我非常建议你在 NAS 上部署一套 n8n,搞搞副业也好,帮你完成工作任务也好 《『NAS』不止娱乐,NAS也是生产力,在绿联部署AI工作流工具-n8n》

点赞 + 关注 + 收藏 = 学会了

点赞 + 关注 + 收藏 = 学会了

整理了一个NAS小专栏,有兴趣的工友可以关注一下 👉 《NAS邪修》

aipan(中文名叫“爱盼”)是一款开源免费的搜片工具。

本次使用群晖NAS做演示。

在“Container Manager”的「镜像仓库」里搜索“aipan”,下载“fooololo/aipan-netdisk-search”这个。

下载成功后,切换到「映像」,选择刚刚下载的 aipan,运行它。

「常规设置」这里勾选“启用自动重新启动”,勾选“通过 Web Station 设置网页门户”。

「高级设置」这里什么都不用改。

打开”Web Station“新增一个”网络门户“,相关配置项如下图所示。

这里我设置了 HTTP 的端口为 2222,你可以设置要给不跟其他项目冲突的端口。

完成上面的操作后,打开浏览器,输入 NAS的IP + aipan的端口 就可以使用 aipan 了。

比如我这里是 192.168.31.85:2222

aipan 的搜出来的都是片子~


以上就是本文的全部内容啦,想了解更多NAS玩法可以关注《NAS邪修》👏

最后推荐一下玩 NAS 的工友,在 NAS 上装一个 n8n 接入大模型,可以帮你定时定候完成各种工作,比如签到啦、写文章啦、生成海报和视频啦、自动发布到各大平台啦~

想了解 n8n 的工友可以关注我的专栏👉 《n8n修炼手册》

点赞 + 关注 + 收藏 = 学会了

由 OpenBuild 联合 SegmentFault、VibeFriends 和 Monad 共同发起,并携手 KIMI、智谱 AI、豆包编程、YouWare、阶跃星辰、Rokid、硅基流动、立创开源等多家顶尖 AI 公司举办的「Rebel in Paradise AI 黑客松」已正式拉开帷幕。这场聚焦"智能体时代原生基础设施、产品与市场"的深度探索之旅,现已面向全球开发者开放报名通道。

如果你的桌面还堆满关于 AI Agent 的技术文档却无处实践;如果你的脑海中早已构想出一个能够自动化工作流、创造价值的智能体应用却缺少舞台;如果你渴望与 Kimi、智谱 AI、豆包编程等一线团队的技术专家面对面交流,那么,你的机会来了。

这可能是智能体时代最后的"末班车"

Rebel in Paradise AI 黑客松三大核心赛道

过去一年,AI 智能体从概念走向落地,正在重塑工作方式与商业逻辑。但真正的创新浪潮才刚刚涌起。本次黑客松瞄准三大核心赛道,直击行业最前沿痛点:

赛道一:Agent-native Payments

智能体间的价值流转与支付协议、微支付系统、自动化结算方案------这是构建智能体经济系统的基石。

赛道二:Intelligent Markets

基于智能体的预测市场与交易系统,探索数据市场、算力市场、AI服务市场的全新可能性。

赛道三:Agent-powered Apps

由智能体驱动的下一代应用,从工作流自动化到个性化助手,再到协作工具,用代码定义未来。

Hackathon 时间

👥** 报名与组队期:** 即日起 - 项目提交前均可报名组队

💻** 项目提交截止:** 2026年2月28日 23:59:59

✅** 最终结果公布:** 2026年3月10日

如何参与

立即报名 👉:https://rebel.openbuild.xyz

扫码参与

本次 Hackathon 以线上为主,开发者完全可选择全程线上参与,完成项目构思、开发与提交。同时我们也会在线下举办两场 Hacker Camp:

👉北京(1月31日): https://luma.com/irllzbeu?utm_source=ob_gzh
👉深圳(2月7日): https://luma.com/je6if25j?utm_source=ob_gzh

为开发者提供的额外深度交流与实战辅导机会,你可以将此视为一次与导师、队友线下碰撞火花的"加速器"。

无论你身在何处,均可参与线上环节,享受同等技术辅导、资源支持与评奖资格。当然,无论是否报名 Hackathon,也非常欢迎亲临线下活动现场,与数百名开发者同台交流。

为什么你必须把握这次机会?

💰**总奖池 $40,000:** $20,000现金 + $20,000 资源奖励

🔥稀缺资源支持: 包括 LLM Token、 NVIDIA DGX、顶尖公司参访机会等

🆙成长直通车: 一线AI公司技术专家辅导、投资人对接、项目孵化支持

💬社群与背书: 加入由高质量开发者、创业者和技术领袖组成的创新网络

智能体时代的竞争,已从"是否会使用工具"升级为"能否创造智能体"。这趟驶向未来的列车已经鸣笛,车厢里坐着Monad、Kimi、智谱AI的技术领袖,也坐着与你一样渴望用代码重塑世界的开发者。

别等到2月28日才后悔没报名。最好的开始时间,永远是现在。

扫码添加小助手,进群获取最新资讯、组队招募!!

快速答疑(Q\&A)

Q:可以纯线上参与,完全不参加线下活动吗?

A:完全可以。 线上参与即可完成全部黑客松流程并获得完整资源支持。

Q:没有成型的项目或想法,可以报名吗?

A:可以。 线下活动无门槛,线上黑客松最终需提交项目,但我们鼓励从0到1的探索,并设有相应辅导环节。

Q:如何组队?

A:建议自行组队,也可在活动社群中招募队友。

Q:可以同时报名北京和深圳两场线下活动吗?

A:可以。

Q:资源支持(算力、硬件等)如何申请?

A:组队成功后即可提交申请。

Q:能选择多个赛道吗?

A:可以多选,组委会将进行简单审核。

我们相信,下一个时代的"一人公司",将由智能体与你共同构建。

合作伙伴

阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么