求推荐一款超薄移动电源
最近从 iPhone 换了安卓手机
原来 iPhone 基础版电池太小了,每次出去只回个微信,不到一天就没电
趁着国补入手了一个 安卓小屏手机,但还是没电量安全感😂
想找一款 超薄便携的移动电源,主要用于 应急补电,不需要很大电量,3000 mAh 左右就够了
越薄越好,重量轻,放口袋不明显那种。
xiaohack博客专注前沿科技动态与实用技术干货分享,涵盖 AI 代理、大模型应用、编程工具、文档解析、SEO 实战、自动化部署等内容,提供开源项目教程、科技资讯日报、工具使用指南,助力开发者、AI 爱好者获取前沿技术与实战经验。
最近从 iPhone 换了安卓手机
原来 iPhone 基础版电池太小了,每次出去只回个微信,不到一天就没电
趁着国补入手了一个 安卓小屏手机,但还是没电量安全感😂
想找一款 超薄便携的移动电源,主要用于 应急补电,不需要很大电量,3000 mAh 左右就够了
越薄越好,重量轻,放口袋不明显那种。
在认知负荷极度饱和的数字化协作中,企业的效率瓶颈已从“数据获取”转向“关键信息的快速扫描与全局掌控”。平铺式信息展开工具不仅是静态的展示看板,更是通过横向铺展的视觉逻辑,将隐没在深层目录中的碎片化数据转化为可视化、可并行处理的平铺式智力资产的解析引擎。 传统层级化管理工具往往导致“信息遮蔽”:关键细节被掩盖在多级文件夹下,导致决策者难以在同一视域内完成信息的横向对比。平铺式信息展开工具的核心价值在于: 二、 平铺式展开的技术路径:全景视觉架构 构建平铺式信息展开体系需要遵循“空间释放”与“并列关联”的逻辑: 三、 核心技术实现与算法示例 平铺式信息展开工具的底层逻辑涉及响应式布局计算、视口范围内渲染优化及平滑平移控制。 在海量信息平铺时,为保障性能,仅对视口内的单元进行渲染。以下为实现平铺节点动态加载的逻辑: JavaScript /** } 利用平铺模型,自动检测视觉空间内的信息堆叠度,防止由于平铺过密导致的认知过载: Python class FlatDensityEngine: 通过数据查询,识别平铺平面中关联最紧密、扫描频率最高的“视觉热区”资产: SQL SELECT FROM flat\_assets\_logs 四、 工具分类与选型思路 实施平铺式信息展开时,工具的选择应基于对“横向延展力”的需求: 五、 实施中的风险控制与管理优化 六、 结语 平铺式展开是穿透复杂信息层级的有力手段。 它不仅解决了“关键信息被掩埋”的问题,更通过开阔的水平视觉架构,将企业的每一次数据沉淀转化为可以一览无余、极速扫描的执行场景。当组织的信息能够以平铺形式实现全景对齐时,团队才能在复杂的决策环境中实现“快速洞察”与“精准响应”的统一。一、 为什么现代决策必须重视“平铺式”展开?
1. 基于视口检测的平铺单元延迟加载(JavaScript)
* 检测平铺单元是否进入水平视口并触发加载
* @param {Element} unitNode 平铺单元节点
* @param {number} buffer 预加载缓冲区像素
*/
function handleFlatDisplay(unitNode, buffer \= 200) {const rect \= unitNode.getBoundingClientRect();
const isVisible \= rect.left \< (window.innerWidth \+ buffer) && rect.right \> \-buffer;
if (isVisible && \!unitNode.dataset.loaded) {
// 触发原子信息的平铺展开
loadAtomicData(unitNode);
unitNode.dataset.loaded \= "true";
console.log(\`\[Display Action\] 平铺单元 ${unitNode.id} 已进入视口并展开\`);
} 2. Python:信息铺展密度的动态优化引擎
def \_\_init\_\_(self):
\# 预设平铺标准:视域类型 \-\> 推荐展开间距与信息密度
self.density\_benchmarks \= {
"Executive\_Dashboard": {"min\_margin": 20, "max\_elements": 12},
"Task\_Flow": {"min\_margin": 10, "max\_elements": 25}
}
def verify\_flat\_efficiency(self, current\_layout, view\_type):
"""对比实际铺展密度与标准,识别视觉疲劳风险"""
std \= self.density\_benchmarks.get(view\_type)
if not std:
return "未定义的平铺标准"
element\_count \= len(current\_layout\['elements'\])
if element\_count \> std\['max\_elements'\]:
print(f"\[Visual Alert\] 信息铺展密度过高({element\_count}个节点),建议启用横向分页")
self.\_trigger\_layout\_optimization(current\_layout)
def \_trigger\_layout\_optimization(self, layout):
print(f" \-\> 已启动针对该平铺平面的空间重组建议")
3. SQL:跨平面信息关联度与扫描效率分析
view\_id,
node\_name,
horizontal\_position,
AVG(scan\_duration) as scan\_efficiency
WHERE layout\_type \= 'Tiled'
GROUP BY node\_name, view\_id
HAVING scan\_efficiency \< 2.5 -- 识别出用户能快速捕捉信息的平铺布局
ORDER BY scan\_efficiency ASC;
在人工智能技术持续演进的背景下,2026 年正在成为一个被频繁提及的时间节点。一个逐渐形成的行业共识是:基础模型的能力差距正在收敛,而应用层的使用方式开始决定真实的生产力差异。 当通用模型的推理、生成与理解能力趋于标准化,竞争焦点正在从“模型本身有多强”,转向“如何被系统性地使用”。 在早期应用阶段,AI 更多以“对话助手”的形式出现,使用方式高度依赖提示词技巧与单轮交互效果。但在实际工程与业务场景中,这种模式很快暴露出稳定性与扩展性的瓶颈。 当前更成熟的实践,正在将模型视为系统中的一个逻辑单元,而非完整解决方案。 这体现在两个方向上: 随着通用知识的获取成本不断下降,真正具有区分度的能力,开始集中在如何将模型与特定业务长期绑定。 在专业场景中,评价 AI 使用效果的标准也在发生位移。 综合来看,当模型能力逐渐同质化,使用范式本身正在演化为一种基础设施能力。 对比正在形成的两种路径: 后者正在更多实际业务中展现出可持续的效率优势。 2026 年所呈现的现实是:技术突破提供可能性,而真正释放生产力的,是那些能够将 AI 推理能力嵌入业务逻辑与流程设计中的实践者。一、使用认知的变化:从对话工具到系统组件
使用者开始为模型设计明确的输入规范、输出格式与约束条件,使其行为可预期、可校验,而非依赖语言修辞触发“灵感式回答”。
复杂问题被拆分为多个子任务,并在不同上下文中并行处理,形成协作式的执行路径。在这一过程中,智能体来了,更多被视为一种工程组织方式,而非单一产品形态。二、核心能力的转移:构建可持续的认知回路
行业内逐渐认识到,RAG 的价值并不止于“接一个向量库”。更关键的是通过多级检索、语义过滤与权限控制,确保模型在不同任务中调用到“恰好足够且足够准确”的私有信息。
为弥补模型天然的短期记忆特性,外挂式记忆层被用于记录任务状态、业务进展与偏好变化,使 AI 能够跨时间段持续参与同一工作流。
当模型能够通过函数调用与外部系统交互,其角色便从“建议者”转向“执行参与者”。这类实践正在推动 AI 走出对话界面,进入真实业务链路。三、评估标准的变化:从表现到确定性
在金融、法律、医疗等领域,稳定、一致、可复现的输出,比富有创意的回答更具价值。
系统在多大程度上能够自行规划、校验与修正,正在取代“交互次数”成为衡量成熟度的重要参考。四、结语:使用方式正在成为新的护城河
在这样的背景下,AI 更像是工作流中的协同决策单元,而不再只是回答问题的工具。
近期朋友让我在热榜站里加一加招标的信息,我没接触过这些,完全不懂,和他聊的也云里雾里的
想咨询下大家,招标信息这个东西,有没有哪里能获取到所有的招标信息,或者哪些地方的加起来就是全部招标信息
完全不懂这块
每年,攻击者的登录技巧都在不断升级,能够更隐蔽地绕过本应阻止他们的防护环境。无论是窃取密码、重放令牌、劫持会话,还是OAuth授权诈骗,他们的攻击手段持续迭代,足以突破曾经被认为安全的身份验证方式。 这正是MFA令牌发挥作用的地方。MFA令牌能提供单纯密码无法实现的功能:真实的持有证明。然而,并非所有令牌的工作原理都相同,也并非每一种配置都能抵御现代攻击。 MFA令牌是第二种身份校验手段。密码验证你“所知”的信息,而令牌验证你“所持”的物品。 有时,这种令牌是一个可插入的小型密钥;有时,它是手机上生成六位验证码的应用程序。两种方式功能相同,只是实现形式不同。 以下是简单的流程拆解: 服务器与用户共享一个密钥(敏感凭证),该密钥安全存储在设备或令牌中。 软令牌 这种方式操作简单,但安全增益显著。即使密码泄露,攻击者没有令牌也无法推进攻击。而且由于无需通过短信传输信息,SIM卡劫持或一次性密码(OTP)拦截的风险大幅降低。 软令牌示例:Google Authenticator(谷歌验证器)、ADSelfService Plus移动应用、Microsoft Authenticator(微软验证器)。 软令牌适用于远程员工、普通员工群体以及采用自带设备(BYOD)政策的企业。 硬令牌 硬令牌示例:YubiKey(硬件安全密钥)、OTP密钥卡、智能卡。 硬令牌适用于生产车间、医院、关键岗位、高安全级别环境,或任何禁止使用手机的场所。 大多数组织依赖支持硬令牌和软令牌两种方式的企业身份验证工具,并根据岗位的风险等级灵活选用。这种方式可很好地覆盖一线员工、高管、承包商、远程用户等各类人群。 MFA令牌是身份验证因素,包括基于时间的一次性密码(TOTP)、硬件密钥、推送审批和软令牌应用程序等,用于在登录过程中验证用户身份。 OAuth令牌是授权令牌,包括访问令牌、刷新令牌和身份令牌等,在身份验证通过后颁发,用于确定用户可访问的资源范围。 人们之所以容易混淆这两种令牌,是因为现代身份系统将这两个流程串联在一起。当MFA确认用户身份合法后,系统会颁发OAuth令牌,用于会话访问应用程序和API。 攻击者不仅窃取密码,还会窃取令牌和会话。推送疲劳攻击、OAuth令牌滥用、Cookie窃取和重放攻击等,都能绕过传统的MFA配置。 这也是ADSelfService Plus等现代系统转向抗钓鱼、无密码MFA的原因。 如今已不存在单一的“最佳”MFA方式。不同的用户、设备和风险等级需要不同的解决方案。最安全的配置是融合多种令牌类型,在保障身份验证安全的同时,不影响用户的登录效率。 现代MFA令牌策略通常包括以下内容: 用于无密码登录的密码密钥(Passkeys) 作为日常备份的基于时间的一次性密码(TOTP) 用于高可信度岗位的硬件令牌 仅作为应急选项的短信或语音验证 适应实际风险的自适应MFA 用于敏感账户的抗钓鱼MFA 持续审计与风险评分 ADSelfService Plus不仅提供多样化的验证器选项,还围绕这些选项构建了完整的身份防护层——通过自适应MFA应对风险,适配不同团队的工作模式,确保访问权限实时更新。 无密码身份验证是这一策略的核心。用户无需密码,只需通过生物识别、FIDO2密码密钥、推送审批或TOTP即可登录,这意味着攻击者无法再依靠窃取或重复使用的凭证实施攻击。 基于条件的MFA增添了另一层智能防护。系统会根据多种访问条件对每次登录进行检查。若发现异常情况,会自动提升身份验证级别;若一切正常,用户可无缝完成登录,无需额外操作。 FIDO2密码密钥、微软验证器和硬件密钥等抗钓鱼验证因素,能保护高风险岗位免受令牌重放、虚假登录页面和中间人攻击的威胁。这些验证器还支持离线工作,对于一线团队、远程站点以及网络连接不稳定的用户而言至关重要。 针对日常使用场景,ADSelfService Plus通过软令牌提供灵活的验证方式。用户可通过ADSelfService Plus移动应用或第三方验证器生成TOTP,无论在线还是离线状态都能可靠使用,为用户提供简单、可预期的身份验证体验。 ADSelfService Plus的可视化功能,MFA报表会详细展示哪些用户注册了哪些验证器、登录失败发生在哪些场景、哪些账户出现异常模式。这种清晰的可视化能力让管理员能在薄弱环节演变为安全事件之前及时发现并处理。 完善的MFA令牌策略通过密码密钥、TOTP、硬令牌和基于风险的检查,为用户身份提供可靠证明。当这些防护层协同工作,并能在发现异常时自适应调整,就能构建一个既能隐蔽拦截身份伪造攻击,又能保障合法用户流畅登录的系统。即使密码泄露或会话被劫持,强大的MFA令牌也能确保访问权限始终掌握在合法用户手中。借助ADSelfService Plus,构建更强大、以令牌为核心的MFA策略吧。MFA令牌的实际工作原理
令牌生成一个短期有效的验证码——通常有效期为30秒或60秒。
用户在系统提示时输入该验证码。
服务器将用户输入的验证码与自身计算得出的结果进行比对。
若两者匹配,登录流程继续。
即使黑客窃取了密码,也无法继续登录,因为他们没有生成登录授权验证码所需的令牌。现代MFA解决方案已将这种令牌流程直接整合到登录过程中,无论你使用的是生物识别、密码密钥还是传统的基于时间的一次性密码(TOTP)。
软令牌 vs 硬令牌
软令牌应用程序依赖存储在用户设备中的共享密钥工作,会生成每30秒或60秒刷新一次的短期有效验证码。用户输入验证码后,服务器进行验证,验证通过即可完成登录。
某些环境需要更强有力的用户身份担保,这正是硬件令牌的优势所在。它们具备抗钓鱼能力,可完全离线工作,且作为独立物品由用户随身携带。MFA令牌 vs OAuth令牌
令牌窃取:威胁背后的深层威胁
构建合理的MFA令牌策略
彻底消除了最薄弱的环节——密码。无需担心密码被窃取、重复使用或钓鱼攻击,只需依靠安全的设备绑定身份验证即可完成登录。
验证器应用程序生成的基于时间的验证码即使在离线状态下也能使用,可可靠覆盖大多数员工的使用场景。
安全密钥和OTP设备增加了物理防护层,几乎无法被篡改。非常适合管理员、高管以及受监管环境中的岗位使用。
这类方式并非最安全,但能帮助没有智能手机的用户,或在其他所有验证方式失效时为用户提供登录途径。
现代MFA需要具备自适应能力。如果用户从可信设备、已知网络登录,系统会提供流畅的登录体验;如果系统检测到新设备、高风险位置、不可能的异地登录(短时间内跨远距离登录)或多次登录失败等异常情况,会自动强制启用更严格的验证因素。这一机制填补了静态MFA与实际威胁行为之间的差距。
密码密钥、FIDO2密钥和基于WebAuthn的验证方式,可有效抵御重放攻击、MFA轰炸(频繁发送验证推送)和虚假登录页面攻击。所有特权账户或高影响岗位都应默认使用这类验证方式。
强大的MFA不仅在于强制启用验证因素,还在于持续监控登录模式、标记异常设备、检测令牌滥用和权限蔓延等风险点。ADSelfService Plus如何强化你的MFA令牌策略

推广挺烦人,所以的找点乐趣,20 枚马年纪念币,今天很难抢到,溢价 70%了~~

抽奖时间: 一周后
奖品由老倔驴开户赞助,老倔驴开户选择多还靠谱,聚合几十家券商优惠,连接上百家营业部,已帮助 2000 人+,无一差评。
开户点这里: https://jue.lv/kh/V2/202601c (15+券商可选,开户有礼!)

友情提示:不因奖品而涉足股市,得不偿失!
最近让我们办护照,感觉挺急的,然后要我们出差,目前只说短期,具体的工作事宜,和时间没说,
我们都想拒绝这个出差
假如因此为理由裁掉,是否违法
因为根据目前掌握的相关法律来说
如果没法证明安排不合理,你又没有足够正当的理由去拒绝的话,性质会变成员工违反劳动义务了。
就不存在违法解除了
op 目前的方案:1 ,刷 v 站,2 ,mac 投屏 iphone 玩手机,3 ,把一些书转为 txt 文本,然后用 ai 写了个 vscode 插件,在编辑器底部状态栏偷偷看书 。
有没有佬还有其他方案,让我借鉴借鉴。😄
苹果 13,目前是 iso 18.7.2
在海量数据并行、多维度信息交织的数字化协作中,信息的存储往往呈现深层目录化,导致关键逻辑被遮蔽。若缺乏有效的横向铺展与视觉对齐,常常会导致以下问题: 此时,引入一款全景展示、逻辑并列、视觉可穿透的平铺式信息展开工具,可以显著提高团队的信息处理效率与全局掌控能力。 二、 平铺式信息展开的典型推进路径 三、 5款值得一试的平铺式信息展开工具(精选推荐) 无限平铺画布 + 自由视觉关联 水平多列布局 + 结构化信息平铺 多维数据平铺 + 参数化视觉索引 经典水平流转看板 + 视觉优先级标注 文档容器平铺 + 页面级信息展开 四、 平铺式信息展开机制设计建议 五、 Q\&A:关于平铺式信息展开你可能遇到的问题 Q1:信息平铺得太多,导致屏幕装不下怎么办? A:建议利用工具的“折叠/收纳”功能处理低频信息,或使用“语义缩放”技术,在高倍率下仅显示核心标题。 Q2:如何防止平铺后的信息变得散乱? A:设定明确的排布基准线(如按时间、按职能或按逻辑流向),并利用辅助线或网格进行对齐约束。 Q3:平铺视图下如何处理信息的先后依赖关系? A:配合使用连线工具(Connector)或磁吸逻辑,确保平铺单元在视觉上形成清晰的逻辑链条。 Q4:多人同时在平铺画布上操作会冲突吗? A:推荐使用支持多人实时协作且具备光标追踪功能的工具(如 Miro、板栗看板),以确保团队感知的实时对齐。 六、 结语 平铺式展开是穿透复杂信息层级的有力手段。 它不仅解决了“关键信息被掩埋”的问题,更通过开阔的水平视觉架构,将企业的每一次数据沉淀转化为可以一览无余、极速扫描的执行场景。 板栗看板、Miro、Trello 等工具提供了不同维度的水平平铺能力,让复杂关系变得直观,让决策依据变得触手可及。建议根据信息的结构化程度、协作频次以及视觉延展需求选择适合的展开方式。 在开阔的视域中捕捉关联,是提升决策效率的捷径。一、 为什么需要平铺式信息展开工具?
---
---
1. Miro / FigJam
2. 板栗看板
3. Airtable (Gallery/Grid View)
4. Trello
5. Notion (Board / Gallery View)
---
---
---
近日,openKylin Wine助手迎来V5.0版本更新。本次升级不仅聚焦于简化安装流程,更围绕容器管理、软件卸载、系统兼容性与稳定性进行多维增强,并新增对磐石系统的兼容支持,致力于为用户在开源生态中提供更顺畅、高效的Wine应用程序使用体验。
其中,核心亮点之一是引入“一键安装”功能,让用户无需复杂操作,就能快速完成安装,极大提升了使用便捷性,为用户带来更流畅的体验,下面将为大家着重介绍。
一、环境准备
二、安装
在软件商店中搜索“openKylin Wine助手”,点击安装按钮即可开始安装流程。
基于网站(https://gitee.com/openkylin/compat-winapp/releases)获取最新发行版本后。得到压缩包wine-assistant-xxx.tar.gz。解压安装包后,双击安装wine-assistant安装包。
三、设置默认容器
在openKylin Wine助手的容器管理界面,容器名称前标注星号的是当前默认容器,一键安装的应用会装入此容器。若未预设默认容器,一键安装时系统将自动生成一个名为“default”的容器。若要切换默认容器,只需右键单击目标容器名称选择即可。

四、一键安装
无需启动openKylin Wine助手,直接双击安装包(exe/msi格式)即可开始一键安装流程,页面依次显示“初始化环境中”、“检查默认容器”、“创建默认容器”、“创建容器成功”及“运行执行程序”,最终将应用安装至该容器,若已设置默认容器,则跳过创建步骤。以植物大战僵尸为例,从官网下载安装包,双击启动一键安装(安装openKylin Wine助手后若又装了同类软件,运行时需右键选“打开方式”中的 wine助手,若觉每次选择繁琐,可将wine助手设为默认启动方式)。安装过程中,用户可根据个人需求,灵活调整安装信息。
初始化环境
检查默认容器
创建默认容器
运行执行程序
进入安装界面
安装完成
此时打开openKylin Wine助手,可以在软件管理列表看到
点击“启动”按钮,即可启动该应用如果启动软件时遇到字体缺失等问题,可以在“容器管理-default容器-Wine配置-其他组件”选择安装相应的字体。此外,openKylin Wine助手还涵盖了其他适配软件所必需的组件,具体信息请参考用户手册。感兴趣的小伙伴赶快试一试吧~
开发者朋友们大家好: 这里是 「RTE 开发者日报」,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real-Time Engagement) 领域内「有话题的技术」、「有亮点的产品」、「有思考的文章」、「有态度的观点」、「有看点的活动」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。 本期编辑:@瓒an、@鲍勃 1、百度发布「文心 5.0」正式版:2.4 万亿参数 MoE 架构,实现原生全模态统一建模 在文心 Moment 大会上,百度正式上线「文心 5.0」大模型,采用 2.4 万亿参数的超大规模 MoE 架构。该模型放弃了业界主流的多模态后期融合方案,通过原生全模态统一建模技术,实现了跨模态特征的深度融合,在 LMArena 文本与视觉榜单中位列中国模型首位。 模型已正式上线。个人用户可通过文心一言官网或 APP 体验;企业级用户与开发者可通过百度千帆平台调用 API。 (@智东西) 2、开源智能体「Clawdbot」走红:支持本地 7x24h 运行,具备系统 Shell 权限与长时记忆 开发者 Peter Steinberger 开源的「Clawdbot」通过本地网关架构,将 Claude、GPT 等 LLM 转化为具备 OS 级权限的 7x24h 智能体。它支持通过 WhatsApp、iMessage 等即时通讯工具远程驱动本地环境,实现了从「对话框 AI」到「自主执行器」的转变。 项目已在 GitHub 开源(stars 突破 26k),支持 Mac、Windows、Linux 或 VPS 部署。 官网链接: demo 链接: GitHub: (@新智元) 1、苹果将于 2 月份发布基于 Gemini 架构的 Siri 语音助手 据彭博社报道,由 Google Gemini 技术深度驱动的新一代 Siri 最快下个月开始在 iOS 26.4 测试版上亮相,同时重构多项核心应用的 AI 体验。 彭博社记者马克・古尔曼昨天在《Power On》专栏中指出,苹果在 2025 年中期已开始与多家模型供应商接触,包括 Anthropic 与 OpenAI,但前者报价过高,后者则因积极挖角苹果工程师及硬件布局而存在战略冲突。 最终,苹果选择 Gemini,部分原因还包括去年 9 月美国法院裁定无需拆分苹果与 Google 的搜索合作关系,为双方进一步合作扫清障碍。 具体时间点方面,古尔曼认为,首批由 Gemini 支持的 Siri 功能将随 iOS 26.4 在下月进入测试阶段,并计划于今年 3 月至 4 月间正式推送。 该版本 Siri 将运行在苹果的 Private Cloud Compute 服务器上,内部代号为 Apple Foundation Models version 10,规模约为 1.2 万亿参数。 更大幅度的升级将在今年 WWDC 亮相。苹果正开发代号「Campos」的全新 Siri 架构,将在 iOS 27、iPadOS 27 与 macOS 27 中推出,具备更强的上下文理解、持续对话能力,并深度整合至 Safari、TV、Health、Music、播客等核心应用。 与此同时,苹果内部的 AI 组织也在经历重大调整。随着原机器学习与人工智能战略高级副总裁约翰・吉安南德雷亚离职,软件工程负责人克雷格・费德里吉接管 AI 方向,并推动与 Google 的合作落地。 部分原有项目,如基于内部模型的「全球知识问答」与 AI 版 Safari 升级计划已被缩减或暂停,但仍可能在 WWDC 前重启。 报道还提到,苹果正讨论让未来版本的 Siri 直接运行在 Google 云端的 TPU 上,以提升性能与响应速度。同时,苹果仍在开发更高性能的自研服务器,以支持长期的云端 AI 布局。 苹果自去年推出 Apple Intelligence 以来,新增的 AI 功能相对有限,仅在 Apple Music 与 Apple Watch 等应用中上线少量更新。 随着内部模型研发受阻、人才流失加剧,以及 Siri 延宕多时的升级计划迟迟未能落地,苹果在去年下半年重新评估其 AI 路线,并最终决定与 Google 达成合作,将 Gemini 引入 Siri 与 Apple Intelligence 的底层架构。 随着新一代 Siri 即将亮相,苹果正试图在生成式 AI 竞争中缩小与 ChatGPT、Gemini 等产品的差距。 ( @APPSO) 2、银河通用成为 2026 春晚指定具身大模型机器人 昨天,中央广播电视总台和银河通用机器人共同宣布,银河通用机器人成为 2026 年春节联欢晚会指定具身大模型机器人。 银河通用机器人表示,公司长期聚焦具身大模型与人形机器人研发,已形成覆盖零售、工业、医疗、文旅等多行业的「机器人服务生态」。 公司通过自研具身大模型体系与高可靠人形机器人本体,在复杂场景中展现出自主决策、泛化能力与抗干扰性能,为人机协作提供可规模化落地的技术路径。 近期,银河通用完成 3 亿美元融资,估值突破 30 亿美元,继续位列国内具身智能企业前列。公司表示,将借助春晚这一国家级舞台展示具身智能的前沿成果,并以更具温度的交互体验呈现科技创新的现实价值。 随着春节临近,银河通用的人形机器人已在零售、文旅等场景以多种形式亮相,从太空舱咖啡服务到地方特色舞蹈表演,成为今年「科技年味」的重要组成部分。 ( @APPSO) 3、前 Google 团队创办 Sparkli:已完成 500 万美元融资,用生成式 AI 重构儿童「沉浸式」学习体验 由前 Google Area 120 内部孵化器核心成员联合创办的教育科技初创公司 Sparkli,旨在解决通用大模型在儿童教育场景中文本堆砌的交互痛点。公司已完成由瑞士风投 Founderful 领投的 500 万美元 Pre-Seed 轮融资。 核心产品逻辑与差异化: 安全护栏与教学法融合: 商业化进展与路线图: ( @TechCrunch) 4、Interactpitch:交互式 AI 演示,实时数据追踪 Interactpitch 将静态融资演示文稿转化为由 AI 智能体引导的交互式体验。通过集成自定义虚拟人和实时数据追踪,该工具允许创始人在正式会议前通过 AI 与投资者进行异步沟通,并获取关于观众关注点、参与深度及潜在问题的结构化反馈。 相关链接: ( @Product Hunt) 1、雷蛇 CEO:我们投了 6 亿美元,但玩家还是讨厌生成式 AI 雷蛇 CEO 陈民亮近日在 The Verge 旗下播客节目《Decoder》中谈及游戏行业对生成式 AI 的普遍反感情绪,并回应公司在 AI 方向上的大规模投入。 他表示,雷蛇已在 AI 技术上累计投入约 6 亿美元,但玩家对低质量生成式内容的排斥依旧强烈,这也是当前行业矛盾的核心。 陈民亮指出,玩家真正不满的是「生成式 AI 产出的垃圾内容」,包括角色模型畸形、剧情质量低下等问题。 他强调,雷蛇与玩家立场一致,反对以少量提示词批量生成低质量内容。他认为 AI 的价值应体现在「辅助开发者」而非「替代创作」,例如提升 QA 测试效率、自动记录 Bug、检查拼写错误等,这些都能帮助开发者更快、更好地完善游戏。 在节目中,陈民亮进一步解释了雷蛇的 AI 战略。他透露,公司计划招聘 150 名 AI 工程师,并将 AI 视为一场长期押注,希望借此抵御市场炒作周期与玩家情绪波动。 他同时强调,雷蛇的 AI 布局并非局限于生成式内容,而是贯穿硬件、软件与服务生态,包括智能耳机 Motoko、AI 角色 Ava 等概念产品。 对于外界关注的 AI 安全与情感依赖问题,陈民亮表示,Ava 目前仍处于概念阶段,公司会在正式推出前持续收集反馈并强化安全机制。 他强调,雷蛇不会鼓励用户与 AI 角色建立情感依赖关系,产品的核心目标仍是提供实用价值与更自然的交互体验。 在硬件层面,他提到行业正面临内存与 GPU 成本上涨的压力,雷蛇尚无法确定未来产品的最终定价。 此外,他认为 AI 将成为未来硬件的重要组成部分,但雷蛇的策略是通过开放、多模型支持与自研上下文系统,构建面向玩家的垂直生态,而非与模型提供商直接竞争。 ( @APPSO) 阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么 写在最后: 我们欢迎更多的小伙伴参与 「RTE 开发者日报」 内容的共创,感兴趣的朋友请通过开发者社区或公众号留言联系,记得报暗号「共创」。 对于任何反馈(包括但不限于内容上、形式上)我们不胜感激、并有小惊喜回馈,例如你希望从日报中看到哪些内容;自己推荐的信源、项目、话题、活动等;或者列举几个你喜欢看、平时常看的内容渠道;内容排版或呈现形式上有哪些可以改进的地方等。 作者提示: 个人观点,仅供参考
01 有话题的技术





https://clawd.bot
https://clawd.bot/showcase
https://github.com/clawdbot/clawdbot02 有亮点的产品


03 有态度的观点




在人工智能大规模进入产业实践的进程中,2026 年被普遍视为一个关键拐点。 这不是交互形态的升级,而是系统架构与价值逻辑的根本变化。 过去,AI 更多以“外挂”的形式存在: 而今天,AI 正在被直接编排进系统内部逻辑之中。 当 AI 成为系统能力时,它不再依附于按钮或对话框,而是作为底层引擎参与决策、调度与执行,自动响应业务状态的变化,形成完整的运行回路。 系统开始“自己做事”,而不是“等人操作”。 1. 推理能力的工程化落地 AI 不再只是生成内容,而是能够对任务进行结构化拆解,处理具备因果关系的业务判断节点。 2. 组织级记忆的接入 通过检索增强与私有知识融合,AI 能够实时访问企业数据、历史决策与合规规则。 3. 执行能力形成闭环 当 AI 可以直接调用系统工具、操作业务接口、完成动作并接收结果反馈时,它便具备了独立完成任务的能力。 当 AI 成为系统能力,业务系统的构建方式随之改变: 一个系统是否先进,已不取决于集成了多少 AI 功能,而在于: 企业数字化的终点,并不是为每个人配置一个“更聪明的助手”, AI 从工具走向能力,是生产力工具向生产要素转变的必然路径。
AI 的角色,正在从被调用的“外部工具”,转变为驱动业务运行的“系统级能力”。一、从工具到能力:AI 的位置正在发生变化
被用户主动唤起,输出建议、文本或分析结果,再由人类判断与执行。二、三项底层能力,让 AI 进入系统核心
当推理具备稳定性,AI 才能被允许进入关键流程。
这使 AI 从通用模型,转变为具备岗位上下文的系统组成部分。
智能体来了,系统开始具备自主完成工作的可能性。三、业务逻辑的重构:以 AI 为原生运行机制
系统在后台持续感知数据变化,自主规划与执行,仅在关键节点介入人工确认。
业务不再完全依赖固定流程,而是由系统理解意图后动态编排执行方案。
通过结果反馈,系统持续修正决策参数,形成演进式业务逻辑。四、判断标准正在改变
是否以 AI 为核心,构建了可自动运行的业务闭环。
维度 辅助工具形态 系统能力形态 触发方式 人工显式调用 系统自动感知 交付结果 建议与内容 状态改变与任务完成 人机关系 高频交互 低频干预 核心价值 提效个人 放大组织吞吐量 五、结语
而是构建一套能够自我感知、自我规划并自主执行的智能系统。
在日常的软件开发和办公自动化场景中,文档格式转换是一个普遍且重要的需求。无论是从结构化的 Word 文档中提取纯文本信息,还是将纯文本内容格式化为可编辑的 Word 文档,高效、准确地实现这两种格式的互相转换,是许多开发者面临的痛点。本文将深入探讨如何在 Java 环境下,借助一个功能强大的库,轻松解决 Word 和 TXT 之间的转换难题,提升您的开发效率。 在 Java 生态中,处理 Word 文档的库并不少见,但 Spire.Doc for Java 凭借其强大的功能和易用性脱颖而出。它是一个专业的 Word 文档处理组件,支持创建、读写、编辑、转换和打印 Word 文档,并且兼容多种 Word 版本。其中,对 Word 和 TXT 格式的互相转换提供了非常便捷的 API。 要开始使用 Spire.Doc,您需要将其作为依赖添加到您的 Maven 项目中。 Maven 配置示例: 请确保您使用的版本是最新的稳定版本,以获取最佳的兼容性和功能。 将 Word 文档转换为纯文本(TXT)是一个常见的需求,例如用于内容提取、文本分析或跨平台传输。Spire.Doc for Java 提供了一行代码即可完成此操作。 代码解析: 将纯文本(TXT)文件转换为 Word 文档,通常是为了对其进行格式化、添加图片、表格或其他富文本元素。Spire.Doc 同样能轻松实现这一目标。 代码解析: 格式调整建议: 将 TXT 转换为 Word 后,默认情况下可能只是简单的文本导入。如果需要更复杂的格式,例如设置字体、段落样式、页眉页脚等,Spire.Doc 也提供了丰富的 API 来实现这些功能,您可以在 通过本文的详细介绍和代码示例,相信您已经掌握了在 Java 中使用 Spire.Doc for Java 库实现 Word 和 TXT 文档互相转换的关键技术。该库以其简洁的 API 和强大的功能,为 Java 开发者提供了一个高效、可靠的文档处理解决方案。无论是日常的数据处理,还是复杂的办公自动化系统,Spire.Doc 都能助您一臂之力。鼓励您在实际项目中尝试应用这些技术,并进一步探索该库在 Word 文档处理方面的更多高级功能,例如文档合并、拆分、内容替换、表格操作等,以满足更复杂的业务需求。Spire.Doc for Java:Word 与 TXT 转换的利器
引入 Spire.Doc for Java
<repositories>
<repository>
<id>com.e-iceblue</id>
<name>e-iceblue</name>
<url>https://repo.e-iceblue.cn/repository/maven-public/</url>
</repository>
</repositories>
<dependencies>
<dependency>
<groupId>e-iceblue</groupId>
<artifactId>spire.doc</artifactId>
<version>14.1.3</version>
</dependency>
</dependencies>从 Word 到 TXT:逐步实现文档内容提取
实现步骤:
Document 类的 loadFromFile() 方法加载目标 Word 文档。saveToFile() 方法,并指定输出路径和 FileFormat.Txt 格式。dispose() 方法释放文档对象占用的资源。Java 代码示例:
import com.spire.doc.Document;
import com.spire.doc.FileFormat;
public class ConvertWordtoText {
public static void main(String[] args) {
// 创建 Document 对象
Document doc = new Document();
// 加载 Word 文件
doc.loadFromFile("示例.docx");
// 将文档保存为 TXT 格
doc.saveToFile("Word转文本.txt", FileFormat.Txt);
// 释放资源
doc.dispose();
}
}document.loadFromFile(inputWordPath): 负责读取指定路径的 Word 文档内容。document.saveToFile(outputTxtPath, FileFormat.Txt): 这是转换的核心。它将加载的 Word 文档内容以纯文本格式写入到 outputTxtPath 指定的文件中。FileFormat.Txt 枚举值明确指示了目标格式。document.dispose(): 释放资源,用于关闭文件流并释放内存,特别是在处理大量文档时。从 TXT 到 Word:构建富文本格式文档
实现步骤:
Document 对象即可。Document 类的 loadFromFile() 方法加载 TXT 文件。saveToFile() 方法,并指定输出路径和 FileFormat.Docx(或 FileFormat.Doc)格式。dispose() 方法释放文档对象占用的资源。Java 代码示例:
import com.spire.doc.Document;
import com.spire.doc.FileFormat;
public class ConvertTextToWord {
public static void main(String[] args) {
// 创建 Document 对象
Document txt = new Document();
// 加载 .txt 文本文件
txt.loadFromFile("介绍.txt");
// 将文件保存为 Word 格式
txt.saveToFile("TXT转Word.docx", FileFormat.Docx);
// 释放资源
txt.dispose();
}
}document.loadFromFile(inputTxtPath): 这里巧妙地利用了 spire.doc for java 的 loadFromFile 方法不仅可以加载 Word 文档,还能加载 TXT 文件并将其内容导入到 Document 对象中。document.saveToFile(outputWordPath, FileFormat.Docx): 将包含 TXT 内容的 Document 对象保存为 Word 格式。FileFormat.Docx 是现代 Word 文档的默认格式,您也可以选择 FileFormat.Doc。loadFromFile 之后、saveToFile 之前,对 document 对象进行进一步的编辑操作。结语
该岗位主要工作是构建 AI Agent 数字员工,使其自主完成高价值工作任务,包含前后端开发、基础设施管理等,涉及 RAG 、Prompt Engineering 、ReAct 、TypeScript 、Python 等相关技术。
需要熟练掌握如 Claude Code 或 Cursor 等 AI 工具,公司每月报销 AI 工具订阅费用。
18-25K * 15
深圳南山区软件园
简历请发送至 [email protected], 有任何疑问可以直接留言或者私信我
点赞 + 关注 + 收藏 = 学会了 在 n8n 中 AI Agent 默认只停留在“一次性交互”的层面。你问它一个问题,它精准回应,可当你接着上一个话题追问,或是隔一段时间再提起之前聊过的细节,它却像断了片一样,毫无印象,只能重新解释背景、重复需求。 比如我和它说了我叫什么名字,接着追问“我叫什么名字?”它立刻忘掉。 n8n 的「AI Agent 节点」其实已经提供了接入记忆能力的接口「Memory」。 点击「Memory」接口可以调用各种数据库,但前提是你已经安装了这些数据库。 n8n 提供了一个简单的数据库给我们使用:「Simple Memory」 如果你的需求不复杂,只想让AI有一点点记忆,用它就行。 打开「Simple Memory」的配置项,可以配置上下文窗口“Context Window Length”,数字越大记忆力越强,但占用的资源也更多。 根据你业务需求配置就行。 此时我们再测试一次。 它记住了! 以上就是本文的全部内容啦,想了解更多n8n玩法欢迎关注《n8n修炼手册》👏 点赞 + 关注 + 收藏 = 学会了整理了一个n8n小专栏,有兴趣的工友可以关注一下 👉 《n8n修炼手册》





点赞 + 关注 + 收藏 = 学会了 在使用 n8n 搭建自动化工作流时,读写本地文件是最基础也最常用的操作。 比如在互联网上拉了一些数据回来需要保存到本地。 比如上游同事把文件发你,你要将其加载到 n8n 里做一些处理。 如果你使用 Docker 部署 n8n,读写本地文件的配置请参考 《『n8n』一招解决“无法读写本地文件”》 我用一个例子讲讲如何将数据保存到本地。 要实现这两步,在 n8n 中的工作流长这样子⬇️ 先看看「Convert to File」的配置。 我将「HTTP 节点」请求回来的数据转成 Excel 文件,并将输出的对象放到一个 「Write Files from Disk」节点将上个节点传入的数据保存到我指定的位置: 注意, 保存成功后就可以在指定位置找到它了。 读取文件的思路就反过来了。 首先找到文件,然后再将内容解析出来,让其他节点可以看得懂这个文件的内容。 所以工作流长这样⬇️ 其实读取文件和写入文件都是用同一个节点(Read/Write Files from Disk),只是 在这个工作流中,「Read Files from Disk」的 可以看到它输出了一个 要让其他工作流读懂这个 在「Extract from File 节点」里,我们要正确设置 读取成功后,「Extract from File 节点」就会将内容输出给下一个节点。右侧面板就是读取到的内容。 以上就是本文的全部内容啦,想了解更多n8n玩法欢迎关注《n8n修炼手册》👏 如果你有 NAS,我非常建议你在 NAS 上部署一套 n8n,搞搞副业也好,帮你完成工作任务也好 《『NAS』不止娱乐,NAS也是生产力,在绿联部署AI工作流工具-n8n》 点赞 + 关注 + 收藏 = 学会了整理了一个n8n小专栏,有兴趣的工友可以关注一下 👉 《n8n修炼手册》
写入文件

鼠标点击 -> HTTP请求数据 -> 将数据格式化(Convert) -> 保存到本地(Write Files from Disk)
data 字段里。/home/node/.n8n-files/rw-test/posts.xlsx
posts.xlsx 是我保存的文件名和后缀格式。
读取文件

Operation 属性不一样而已。Operation 选择 Read File(s) From Disk,再指定一个文件路径就行了。data 。
data 里面写了什么内容,需要用到「Extract from File 节点」。Operation 的值,这个参数指的是现在读取到的文件对象它原本是什么格式(比如我这个是 Excel 文件,就用 Extract From XLSX,其他格式就用其他类型)。
点赞 + 关注 + 收藏 = 学会了 aipan(中文名叫“爱盼”)是一款开源免费的搜片工具。 本次使用群晖NAS做演示。 在“Container Manager”的「镜像仓库」里搜索“aipan”,下载“fooololo/aipan-netdisk-search”这个。 下载成功后,切换到「映像」,选择刚刚下载的 aipan,运行它。 「常规设置」这里勾选“启用自动重新启动”,勾选“通过 Web Station 设置网页门户”。 「高级设置」这里什么都不用改。 打开”Web Station“新增一个”网络门户“,相关配置项如下图所示。 这里我设置了 HTTP 的端口为 完成上面的操作后,打开浏览器,输入 比如我这里是 aipan 的搜出来的都是片子~ 以上就是本文的全部内容啦,想了解更多NAS玩法可以关注《NAS邪修》👏 最后推荐一下玩 NAS 的工友,在 NAS 上装一个 n8n 接入大模型,可以帮你定时定候完成各种工作,比如签到啦、写文章啦、生成海报和视频啦、自动发布到各大平台啦~ 想了解 n8n 的工友可以关注我的专栏👉 《n8n修炼手册》 点赞 + 关注 + 收藏 = 学会了整理了一个NAS小专栏,有兴趣的工友可以关注一下 👉 《NAS邪修》





2222,你可以设置要给不跟其他项目冲突的端口。
NAS的IP + aipan的端口 就可以使用 aipan 了。192.168.31.85:2222 。

由 OpenBuild 联合 SegmentFault、VibeFriends 和 Monad 共同发起,并携手 KIMI、智谱 AI、豆包编程、YouWare、阶跃星辰、Rokid、硅基流动、立创开源等多家顶尖 AI 公司举办的「Rebel in Paradise AI 黑客松」已正式拉开帷幕。这场聚焦"智能体时代原生基础设施、产品与市场"的深度探索之旅,现已面向全球开发者开放报名通道。 如果你的桌面还堆满关于 AI Agent 的技术文档却无处实践;如果你的脑海中早已构想出一个能够自动化工作流、创造价值的智能体应用却缺少舞台;如果你渴望与 Kimi、智谱 AI、豆包编程等一线团队的技术专家面对面交流,那么,你的机会来了。 这可能是智能体时代最后的"末班车" 过去一年,AI 智能体从概念走向落地,正在重塑工作方式与商业逻辑。但真正的创新浪潮才刚刚涌起。本次黑客松瞄准三大核心赛道,直击行业最前沿痛点: 赛道一:Agent-native Payments 智能体间的价值流转与支付协议、微支付系统、自动化结算方案------这是构建智能体经济系统的基石。 赛道二:Intelligent Markets 基于智能体的预测市场与交易系统,探索数据市场、算力市场、AI服务市场的全新可能性。 赛道三:Agent-powered Apps 由智能体驱动的下一代应用,从工作流自动化到个性化助手,再到协作工具,用代码定义未来。 👥** 报名与组队期:** 即日起 - 项目提交前均可报名组队 💻** 项目提交截止:** 2026年2月28日 23:59:59 ✅** 最终结果公布:** 2026年3月10日 立即报名 👉:https://rebel.openbuild.xyz 扫码参与 本次 Hackathon 以线上为主,开发者完全可选择全程线上参与,完成项目构思、开发与提交。同时我们也会在线下举办两场 Hacker Camp: 👉北京(1月31日): https://luma.com/irllzbeu?utm_source=ob_gzh 为开发者提供的额外深度交流与实战辅导机会,你可以将此视为一次与导师、队友线下碰撞火花的"加速器"。 无论你身在何处,均可参与线上环节,享受同等技术辅导、资源支持与评奖资格。当然,无论是否报名 Hackathon,也非常欢迎亲临线下活动现场,与数百名开发者同台交流。 💰**总奖池 $40,000:** $20,000现金 + $20,000 资源奖励 🔥稀缺资源支持: 包括 LLM Token、 NVIDIA DGX、顶尖公司参访机会等 🆙成长直通车: 一线AI公司技术专家辅导、投资人对接、项目孵化支持 💬社群与背书: 加入由高质量开发者、创业者和技术领袖组成的创新网络 智能体时代的竞争,已从"是否会使用工具"升级为"能否创造智能体"。这趟驶向未来的列车已经鸣笛,车厢里坐着Monad、Kimi、智谱AI的技术领袖,也坐着与你一样渴望用代码重塑世界的开发者。 别等到2月28日才后悔没报名。最好的开始时间,永远是现在。 扫码添加小助手,进群获取最新资讯、组队招募!! Q:可以纯线上参与,完全不参加线下活动吗? A:完全可以。 线上参与即可完成全部黑客松流程并获得完整资源支持。 Q:没有成型的项目或想法,可以报名吗? A:可以。 线下活动无门槛,线上黑客松最终需提交项目,但我们鼓励从0到1的探索,并设有相应辅导环节。 Q:如何组队? A:建议自行组队,也可在活动社群中招募队友。 Q:可以同时报名北京和深圳两场线下活动吗? A:可以。 Q:资源支持(算力、硬件等)如何申请? A:组队成功后即可提交申请。 Q:能选择多个赛道吗? A:可以多选,组委会将进行简单审核。 我们相信,下一个时代的"一人公司",将由智能体与你共同构建。 阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么
Rebel in Paradise AI 黑客松三大核心赛道
Hackathon 时间
如何参与

👉深圳(2月7日): https://luma.com/je6if25j?utm_source=ob_gzh为什么你必须把握这次机会?

快速答疑(Q\&A)
合作伙伴


