包含关键字 typecho 的文章

自动化越多,为什么IT反而更累?

在IT服务管理升级过程中,自动化几乎是所有企业都会重点投入的方向。无论是工单分配、通知提醒,还是审批流转,自动化工具的引入本应显著降低人工工作量。但现实情况却往往出人意料:自动化规则越多,IT团队反而越忙。ManageEngine卓豪 将为您解答这些问题!

例如,系统中设置了大量规则,但却频繁出现异常情况,需要人工介入处理;自动通知过多,反而增加沟通成本;复杂流程导致用户操作困难,从而增加支持请求。这些问题使自动化从“减负工具”变成“新负担”。

这种现象说明,自动化本身并不会自动提升效率,关键在于如何设计与使用。

问题根源:自动化以“技术逻辑”为中心,而不是“业务逻辑”

在很多企业中,自动化规则的设计往往由IT主导,并以技术实现为核心,例如条件触发、字段匹配与流程分支。这种方式虽然可以实现功能,但未必符合业务实际需求。

例如,某些流程在系统中被严格定义,但在实际操作中却存在例外情况,导致规则频繁失效;或者流程设计过于复杂,使用户难以理解,从而增加沟通成本。

当自动化脱离业务场景时,就很难产生真正价值。

真正有效的自动化,应该从哪里开始?

要实现有效自动化,企业需要从业务需求出发,而不是从技术能力出发。换句话说,应该先明确哪些问题需要解决,例如减少重复工作、提升响应速度或降低沟通成本,然后再设计相应规则。

例如,可以优先自动化高频、标准化程度高的流程,而不是一开始就覆盖所有场景;对于复杂流程,可以保留人工判断空间,从而避免规则冲突。

通过这种方式,企业可以逐步建立稳定的自动化体系,而不是一次性构建复杂系统。

ServiceDesk Plus 如何帮助企业“做对自动化”?

通过ServiceDesk Plus,企业可以基于实际业务场景灵活配置自动化规则,而不是依赖固定模板。系统支持可视化流程设计与规则管理,使IT团队能够更直观地调整策略。

同时,通过与SLA与数据分析结合,企业可以持续评估自动化效果,并进行优化。这种闭环机制,可以避免自动化失控或失效。

在下一部分中,我们将深入分析:如何通过优化自动化策略,让IT真正“少做事,而不是多做系统维护”。

常见问题(FAQ)

  1. 自动化是否越多越好?
    不是,应根据实际需求设计。
  2. 如何判断自动化是否有效?
    通过SLA与效率指标进行评估。
  3. 自动化失败的常见原因是什么?
    规则复杂、脱离业务场景与缺乏数据支持。
  4. 如何进一步了解自动化实践?
    可以参考ITSM解决方案获取更多信息。

注:本文含AI辅助创作。

32岁生日刚过半个月,我接到了HR的电话,让我去一趟会议室。我当时还在改一个紧急的线上bug,心里嘀咕着这时候找我干嘛,是不是又要让我背什么新的KPI?

到了会议室,里面坐着HR、我的直属leader,还有一个我从来没见过的法务。他们的表情都很严肃,我瞬间就慌了,脑子里开始飞速运转:我最近有没有犯什么错?项目是不是出了什么大问题?

HR先开口了:"XXX,经过公司的综合评估,我们决定对你进行优化。"

我当时脑子一片空白,过了好几秒才反应过来她在说什么。"优化",多么好听的词,说穿了就是裁员。我看着她,一句话也说不出来,只能下意识地问:"为什么?"

leader叹了口气,说:"公司业务调整,我们部门要缩减编制,你的绩效排名不太靠前,所以......

我还想再说什么,但法务已经把一份《解除劳动合同通知书》放在了我面前,说:"你可以先看一下,如果没有问题的话,在这里签个字。我们会按照N+1的标准给你赔偿。"

我拿起那份通知书,手一直在抖。上面的每一个字都像针一样扎在我的眼睛里:"因公司业务调整,经双方协商一致,解除双方于XXXX年XX月XX日签订的劳动合同。"

那天的阳光很刺眼,但我却觉得浑身冰冷。我在那个大厂待了8年,从一个刚毕业的毛头小子做到高级工程师,我把最好的青春都献给了这里,最后却落得这样一个下场。

二、走出办公楼的那一刻

签完字,HR让我收拾一下个人物品,她会派人陪我一起去工位。我回到工位,看着那些熟悉的电脑、键盘、鼠标,还有墙上贴的各种便签,眼泪终于忍不住掉了下来。

同事们都投来了同情的目光,但没人敢过来跟我说话。我知道,他们也怕自己是下一个。我默默地收拾着东西,把一些重要的文件拷贝到U盘里,把自己的私人物品装进一个纸箱里。

当我抱着纸箱走出办公楼的那一刻,我回头看了一眼那个我曾经奋斗过的地方,心里五味杂陈。我想起了刚入职的时候,每天都充满了干劲,觉得自己能在这里做出一番事业;我想起了加班到深夜,和同事们一起吃外卖的日子;我想起了项目上线成功,大家一起欢呼庆祝的时刻。

但现在,这一切都成了过去。我像一个被抛弃的孩子,站在人来人往的大街上,不知道该去哪里,也不知道该做什么。

三、那段黑暗的日子

从被裁员的那天起,我陷入了深深的自我怀疑和焦虑中。我每天都待在家里,不想出门,也不想见人。我不停地刷着招聘网站,投了无数份简历,但都石沉大海。

有时候我会想,是不是我真的老了,已经跟不上时代的步伐了?是不是我真的不够优秀,所以才会被公司淘汰?我甚至开始后悔,为什么当初没有多学点东西,为什么没有多攒点钱,为什么没有给自己留一条后路。

我的家人和朋友都在安慰我,让我不要灰心,说这只是暂时的困难。但我知道,他们的安慰对我来说并没有多大的作用,这种挫败感只有我自己才能体会。

那段时间,我每天都失眠,头发也掉了很多。我感觉自己像一个废人,什么都做不了,什么都不想做。

四、重新站起来的过程

就这样浑浑噩噩地过了一个多月,我终于意识到,我不能再这样下去了。我必须重新站起来,重新找回自己的信心和勇气。

我开始调整自己的心态,告诉自己被裁员并不是什么丢人的事,这只是职业生涯中的一个小挫折。每天都花几个小时来学习补充新的知识。

我也开始锻炼身体,每天早上都会去公园跑步,晚上会去健身房锻炼。身体上的锻炼让我感觉自己的精力越来越充沛,心情也越来越好了。

慢慢地,我开始收到一些面试邀请。虽然很多面试都失败了,但我并没有放弃。每一次面试我都会认真准备,总结经验教训,不断地改进自己。

<<<顺手说一个:有新的技术大厂在→要人,前后端和测试,一线城市及双一线城市几乎都有坑位,待遇稳定性都还成。感兴趣的可以瞅瞅

终于,在被裁员后的第三个月,我拿到了一家心仪公司的offer。虽然薪资比之前低了一些,但我觉得这是一个新的开始,一个重新证明自己的机会。

五、给所有职场人的建议

经历了这次被裁员的事情,我想给所有职场人一些建议:

建议一:保持危机意识

不要觉得自己在一个大厂待着就高枕无忧了,市场是随时变化的,公司也随时可能进行调整。
要不断地学习新的知识和技能,提升自己的核心竞争力,让自己在任何时候都有选择的权利。

建议二:不要把鸡蛋放在一个篮子里

不要把所有的希望都寄托在一份工作上,要给自己留一条后路。
可以利用业余时间发展一些副业,或者投资一些理财产品,增加自己的收入来源。

建议三:保持积极的心态

职场中难免会遇到挫折和困难,这时候保持积极的心态非常重要。
不要轻易放弃,要相信自己的能力,相信自己一定能够度过难关。

如果你也正在经历职场的低谷,不要灰心,不要丧气。相信自己,只要你不放弃,就一定能够重新站起来,迎接新的挑战。

在进行网络请求时,有时需要通过不同的IP地址来发起请求。本文将从技术实现角度,介绍在 Python 程序中切换出口 IP 的几种常见方法,包括代理IP轮换、多网卡绑定等方案,并提供完整的可运行代码。

运行环境

项目版本
操作系统Ubuntu 22.04 / macOS Ventura
Python3.8+
依赖库requests, aiohttp, itertools

方法一:代理IP轮换

这是最常见的方式,通过维护一个代理IP列表,在每次请求时轮换使用。
基础实现

import requests
from itertools import cycle

# 代理IP列表(示例格式)
PROXY_LIST = [
    'http://user:pass@proxy1.example.com:8080',
    'http://user:pass@proxy2.example.com:8080',
    'http://user:pass@proxy3.example.com:8080',
]

def fetch_with_rotation(url: str, max_attempts: int = 3):
    """
    轮换代理IP发送请求
    """
    proxy_cycle = cycle(PROXY_LIST)
    
    for attempt in range(max_attempts):
        proxy = next(proxy_cycle)
        proxies = {'http': proxy, 'https': proxy}
        
        try:
            response = requests.get(url, proxies=proxies, timeout=10)
            response.raise_for_status()
            print(f"使用代理: {proxy} - 状态码: {response.status_code}")
            return response.text
        except requests.exceptions.RequestException as e:
            print(f"代理 {proxy} 失败: {e}")
            continue
    
    raise Exception(f"所有代理尝试失败,共 {max_attempts} 次")

if __name__ == '__main__':
    result = fetch_with_rotation('https://httpbin.org/ip')
    print(f"响应: {result}")

预期输出

使用代理: http://user:pass@proxy1.example.com:8080 - 状态码: 200
响应: {"origin": "203.0.113.45"}

方法二:随机代理选择

从代理池中随机选取一个IP,适用于不需要严格按顺序轮换的场景。

import random
import requests

def fetch_with_random_proxy(url: str):
    """随机选择代理IP"""
    proxy = random.choice(PROXY_LIST)
    proxies = {'http': proxy, 'https': proxy}
    
    response = requests.get(url, proxies=proxies, timeout=10)
    return response.text

# 使用示例
for i in range(5):
    result = fetch_with_random_proxy('https://httpbin.org/ip')
    print(f"第{i+1}次请求: {result}")

方法三:基于失败率的动态切换

在实际应用中,某些代理可能失效。以下代码实现了失败自动切换机制:

import requests
from queue import Queue
from threading import Lock

class ProxyManager:
    """代理管理器,支持失败自动切换"""
    
    def __init__(self, proxy_list: list):
        self.proxy_list = proxy_list.copy()
        self.current_index = 0
        self.lock = Lock()
        self.failure_count = {p: 0 for p in proxy_list}
        self.max_failures = 3
    
    def get_current_proxy(self):
        with self.lock:
            proxy = self.proxy_list[self.current_index]
            return proxy
    
    def switch_to_next(self):
        with self.lock:
            self.current_index = (self.current_index + 1) % len(self.proxy_list)
            return self.proxy_list[self.current_index]
    
    def report_failure(self, proxy: str):
        """报告代理失败,累计失败次数"""
        self.failure_count[proxy] += 1
        if self.failure_count[proxy] >= self.max_failures:
            print(f"代理 {proxy} 失败次数达上限,将被移除")
            if proxy in self.proxy_list:
                self.proxy_list.remove(proxy)
        self.switch_to_next()
    
    def fetch(self, url: str, max_switches: int = 5):
        """使用管理器发送请求"""
        for _ in range(max_switches):
            proxy = self.get_current_proxy()
            proxies = {'http': proxy, 'https': proxy}
            
            try:
                response = requests.get(url, proxies=proxies, timeout=10)
                response.raise_for_status()
                return response.text
            except requests.exceptions.RequestException as e:
                print(f"代理 {proxy} 请求失败: {e}")
                self.report_failure(proxy)
        
        raise Exception("所有代理均失效")

# 使用示例
manager = ProxyManager(PROXY_LIST)
result = manager.fetch('https://httpbin.org/ip')
print(f"最终结果: {result}")

方法四:异步环境下的代理轮换

对于高并发场景,使用 aiohttp 配合异步轮换:

import asyncio
import aiohttp
from itertools import cycle

async def fetch_async(session: aiohttp.ClientSession, url: str, proxy: str):
    """异步请求函数"""
    try:
        async with session.get(url, proxy=proxy, timeout=10) as resp:
            return await resp.text()
    except Exception as e:
        return f"错误: {e}"

async def batch_fetch_with_proxy_rotation(urls: list, proxy_list: list):
    """批量异步请求,自动轮换代理"""
    proxy_cycle = cycle(proxy_list)
    connector = aiohttp.TCPConnector(limit=10)
    
    async with aiohttp.ClientSession(connector=connector) as session:
        tasks = []
        for url in urls:
            proxy = next(proxy_cycle)
            tasks.append(fetch_async(session, url, proxy))
        
        results = await asyncio.gather(*tasks)
        return results

# 使用示例
async def main():
    urls = ['https://httpbin.org/ip'] * 10
    results = await batch_fetch_with_proxy_rotation(urls, PROXY_LIST)
    for i, res in enumerate(results):
        print(f"请求{i+1}: {res[:100]}")

if __name__ == '__main__':
    asyncio.run(main())

方法五:多网卡环境下的源IP绑定

在服务器配置了多个物理网卡或多个IP地址的情况下,可以通过绑定源IP来实现IP切换:

import socket
import requests
from requests.adapters import HTTPAdapter
from urllib3.util.connection import create_connection

class SourceIPAdapter(HTTPAdapter):
    """自定义适配器,绑定源IP地址"""
    
    def __init__(self, source_ip: str, **kwargs):
        self.source_ip = source_ip
        super().__init__(**kwargs)
    
    def init_poolmanager(self, *args, **kwargs):
        kwargs['source_address'] = (self.source_ip, 0)
        super().init_poolmanager(*args, **kwargs)

def fetch_with_source_ip(url: str, source_ip: str):
    """使用指定源IP发送请求"""
    session = requests.Session()
    adapter = SourceIPAdapter(source_ip)
    session.mount('http://', adapter)
    session.mount('https://', adapter)
    
    response = session.get(url, timeout=10)
    return response.text

# 使用示例(假设服务器绑定了多个IP)
# result = fetch_with_source_ip('https://httpbin.org/ip', '192.168.1.100')
# print(result)

方法对比总结

注意事项

  1. 代理IP来源:本文示例中的代理地址为占位符,实际使用时需替换为有效的代理服务地址。
  2. 请求频率:合理控制请求频率,避免对目标服务器造成过大压力。
  3. 异常处理:生产环境建议增加更完善的异常处理和日志记录。
  4. 合规使用:请确保使用代理IP的行为符合目标网站的条款以及相关法律法规。

一、 禅道:国产全生命周期管理的性价比标杆

禅道作为国内项目管理软件的常青树,在2025年依然保持着强劲的竞争力。其核心优势在于“一站式”解决了研发团队的痛点,以极具竞争力的成本提供了企业级的功能服务,是降本增效的典型代表。
1. 全生命周期管理闭环
禅道最卓越的板块在于其​核心管理流程的全覆盖​。它不仅仅是一个任务分配工具,更是一个集产品管理、项目管理、质量管理(QA)、文档管理于一体的综合平台。这种设计打破了部门间的“数据烟囱”,从需求提出到产品发布,每一个环节都在系统内留痕。对于企业而言,这意味着无需购买多套零散工具,极大地降低了软件采购与维护的隐性成本。
2. 精细化权限与安全控制
在数据安全日益重要的当下,禅道提供了​极高颗粒度的权限管理体系​。管理员可以精确控制不同角色、不同部门对项目、模块甚至字段级别的访问权限。这种“按需分配”的机制,不仅保障了核心商业机密的安全,也避免了因权限混乱导致的误操作风险,从而降低了管理纠错的内耗成本。
3. 高性价比的私有化部署
禅道在成本控制上给予了企业最大的诚意。其开源版本功能已经相当完善,支持​企业进行私有化部署​,数据完全掌握在企业自己手中。这对于数据敏感型或预算有限的中小企业来说,是极佳的“降本”方案。即便是企业版,相比国际同类产品,其授权费用也更为亲民,且提供原厂技术支持,大幅降低了后续运维的人力投入。

二、 Jira:全球敏捷研发的“硬核”引擎

Jira依然是全球软件开发领域的行业标准,其强大的扩展性与敏捷支持的深度,使其成为大型技术团队不可或缺的生产力工具。
1. 强大的工作流引擎
Jira的核心壁垒在于其​高度可配置的工作流系统​。团队可以根据自身的开发模式(如Scrum或Kanban),设计出极其复杂的任务流转逻辑。每一个状态变更、每一个条件判断都可以被系统捕捉并执行相应动作。这种严谨的逻辑确保了研发流程的标准化,从源头上减少了因流程随意导致的返工浪费。
2. 敏捷开发深度支持
对于追求快速迭代的团队,Jira提供了​原生的敏捷看板与报表​。燃尽图、速率图等敏捷指标一应俱全,帮助团队实时复盘迭代效率。通过数据驱动的方式,管理者可以精准识别开发过程中的瓶颈,优化资源配置,实现研发效能的持续提升。
3. 庞大的插件生态系统
Jira拥有业界最丰富的​插件市场​。无论是代码集成、自动化测试还是服务台支持,企业都可以通过安装插件来扩展功能。这种“搭积木”式的架构,使得Jira能够适应企业不同发展阶段的需求,避免了频繁更换系统带来的迁移成本,是一项长期可靠的资产。

三、 Microsoft Project:经典项目控制的“定海神针”

对于工程、制造等传统行业,Microsoft Project(MS Project)凭借其无可替代的计划编制能力,依然是复杂项目管理的首选权威工具。
1. 专业的甘特图与排程引擎
MS Project拥有业界最强大的​甘特图计算引擎​。它支持关键路径分析、资源平衡以及复杂的任务依赖关系设定。在超大型项目中,人工排程几乎不可能,而MS Project能通过算法自动优化工期,避免资源冲突,确保项目按时交付,这是最大的“增效”。
2. 精细化资源与成本管理
区别于轻量级工具,MS Project在资源与成本核算方面做到了极致。管理者可以录入人员工时费率、材料成本,系统会自动汇总项目预算与实际消耗。这使得项目管理从单纯的“管事”上升到“管钱”,为企业提供了精准的成本控制依据。
3. 无缝的Office生态集成
MS Project与​Office 365生态深度融合​。项目计划可以直接发布到SharePoint,任务同步至Outlook,报表导出至Excel。对于习惯了微软办公套件的企业来说,这种无缝集成极大地降低了学习成本和沟通门槛,让团队协作更加顺畅。

四、 Asana:以人为本的团队协作中枢

Asana以其简洁优雅的界面和人性化的交互设计,成为市场、运营及创意团队提升协作效率的利器。
1. 多维度视图自由切换
Asana允许用户在同一项目中​一键切换列表、看板、时间轴和日历视图​。这种设计照顾到了不同角色的关注点:项目经理看时间轴把控进度,执行人员看列表聚焦待办。灵活的视图切换减少了信息筛选的时间,让每个人都能快速找到自己的工作重点。
2. 智能任务依赖与提醒
项目延期往往是因为上下游衔接不畅。Asana提供了​直观的任务依赖设定​,当上游任务延期时,系统会自动通知下游负责人。此外,其智能提醒功能会根据截止日期主动推送消息,避免了人工催办的尴尬与低效,让团队协作如齿轮般精密咬合。
3. 目标与战略对齐
Asana不仅关注任务执行,更引入了​Goals(目标)模块​。团队可以将日常任务与公司的年度战略目标关联。这种“所见即所得”的目标对齐机制,让员工清晰感知工作价值,避免了“为了做任务而做任务”的低效忙碌,从精神层面提升了团队产出。

五、 Monday.com:可视化工作流的高效创新者

Monday.com以其极具视觉冲击力的界面和高度自定义的特性,重新定义了项目管理的用户体验,让工作变得透明且有趣。
1. 高可视化的状态管理
Monday.com将枯燥的表格变成了​色彩丰富的可视化看板​。通过不同颜色的状态列、进度条,项目健康状况一目了然。管理者无需翻阅详细报告,仅凭颜色即可判断风险点。这种可视化的设计大大缩短了信息获取时间,提升了管理决策效率。
2. 强大的自动化配方
为了减少重复性劳动,Monday.com内置了​丰富的自动化配方​。例如“当状态变为完成时,自动通知项目经理”。用户无需懂代码,只需简单配置即可实现流程自动化。据测算,这些自动化流程能为团队节省大量手动操作时间,直接体现为人力成本的降低。
3. 跨部门协作看板
Monday.com打破了部门壁垒,支持构建​跨职能的工作看板​。销售、市场、研发可以在同一个平台上共享进度,数据实时同步。这种透明的协作机制消除了信息不对称带来的沟通成本,加速了业务流转。

六、 Trello:极简看板管理的效率先锋

Trello是看板管理方法的忠实实践者,以其极简的操作逻辑,成为无数小微团队和个人项目管理的首选。

1. 直观的拖拽式看板

Trello的核心是**“看板-列表-卡片”三层结构。操作极其简单,用户只需拖拽卡片即可更新任务状态。这种符合直觉的交互设计,让新团队成员上手时间几乎为零,极大降低了培训成本。

2. 灵活的Power-Up插件体系

虽然本体简单,但Trello通过Power-Up插件赋予了其无限可能。无论是接入Google Drive文件,还是开启投票功能,团队都可以按需加载。这种“按需付费”的模式,避免了为不需要的功能买单,是极致的“降本”思维。

3. 团队沟通透明化

Trello将讨论、附件、检查清单**全部集中在卡片内。所有关于任务的沟通都有迹可循,避免了信息散落在微信、邮件等不同渠道。这种“任务即沟通”的模式,确保了信息的完整性,减少了反复确认的时间浪费。

七、 Smartsheet:电子表格的企业级进化

Smartsheet巧妙地结合了电子表格的易用性与企业级项目管理的强大功能,是习惯Excel管理的团队转型的最佳选择。
1. 熟悉的表格界面与增强功能
Smartsheet采用了用户​极度熟悉的电子表格UI​,上手零门槛。但在表格之下,它隐藏了甘特图、附件、提醒等项目管理能力。这种设计让企业在不改变操作习惯的前提下,享受到了专业工具的红利,转型成本极低。
2. 行级附件与证明管理
在审批流程中,Smartsheet的行级附件功能尤为实用。每一行任务都可以挂载合同、发票等凭证,审批人可直接查看。这种将文档与数据深度绑定的方式,解决了传统管理中“数据与资料分离”的痛点,提升了审核效率。
3. 企业级安全与合规
对于大型企业,Smartsheet提供了​完善的安全管控体系​,包括审计日志、权限分级等。它符合SOC等国际安全标准,确保了企业在享受便捷的同时,数据资产得到严密的保护。

八、 ClickUp:一站式生产力平台新贵

ClickUp以“一个应用替代所有应用”为愿景,集成了任务、文档、目标、聊天等功能,适合追求极致效率的工具控团队。
1. 多层级层级结构
ClickUp设计了独特的​Space-Folder-List-Task层级结构​,能够完美适配从公司战略到个人待办的各种颗粒度。这种层级化的管理帮助团队在复杂的业务中理清脉络,避免了任务混乱导致的管理失控。
2. 文档与任务一体化
ClickUp内置了​强大的文档系统​,支持在文档中直接插入任务、创建看板。团队可以在撰写方案的同时,将其转化为可执行的任务,实现了从策划到执行的无缝衔接,减少了工具切换带来的注意力分散。
3. 高度自定义字段
ClickUp允许用户​自定义各种字段类型​,如货币、评分、进度等。这使得ClickUp能够模拟出CRM、Bug追踪系统等多种工具的形态,真正实现了“一物多用”,为企业节省了购买其他垂直软件的费用。

九、 Zoho Projects:高性价比的SaaS全能选手

作为Zoho全家桶的重要一员,Zoho Projects凭借高性价比和强大的集成能力,成为中小企业数字化转型的稳健之选。
1. 智能甘特图与规划
Zoho Projects提供了​交互式的智能甘特图​,支持自动排程和关键路径识别。当项目计划发生变更时,系统能智能调整后续任务,帮助管理者轻松应对变化,确保项目如期交付。
2. 深度集成Zoho生态
如果企业使用Zoho CRM或Books,Zoho Projects将展现出​巨大的生态优势​。项目数据可与客户信息、财务账单打通,实现从商机到交付再到回款的全流程数字化闭环,极大提升了业务流转效率。
3. 自动化规则与蓝图
通过​蓝图功能​,Zoho Projects帮助企业规范业务流程。管理者可以可视化地定义任务流转规则,确保标准作业程序(SOP)在团队中严格执行,减少了因人员能力差异导致的质量波动,实现了管理复制的“增效”。

当用户访问你的网站时,屏幕上赫然出现“SSL握手失败”或“ERR_SSL_PROTOCOL_ERROR”——几十秒的转圈后,页面拒绝加载。用户直接流失,而你可能连问题出在哪里都不知道。

所谓SSL握手,就是用户浏览器(客户端)与你的网站服务器之间的一次“加密握手”,双方就通信协议版本、加密套件、证书身份达成一致,才会真正建立HTTPS连接。这个环节一旦卡住,用户永远看不到你的网站内容。

真相一:证书过期、不完整或域名对不上

这是最冤大头的问题。很多网站管理者买了SSL证书,安装后就不管了,结果证书悄悄过期了都不知道。还有的人下载证书时只拿了服务器证书,忘了把中间证书链一起配置上去,导致浏览器无法验证证书的合法性。更常见的错误是,证书绑定的域名和你当前访问的域名不一致——比如证书是 www.abc.com,用户访问的却是 abc.com,握手一样会失败。

真相二:客户端与服务器的“语言”不统一——TLS版本冲突

每个浏览器和操作系统支持的TLS协议版本都不一样。老旧设备可能只懂TLS 1.0或1.1,而如今大多数安全网站已禁用这些过时版本,只允许TLS 1.2及以上。当一台老旧的Windows 7电脑配上旧版浏览器访问你的网站时,双方找不到一个共同支持的版本,握手自然失败。

真相三:服务器系统时间“穿越”了

这是一个容易被忽略的物理问题。SSL证书有明确的有效期起止时间,而浏览器判断证书是否有效,依赖的是客户端和服务器各自的系统时钟。如果你的服务器时间比真实时间慢了半小时,或者快了一整天,证书就可能被判定为“尚未生效”或“已过期”。明明刚买的证书,却因为时间错位而拒连,实在冤枉。

真相四:中间设备“好心办坏事”

很多网站架构中都有反向代理、负载均衡器、Web应用防火墙或CDN。这些设备会代替源服务器与客户端进行SSL握手。如果源服务器与这些中间设备之间的证书配置不一致,或者中间设备自身的TLS版本设置过于苛刻,握手请求就会在半路被截断。更麻烦的是,这类故障往往只在特定网络环境下出现,排查起来非常困难。

告别拒连:选对证书、配好服务才是根本

以上所有问题的核心,都指向一件事:你需要一张可靠、兼容性好、配有专业支持的SSL证书。选择正确的服务商JoySSL,提供国内一线品牌的SSL证书,涵盖单域名、多域名、通配符证书,同时配有专业的配置指导。无论你是遇到握手失败、证书不匹配,还是不知道如何部署中间证书,我们的工程师都能帮你一步步搞定,全程无需你敲一行代码

JeecgBoot AI专题研究 | andrej-karpathy-skills:给 AI 编程立规矩,外加一分钟安装指南

一个反常识的 GitHub 现象

最近 GitHub 趋势周榜的第一名,不是新框架,也不是新模型,而是一份不到 70 行的 Markdown 文件——项目名叫 andrej-karpathy-skills,一周拿下 4.5 万星,到目前已经累计 62.2k+。

andrej-karpathy-skills GitHub 截图

它没有复杂的代码,核心就是一个 CLAUDE.md,用来给 Claude Code、Cursor 这类 AI 编程工具立规矩,治一治它们乱写代码的毛病。

Karpathy 的吐槽,和它的起源

项目的灵感来自 Andrej Karpathy(前特斯拉 AI 负责人、OpenAI 创始团队成员)一月份在 X 上发的一条长推,阅读量逼近 800 万。他把自己用 AI Agent 写代码遇到的坑总结了一遍,几句话让无数开发者拍案:

模型会代你做错误假设,然后不假思索地执行。它们不管理自身的困惑,不寻求澄清,不呈现矛盾,不展示权衡。

它们真的很喜欢把代码和 API 搞复杂,堆砌抽象概念,不清理死代码……明明 100 行能搞定的事情,非要实现成 1000 行的臃肿架构。

它们有时仍会改动或删除自己理解不足的代码和注释,即使这些内容与任务本身无关。

开发者 Forrest Chang 把这些吐槽翻译成了模型能执行的规则,压缩成四条原则,写进了 CLAUDE.md。就这么一份文件,成了本周最火的开源项目。

四条核心原则

1. 编码前思考(Think Before Coding)

遇到歧义必须先问、先呈现权衡,而不是默不作声地猜需求。

2. 简洁优先(Simplicity First)

坚持最小可行实现:不加未请求的功能,不做一次性抽象。50 行能写完,绝不写 200 行。

3. 精准修改(Surgical Changes)

只改必须改的地方。不允许借"顺手优化"之名 reformat 相邻代码。每一行改动都能追溯到用户的原始请求。

4. 目标驱动执行(Goal-Driven Execution)

把"修复 Bug"改成"先写一个能复现 Bug 的测试,再让它通过"——可验证的目标,而不是模糊的命令

四条加起来,就把 AI 编程需要的纪律压缩进了模型能直接读懂的规则集。

快速安装(一分钟搞定)

项目提供了两种安装方式,取决于你用的是 Claude Code 还是其他工具。

方式一:Claude Code 插件(推荐)

Claude Code 用户直接用插件市场安装,两条命令即可:

# 1. 添加 marketplace
/plugin marketplace add forrestchang/andrej-karpathy-skills

# 2. 安装 skill
/plugin install andrej-karpathy-skills@karpathy-skills

安装完成后,skill 名字会变成 andrej-karpathy-skills:karpathy-guidelines,在你写代码、审代码、重构时自动激活,把四条原则注入到 Claude 的行为底盘里。

方式二:手动粘贴 CLAUDE.md(通用)

不用插件、或者用的是 Cursor / 其他 AI 工具,就直接把仓库里的 CLAUDE.md 拷到项目根目录:

# 项目根目录执行
curl -o CLAUDE.md https://raw.githubusercontent.com/forrestchang/andrej-karpathy-skills/main/CLAUDE.md

Cursor 用户把同样的内容粘到 .cursorrules 即可——这套规则本身是跟具体工具解耦的。

装完随便开一个新任务,你会明显感觉到:AI 不再乱铺抽象,不再顺手 reformat 代码,遇到歧义会先停下来问你。

实战感受

用过的开发者反馈大致一致:

  • 长任务成功率明显提升,因为 Agent 不再"想到哪写到哪"
  • 代码体积变小,AI 不再热衷堆抽象层
  • code review 压力骤降,每次改动都更聚焦
  • 轻微副作用:琐碎任务会因为多一步"先确认"而稍微变慢,可以接受

本质上它是一份高级提示词规则集,效果仍依赖底层模型的指令执行力——配 Claude 4.7 和配某些开源 7B 模型差距巨大。它解决的是"行为问题",不是"工程问题";权限、沙箱、测试基础设施这些仍得自己搭。

结语

andrej-karpathy-skills 的爆火不是一次"奇迹",而是一次极其精准的翻译——把 AI 大神对 Agent 乱象的吐槽,翻译成了模型能照着执行的纪律。

在 AI 编程逐步成为主流工作流的今天,懂得给 Agent 立规矩的人,可能比会写 Agent 的人更有竞争力。如果你今天还在被 AI 工具"乱改一通"的副作用折磨,花一分钟把它装上,立刻能感受到"管教过的 AI"和"野生 AI"的差距。

项目地址:https://github.com/forrestchang/andrej-karpathy-skills


本文为 JeecgBoot AI 专题研究系列文章。

广东湛江的冬天最多也就是湿冷,套件羽绒服就能对付。东北不一样,东北的冷是物理穿透,屋里的热是魔法攻击。

我坐在老丈人家的火炕上,空气干得我直想流鼻血。电视机开着,没人看,纯粹当个白噪音。我媳妇在旁边剥砂糖橘,皮扔了一桌子。

失业一年多了。从 24 年那阵子被裁,到现在,一直就这么飘着。

以前总觉得前端这碗饭能吃挺久。每天对着电脑调像素,搞交互,为了一个组件的复用性跟产品经理吵个脸红脖子粗。后来 AI 出来了。一开始大家还当个高级玩具,没过多久,只要把需求喂进去,它写的页面结构比我都干净,连 CSS 动画都给你安排得明明白白。

前端没了。没得挺突然,但也挺理所当然。

最扯的是,就在这最没底气、最不知道明天该干嘛的节骨眼上,我结了婚,还跟着媳妇回了这趟东北老家过年。

没收入的成年人在亲戚堆里是习惯性隐身的。我尽量少说话,多干活。帮着端盘子,拿碗。

东北的年夜饭硬菜多,铁锅炖、杀猪菜,但那天晚上,我吃得最多的是白米饭。

那是老丈人自己种的,胜利村的米。没有超市里那种乱七八糟的抛光打蜡,煮出来就是单纯的饭香。米粒泛着油光,嚼在嘴里有点弹牙,咽下去带点回甘。

突然觉得挺魔幻。大城市的代码写不下去了,写字楼里的工位被机器顶了,结果跑到这冰天雪地的东北,吃着老丈人种的饭,顺手接了个人生的新“需求”。

生活没给我发什么转行的武林秘籍,我也还是不知道以后长久的路怎么走。但至少,饭还得一口一口吃,事还得一件一件做。

IMG_4674.HEIC

当起了东北的女婿,也想聊聊南北的差异:

一开始对东北有一定的滤镜,以为东北人都是热情大老伙,受小时候看的电视剧《东北一家人》以及东北雨姐影响,原来也有媳妇他爸这种老老实实,不喜欢在大伙面前说话的,他爸那边家人都是这类型性格,媳妇他妈刚好是能一直说话的那种,能量真足,我媳妇刚好处于中间,东北人说话有时候就跟捧梗一样,贼逗,跟小品一样,怪不得春晚收视率东北独占前列。

东北真是基本独生子女,地位极高,不像我粤西一家基本三个娃以上,你能读的得上书就供你,读不了拉倒。

东北的坟墓都在地里,几个小土堆,立个碑,不像粤西还得坟琢,水泥,后山碑,我问清明节咋过,他们不过,就是过年去扫一下烧纸,蜡烛都不在坟里烧,就只烧纸,媳妇她奶过年都只在十字路口写上奶她妈的名字直接烧。

我媳妇是山东闯关东去的东北,刚好落在哈尔滨五常,那边的地真大,屯子和镇的房子真的查重率 80%,街道屋子都一样,他们过年喜欢挂彩灯,南方很少挂吧,至少在粤西,他们挂彩灯笼的时候,我看着就像中式恐怖片一样,可能小时候香港僵尸片看多了

还有最让我不解的是那边酒席最后才上筷子。。

如果你们也吃腻了外卖,或者也像我一样,在不知道下一步该怎么走的烂摊子里觉得心烦,可以尝尝这米。胜利村的,我老丈人自己种的。

没加什么科技与狠活,就是实实在在的五常稻花香 2 号大米。虽然我现在是个被 AI 干碎的失业前端,但自从吃了这五常大米,回不了头了,不知为啥这么香和有弹性。

岳父自己做的包装,好几款,有印了自己的照片当包装。具体分几种

编织袋(无真空) 7.8 元/斤

右边是编织袋,左边是礼盒装

塑封装(真空) 8.8 元/斤



礼品盒(真空) 9.8 元/斤


想尝尝的可以加我绿色泡泡,真名还是挡一下

“Claude 正在自掘坟墓。它自认为是 AI 公司中的苹果。”

 

“Claude AI,你们无缘无故封掉了我们整个组织,涉及 60 多个属于正规公司的账号,却没有给出任何解释。申诉这件事居然只能通过填写一个 Google 表单来处理?这用户体验和客户服务也太差了。”

 

Belo App CTO Pato Molina 发贴控诉,并配上了 Claude 回复的邮件。

报道显示,Belo 当前在拉丁美洲的用户数已超过 300 万,2025 年平台交易量超过 10 亿美元。

 

Molina 表示,“Anthropic 以涉嫌违反其使用条款为由,决定关闭我们整个组织的账号。至于我们具体违反了哪一条政策,我完全不清楚:我们只是收到一封邮件,然后就结束了,Claude 账号 直接被封。如果想申诉,居然还得去填一个 Google 表单,听起来就很离谱。”

 

“60 多人一下子失去了完成工作的核心工具。各种集成、skill、对话历史,要么全部丢失,要么被无限期冻结。这对任何在关键业务流程中依赖 AI 工具的软件公司来说,都是一个巨大的教训:永远不要把所有鸡蛋放在一个篮子里。”

 

“除了糟糕的用户体验和完全没有解释之外,这种做法其实是在直接伤害 Anthropic 自己的营收。他们刚刚封禁了一整家正规公司,涉及 60 多个付费账号,全部都在订阅和使用 API。这些都是真实客户带来的持续性收入,而且原本还在活跃使用中。”有网友说道。

 

动不动封号,用户长期投诉无门

.

Belo 公司成员们的遭遇并非个例。

 

Molina 的帖子下就有人表示,“我公司也遇到了同样的问题。没有任何预警,也没有任何解释。我们已经两次丢失了所有客户信息。这太荒谬了。”

 

还有开发者在三天前刚注册不久就被无缘无故封号了:

 

“我毫无理由就被封号了。我的账号在注册后 15 分钟内就被封了。当时我甚至还没发过一条提示词,也没有进行过任何 API 调用。我只是刚在本地搭建开发环境(VS Code、Node.js、CLI),封禁就发生了。

 

我怀疑问题出在一张公司共用的信用卡上。我的商业合伙人已经在他自己的 Claude 账号里绑定了这张卡,系统很可能把这种情况识别成了重复账户,从而触发了自动封禁。

 

我已经提交了多次申诉。第一次申诉被拒,但没有给出任何具体原因;后面的申诉则完全没有回应。每次给客服发邮件,都会收到自动回复,把我再次引导回申诉表单。整个过程就是一个让人非常沮丧的循环,从头到尾都没有任何真人来审核我的情况。

 

有没有人有办法真的让 Anthropic 的真人支持人员来查看案例?任何建议都非常感谢。

 

而在 IT 行业工作、今年 26 岁(1999 年出生)的开发者“Trummler12”,也莫名被封号了。这件事发生在 Anthropic 发布身份验证公告之前。

 

“我承认我有时候确实会有点幼稚,但是……我真的很好奇,这个判定算法到底是怎么做的,以及我和 Claude 的哪些互动竟会让它怀疑是未成年人在使用,是因为我母语不是英语?还是和我的一些情况有关(自闭症、ADHD)?”

 

被封当晚,Trummler12 提交了两次解封申诉:第一次稍微带点玩笑,第二次则认真说明自己是个开发者,很希望继续使用 Claude Code 来查找 Bug,以及处理一些非 vibe coding 的任务。但两天过去了,依然没有任何回复。

 

“我甚至还让他们扫描了我的脸,说实话我当时戴着墨镜(因为畏光),但应该很明显能证明我已经不是小孩了吧。”但依然没有通过。“我把胡子稍微留回来一点之后,年龄验证终于通过了(而且我还是戴着墨镜 😅)。”Trummler12 说道。

 

Trummler12 表示,经历了那次 Discord 年龄验证数据泄露事件之后,自己绝对不可能再把身份证发给任何平台。“说真的,年龄验证这件事本身在各个层面都很糟糕:隐私和安全风险高得离谱、技术上不准确,还带偏见、会制造一种虚假的安全感,真正的违法者总有绕过方法,还给滥用(广告、政治用途)打开了窗口。”

 

更早的八个月之前,遇到类似问题的企业版用户Monotonea求助官方客服无望,之后不得已发贴求助。

 

我说服公司购买了 Claude Team 的付费团队版,因为我相信这个 AI 服务可以成为同事们很好的学习工具。我们一共创建了 5 个团队账号,但令人震惊的是,其中有 2 位同事在刚创建账号后就立刻被封禁了。

 

这件事就发生在整个团队一起进行 onboarding 的现场。当时真的非常尴尬、非常挫败,我也对同事和公司都感到很愧疚,毕竟是我推动了这项尝试。

 

更糟的是,公司电话系统不支持短信,所以我还不得不让同事用各自的个人手机号来做验证。结果即便这样,他们还是马上被封了。我们第一时间联系了客服支持,但现在已经过去 4 天了,完全没有任何回复。

 

有没有人遇到过类似的情况?你们是怎么把账号解封的?有没有什么有效的方法可以把问题升级反馈给 Anthropic / Claude 的支持团队?任何建议或帮助我都会非常感激。谢谢大家。

 

Monotonea 强调,其用的邮箱都是有公司域名的官方邮箱,公司完全合法合规,公司及所有用户均位于 Claude 支持的国家/地区。“账户创建后立即被封禁,这让我感到非常奇怪和不安。我们通常通过公司 VPN 访问互联网,所以这可能是系统误判为可疑活动。但无论如何,我对客服缺乏响应速度和专业精神感到非常失望。”

 

“他们最近一个月左右肯定做了一些改动,导致自动封号的次数大幅增加。”从社交平台评论和 Reddit 上的帖子来看,这个问题越来越严重。有开发者指出,最糟糕的是,没有任何申诉途径,也得不到任何支持。”申诉流程简直是个笑话,就是一个谷歌表单,(看起来)完全没有人工干预。”

 

随着人们对 Anthropic 的不满情绪不断累积,近日,一个名为 Banned by Anthropic 的网站也上线了。

 

该网站以“推动人工复核与公平申诉机制”为核心诉求,集中收集并展示用户在使用 Claude 过程中遭遇账号封禁的案例,并呼吁 Anthropic 改进其封禁与申诉流程。

 

作为一个“公开事件记录与请愿平台”,该平台主要记录用户因自动化风控系统被封禁账号的经历,包括团队账号被封、订阅中断、项目受影响等问题。同时,网站强调目前申诉流程过于依赖表单提交,缺乏透明解释与及时反馈,用户在遭遇封禁后往往难以及时恢复服务。

 

网站发起方认为,随着 Claude 在企业与开发者场景中的使用不断增加,账号封禁已不再是单一用户问题,而可能对团队协作和业务连续性产生直接影响。因此,其提出的核心诉求包括:引入人工复核机制、提升申诉通道响应效率,以及提供更清晰的封禁原因说明。

 

“以我自身的经验来看,他们的安全保护措施确实有些过头了。每当我纯粹出于好奇,想学习对微生物学时,Opus 就会阻止我,并告诉我出于安全考虑应该使用 Sonnet。”有用户表示。

 

“单一厂商锁定”问题反复重现

 

Claude 封号潮中,另一个引发关注的话题就是“单一厂商锁定”。

 

这并不是一个新问题。云计算时代,企业就已经反复讨论过:一旦把关键基础设施、业务流程和历史数据都押在某一平台身上,一旦平台出问题,风险就会被无限放大。到了大模型时代,这个问题依然存在,甚至影响更加深入组织内部。

 

现在,AI 工具并不只是一个“聊天窗口”,它们正在嵌入公司的日常工作流,比如代码开发、内部知识库、客服系统、自动化流程等。一旦某个 AI 平台突然断供、封号,失去的可能是一整套正在运行的组织能力。

 

创业者 Ossy Nebolisa 就表示,“在互联网时代,平台封禁已成为最严重的商业风险之一。然而,大众对此却鲜有讨论。”

 

“让公司依赖单一供应商本身就是个糟糕的决策。我所有产品在编排器和大模型层面都做了幂等设计,就是为了避免这种依赖。作为股东,如果这位 CEO 连基本的应急预案都没有,我会尽快把他换掉。现在很多没有真正商业经验的人也能当上 CEO。”有网友表示。

 

是否要把 AI 基础设施押在一家公司身上?Molina 分析道,在公司内部同时使用多个 AI 平台,有利也有弊。

 

最大的优势是,在出现服务中断时可以保证业务连续性,就像我们现在在 Claude 上遇到的情况。就我们而言,我们也在使用 Gemini,但切换过去意味着要放弃已有的对话历史和集成流程。这不算致命问题,但确实需要时间来适应这种变化。

 

最大的劣势则是运营复杂度的提升。你需要让团队熟悉每一个平台,这会消耗时间和成本。此外,不同 AI 平台之间的集成也并不简单,后续维护会变得更加繁琐。

 

在实际中,很多公司最终会“绑定”某些服务稳定、口碑较好的供应商(比如 Slack、Gmail、Notion 等)。但无论如何,不能接受的是,一个服务在没有任何提前通知、也无法联系到客服支持的情况下突然下线。

 

“问题在于,这家公司和 OpenAI 一样,本质上是一种‘风口产物’。它们依靠炒作制造出来的需求而繁荣,然后制定一套过度且不切实际的限制性‘政策’,这些政策并没有建立在合理判断之上。当它们开始执行这些政策,而你提出不满时……”Tyreese Learmond 认为。

 

显然,Anthropic 正在以一家基础设施公司的姿态进入企业工作流,却没有拿出与之匹配的基础设施责任感。这不是 Anthropic 一家的问题,而是所有想要成为基础设施公司都需要思考和承担的责任。

 

正如一位网友的发问:

 

“我们还要眼睁睁看这种事发生多少次?每一个大众曾经热爱的全新平台,最终都会走到这一步:人们在上面建立维持生计的项目,然后某一天,一切突然消失,永久封禁,没有申诉渠道,没有人工介入,没有任何解释。只剩下一份 Google 表单,和一片死寂。”

 

参考链接:

https://x.com/patomolina/status/2045254152377323970

https://www.reddit.com/r/Anthropic/comments/1smfey3/on_april_13_2_days_ago_26yearold_me_got_banned/

https://www.reddit.com/r/ClaudeAI/comments/1n3sspf/paid_for_claude_team_plan_but_2_out_of_5_members/

1. 注册英伟达 NIM ,这步就不详细说了,网上都有教程。
2. 打开 cc-switch ,添加供应商找到 Nvidia



3. 请求地址不需要变,填上 API key ,注意 API 格式为:OpenAI Chat Completions



4. 填写模型,注意要写完整模型供应商/模型名,不知道怎么写的可以直接点击右上角获取模型列表



5. 配置完模型后打开设置,找到代理,打开这两个选项



6. 配置完这些后直接启动 claude code 就可以使用了,不过是真的慢。

目前在 Claude code Cli 下使用没有问题,但是在 VS Code 的插件中使用会报错,插件中对话中断,实际还在运行



猜测是消息格式的问题

这是一个悲伤的实盘复盘,也是一篇价值可能远超本金的“避坑指南”。

Img
Img
交学费了

背景:2005 年就开了股票账户,但一直没有买卖过股票,觉得看不懂。直到 2025 年初,才开始学习研究量化,并用 2.5 万起步人工或量化实盘。

比较典型新手行为:2025 年 6 月 24 日 2.5 万开始,跑了 1 周效果不错,7 月 1 日加仓到 5 万,又看这不错,8 月 12 日加仓到 10 万,经过 9 月,10 月,11 月收益震荡下行,hold 不住了,12 月中旬逐步减到 3 万,被市场上了一课,交了充足的学费。

截止今天亏损 19538 元,亏损比例-20.75%,实际量化亏损没这么多,量化亏损 11359 元,亏损比例-10.17%,其他 8000 多元是人工操作亏的(新手常见行为:看不得资金空仓,有资金就想操作,量化空仓就人工操作)。

我分别记录了我每个实盘量化策略的交割单,一看就知道各个量化策略的亏损情况。

前后总共实盘过 5 个策略,现在还在实盘的策略 2 个,另外 3 个停掉了,5 个策略都是小市值策略。

Img
因为作为一个菜鸟,深知股市水深,所以入场前我给自己定了个死规矩:只拿“全亏完也不会影响明天中午吃猪脚饭”的钱来试水。

这一年,从刚跑通第一个策略时坚信能“打造印钞机”,到后来被市场反复毒打、在深夜里改 Bug ,我经历了一个典型“量化韭菜”的完整心路历程。今天,我们就来算算这笔账。


1. 初入量化的“上帝视角”(过度自信期)

每个刚碰量化的人,都会经历一段短暂的“蜜月期”。

那时候,只要在回测平台上稍微调整几个参数(比如把均线周期改一改,加个 MACD 过滤),就能跑出一条令人血脉贲张的“完美 45 度角”向上收益曲线。

Img
看到的让人心动的策略收益示例

带着“原来搞钱这么容易”的错觉,我把这 2 万块真金白银接入了实盘。
第一天上线的时候,那种看着程序自动读取行情、自动下单、自动撤单的爽感,让我有一种稳拿诺贝尔经济学奖的错觉。

然后,现实的毒打立刻就来了。
我遇到的第一个大坑,不是策略失效,而是代码 Bug 。
比如,策略条件触发了,但因为没有处理好“涨跌停板买不进/卖不出”的逻辑,程序疯狂向交易所发废单报报错;或者因为网络抖动了一下,持仓状态没对齐,该卖的没卖,导致直接吃了隔夜的一个大跌。

那一刻我才明白:“写一个能在历史数据里赚钱的策略”和“写一套能在现实世界里活下来的交易系统”,完全是两码事。


2. 市场的毒打与信仰崩塌(绝望之谷)

度过了最初的工程摩擦期,真正考验心脏的是极端的市场行情。

回测里的数字是冰冷的,回撤 20%在你眼里可能只是 Excel 里的一个“-0.2”。但在实盘里,看着账户每天缩水,你的心理防线是会崩溃的。

今年遇到了好几波风格剧变(比如微盘股的流动性危机)。我眼睁睁看着往日表现优异的策略连续吃面。

Img
实盘大回撤瞬间*

在这种压力下,我犯了量化交易的大忌——人工干预机器。
看着连续下跌,我实在忍不住了,心想“这肯定不对劲”,于是强行手动平仓,甚至直接停掉了策略。结果往往是:我刚一平仓,第二天就大涨反弹;等我懊悔地再把程序开起来,它又接到了山顶上。

机器的逻辑被我的人性彻底破坏,两头挨耳光。

到了现在算总账,这 2 万块钱最终……(亏损 19538 元,亏损比例-20.75%)。讲真,我还不如把它放在余额宝里赚顿排骨汤。


3. 亏钱买来的 4 个“血泪教训”

虽然亏了钱,但这 2 万块的学费交得值。我总结了 4 个极其昂贵的教训:

教训一:千万警惕“过拟合”与未来函数

你以为你发现的圣杯,往往只是你的模型恰好“背诵”了过去的历史答案。市场是动态博弈的,过去有效不代表未来有效。如果在回测里加了太多条件去过滤亏损交易,实盘必然扑街。

? 避坑参考资料:如果你不确定自己的策略是否陷入了“过拟合”的陷阱,建议跑实盘前先看看这篇聚宽社区大佬的干货:策略过拟合诊断工具,里面提供了一套非常系统性的实战自我诊断方法。

教训二:磨损是看不见的“利润刺客”

很多新手回测时根本不设滑点,或者把手续费设得极低。在小资金加上稍高频的交易下,买卖一次的印花税、佣金,加上实盘买高一分、卖低一分的滑点,能把你预期的微薄利润吃得干干净净。你以为你在赚钱,其实你在给券商打工。

我实际量化实盘用的是一个免 5 低佣账号,手续费已经是很低很低了,不然亏损会更多。

Img
Img

教训三:稳定大于一切,工程能力决定下限

策略再好,API 挂了、断网了、订单没成交导致状态死锁了,全都没用。做好异常处理、断线重连、实盘与本地账户的数据对账,这些枯燥的“基础设施”建设,花的时间比写策略本身还要多。

教训四:量化交易,其实更考验“人性”

最大的敌人不是市场,而是那个看着账户回撤想要“拔网线”的自己。真正成熟的量化交易,是要在这个系统跑之前就想清楚所有极端情况,然后闭上眼睛,让机器执行。


4. 总结与下一步:我还做量化吗?

做,当然继续做。

虽然第一年交了学费,但量化帮我戒掉了作为一个散户的“赌徒心理”。我不再凭感觉冲动买卖,不再去听信各种大 V 的小道消息,之前加的几个大 V 的股票群也退了。它强迫我建立起了一套客观、去情绪化、可验证的市场分析框架。

接下来的计划,我会回归常识,降低对收益的虚幻预期,把精力更多地放在交易系统的底层建设上。之前觉得策略回测年化没个几十个点,都不好意思发出来,也不会考虑去实盘,现在觉得能稳定跑赢指数,控制回撤,就是不错的策略了。

更关注策略的实盘表现,而不是回测表现。也希望从技术的角度,在策略实盘前也能尽可能的通过工具评估策略可能的风险(比如上上面提到的社区的过拟合诊断工具),而不是盲目上实盘。也认识到不同策略有不同的适用市场,需要根据市场情况选择合适的策略。

Img
Img

最近在研究的策略

个人的力量和认知是有限的,向大家学习,精进自己,也希望和大家一起交流,共同进步,任重道远。

最后,给所有想用 Python 写个代码或量化平台复制一个策略就去股市里捡钱的新手一句忠告:永远敬畏市场!请务必只拿“亏光了也不影响生活”的钱来交学费。

📢提示:资源链接地址放在文章结尾👇👇,往下翻就行

📢提示:资源链接地址放在文章结尾👇👇,往下翻就行

《高压监狱》是一部法国电影,以独特的视角揭示监狱环境中的权力斗争、人性挣扎与对自由的渴望。影片背景设定在戒备森严的监狱,囚犯们在压抑与欲望中挣扎。女记者安娜为揭露监狱腐败深入调查,与囚犯皮埃尔从敌对到建立信任,共同策划越狱。电影通过细腻的镜头语言和真实的场景再现,展现了囚犯们在高压环境下的生存状态及对自由的追求。影片不仅是一部紧张刺激的越狱片,更深刻探讨了人性、压迫与救赎等主题,揭示了社会中的阶级不公和制度性压迫,引发观众对自由与选择的思考。

《高压监狱》(尽快保存,随时失效)

链接:https://sourl.cn/RmgRF9

(手机用户长按复制打开即可)

复制上方网盘链接到浏览器搜索打开即可保存观看,资源完全免费,集于互联网公开分享资源

铁路障碍物目标检测数据集(5500+张已标注图像)| 适用于YOLO/Mask R-CNN/Detectron2训练的AI视觉数据集

在计算机视觉技术不断发展的今天,目标检测与实例分割技术已经广泛应用于交通安全、工业检测、智慧城市以及智能巡检等多个领域。其中,铁路作为国家重要的基础交通设施,其安全稳定运行对于社会经济发展具有极其重要的意义。

然而,在实际运营过程中,铁路沿线环境复杂,落石、倒树、杂物侵入轨道等障碍物经常成为影响列车运行安全的重要隐患。传统的铁路巡检主要依赖人工巡检或简单监控方式,不仅效率较低,而且在复杂环境下难以及时发现潜在风险。
在这里插入图片描述

随着人工智能技术的发展,基于深度学习的铁路视觉检测系统正在成为铁路安全监测的重要技术方向。

数据集下载

通过网盘分享的文件:铁路障碍物数据集
链接: https://pan.baidu.com/s/1KPKU9twK1EB-m49kAlNOZA?pwd=pepc 提取码: pepc

因此,本篇文章将为大家详细介绍一个专门面向铁路视觉检测任务构建的高质量数据集:

铁路障碍物目标检测数据集(5500+高质量标注图像)

该数据集可直接用于训练主流视觉模型,如 YOLO系列、Mask R-CNN、Detectron2 等目标检测或实例分割算法,非常适合用于科研、项目开发以及算法验证。

接下来,我们将从数据集背景、数据集结构、类别信息、数据特点、应用场景以及个人心得等多个方面进行全面介绍。


一、数据集概述

本数据集为 铁路障碍物目标检测 / 实例分割数据集,共包含 5500+ 张高质量标注图像,主要面向铁路沿线安全监测与智能巡检任务构建。

数据集中包含铁路线路附近常见的自然障碍物,通过精细化标注实现对关键目标的精准识别与分割,可用于:

  • 目标检测模型训练
  • 实例分割算法研究
  • 智能巡检系统开发
  • 视觉算法性能测试
  • 铁路安全监控系统构建
    在这里插入图片描述

为了方便用户直接使用,本数据集已经按照标准机器学习数据组织方式进行了完整划分:

  • 训练集(Train)
  • 验证集(Validation)
  • 测试集(Test)

同时采用统一规范的数据目录结构组织,使其能够直接接入主流深度学习框架进行训练与评估

该数据集对于以下算法框架具有良好的兼容性:

  • YOLOv5 / YOLOv7 / YOLOv8
  • Mask R-CNN
  • Detectron2
  • MMDetection
  • PaddleDetection

无论是用于目标检测任务还是实例分割任务,该数据集都能够提供良好的训练数据支持。


二、背景

在铁路运输系统中,轨道安全始终是保障列车正常运行的核心问题

铁路线路往往跨越山区、森林、河谷以及复杂地形区域,因此在日常运行中,经常会出现多种潜在的障碍物风险,例如:

  • 山区落石
  • 树木倒伏
  • 边坡滑坡
  • 植被侵入轨道
  • 散落石块

这些障碍物一旦进入铁路线路区域,可能带来严重后果,例如:

  • 影响列车运行安全
  • 导致紧急停车
  • 引发交通事故
  • 造成铁路设备损坏

传统铁路巡检主要依赖以下方式:

  1. 人工巡检
  2. 巡检车检测
  3. 固定监控设备

然而这些方式普遍存在一些问题:

  • 巡检效率低
  • 监测范围有限
  • 无法实现全天候实时监控
  • 对突发情况反应不及时

近年来,随着无人机巡检、轨道机器人巡检以及智能视觉识别技术的发展,越来越多的铁路系统开始引入基于深度学习的视觉检测系统

利用计算机视觉算法,可以实现:

  • 自动识别轨道障碍物
  • 实时检测潜在风险
  • 自动报警预警
  • 辅助铁路运维决策

而高质量的数据集,正是训练这些智能系统的基础。

本数据集正是在这样的背景下构建的,专门用于支持铁路障碍物视觉识别算法研究与应用开发
在这里插入图片描述


三、数据集详情

1 数据规模

本数据集包含:

5500+ 张高质量标注图像

图像来源涵盖多种铁路环境场景,例如:

  • 山区铁路
  • 城市铁路
  • 郊区铁路
  • 隧道口区域
  • 边坡区域

所有图像均进行了严格筛选与标注,确保数据质量。


2 数据划分

为了符合机器学习训练规范,数据集已划分为:

数据集说明
Train模型训练
Val模型验证
Test模型测试

这种划分方式可以有效避免:

  • 数据泄漏
  • 过拟合问题
  • 模型评估偏差

同时也符合主流深度学习框架的训练流程。


3 数据集目录结构

数据集采用标准化目录结构:

├── images/
│   ├── train/
│   ├── val/
│   └── test/
└── labels/
    ├── train/
    ├── val/
    └── test/

其中:

images

用于存放原始图像数据。

labels

用于存放对应的标注文件。

这种结构非常适合直接用于 YOLO系列模型训练

例如:

images/train/xxx.jpg
labels/train/xxx.txt

每张图片都对应一个标注文件。


4 类别信息

数据集包含 4 个类别

nc: 4
names:
- fallen-tree
- generic-rock
- generic-tree
- rock

类别说明

1 fallen-tree

倒下的树木。

这类目标通常由于:

  • 暴雨
  • 台风
  • 山区滑坡

导致树木倒伏侵入铁路轨道区域。

是铁路安全的重要隐患。


2 generic-rock

普通岩石或散落石块。

这些岩石可能来自:

  • 边坡滑落
  • 山体风化
  • 工程施工残留

虽然体积较小,但在高速铁路环境下仍可能带来风险。


3 generic-tree

普通树木或轨道附近植被。

用于识别铁路沿线植被情况,可用于:

  • 植被监测
  • 轨道环境评估

4 rock

较大岩石或潜在落石目标。

这类目标通常具有较大的体积,属于高风险障碍物

需要及时识别并进行预警。


在这里插入图片描述

四、数据特点

相比普通目标检测数据集,本数据集具有多个显著特点。

1 多类别铁路障碍物

数据集覆盖铁路沿线典型自然障碍物:

  • 倒树
  • 岩石
  • 植被
  • 落石

有助于构建多类别识别模型。


2 复杂环境条件

数据集中包含多种复杂环境情况,例如:

  • 强光环境
  • 逆光环境
  • 隧道弱光
  • 雨天
  • 雪天
  • 雾霾天气

这使得训练得到的模型具有更强的环境适应能力


3 复杂背景干扰

铁路场景中存在大量复杂背景,例如:

  • 铁轨
  • 扣件
  • 接触网
  • 路基
  • 边坡
  • 植被遮挡

这些因素都会影响视觉检测算法。

数据集通过真实场景采集,使模型能够适应复杂环境。


4 多视角数据

图像采集角度多样,例如:

  • 轨道侧视角
  • 高空无人机视角
  • 巡检车辆视角
  • 远距离监控视角

不同视角有助于提升模型的泛化能力


5 高质量标注

所有目标均进行了精准标注:

  • 目标位置
  • 类别信息
  • 清晰边界

可用于:

  • 目标检测
  • 实例分割
  • 目标定位

保证模型训练效果。


五、适用场景

该数据集可广泛应用于多个领域。


1 铁路智能巡检系统

通过训练视觉模型,可以实现:

  • 自动识别轨道障碍物
  • 实时监控铁路环境
  • 自动报警预警

大幅提升巡检效率。


2 无人机铁路巡检

无人机巡检正在成为铁路巡检的重要方式。

通过搭载视觉识别算法,可以实现:

  • 自动检测落石
  • 自动识别倒树
  • 实时环境监测

减少人工巡检成本。


3 铁路障碍物检测

利用目标检测模型,可以实现:

  • 障碍物自动识别
  • 风险等级评估
  • 智能预警系统

保障列车运行安全。


4 自然灾害监测

该数据集还可用于研究:

  • 落石检测
  • 山体滑坡风险识别
  • 植被侵入轨道监测

用于自然灾害预警系统。


5 智慧铁路系统

在智慧铁路建设中,视觉识别技术可以应用于:

  • 自动巡检
  • 智能监控
  • 运维管理
  • 风险评估

推动铁路系统智能化升级。


六、心得

在构建视觉数据集的过程中,我深刻体会到一个问题:

数据质量往往比模型结构更加重要。

很多时候,一个优秀的数据集能够显著提升模型性能。

在铁路场景中,由于环境复杂,如果数据集质量不足,模型往往难以泛化。

因此,在构建本数据集时,我们重点关注以下几个方面:

  • 数据多样性
  • 场景复杂度
  • 标注准确性
  • 类别均衡

通过这些方式,使数据集更加接近真实铁路环境。

同时,该数据集不仅适用于实际项目开发,也非常适合:

  • 深度学习课程实验
  • 目标检测算法研究
  • AI工程项目练习

对于想要学习 YOLO 目标检测实例分割技术 的开发者来说,这是一个非常合适的实践数据集。


七、结语

随着人工智能技术的不断发展,计算机视觉正在深刻改变传统铁路巡检模式

通过深度学习算法,我们可以实现:

  • 自动检测铁路障碍物
  • 实时监控轨道环境
  • 智能预警安全风险

而高质量数据集正是这一切的基础。

本文介绍的 铁路障碍物目标检测数据集(5500+标注图像),专门面向铁路安全监测场景构建,适用于多种视觉算法训练。

无论是用于科研实验、算法研究,还是工程项目开发,该数据集都具有很高的应用价值。

未来,随着更多AI技术的落地,铁路巡检将逐步向:

智能化、自动化、数字化

方向发展,为铁路安全运营提供更强大的技术支撑。

如果你正在研究:

  • 目标检测
  • 实例分割
  • 智能巡检
  • 铁路视觉识别

那么这个数据集将会是一个非常不错的训练资源。

Photo by James Lee on Pexels

一个决定

一开年,OpenClaw 突然在技术圈出圈了。

这是一个自托管的 AI agent 网关,装在服务器上,能把 Telegram、WhatsApp、iMessage 这些聊天软件直接接到 AI agent——发一条消息,agent 帮你处理邮件、文件、代码,像个永远在线的私人助理。

出于好奇,1 月底我也装了一个。

最初装在 MacBook 上,但考虑到隐私安全,本地机器上有太多个人数据,不想让 agent 有过多访问权限,索性找了一台公有云的 Ubuntu 虚拟机,把它部署上去。模型用的是 GitHub Copilot,这得益于微软 MVP 赠送的 Copilot Pro 订阅,算是物尽其用。

就这样,第一个 agent 上线了。后来随着使用深入,发现有些事情需要专注写代码的,有些只需要轻量协助,agent 数量从 1 个慢慢加到了 3 个:Nova 管日常,Forge 专门写代码,assistant 跑腿打杂。

38 天后,来盘一盘这三个 " 员工 " 到底替我干了什么。


Nova:我的数字管家

如果要给 Nova 一个职位描述,大概是 " 全栈打杂 "——但这个打杂的含金量还挺高。

开发

这 38 天里,几个开源项目的维护和推进,Nova 都参与了:

博客

博客的产出流程是:我提供方向和素材,Nova 帮我整理研究材料和 review,给出调整建议。最终文字还是自己写的,但有个随时可以讨论的 " 编辑 " 在旁边,效率高了不少。

造工具

这部分最让我惊喜。Nova 帮我开发了一批 skill(OpenClaw 的插件机制),开源在 openclaw-forge

  • daily-briefing:每天早 7 点自动推送天气、待办、Hacker News Top 20 到 Telegram,睁眼就有今日概览
  • google-tasks:接入 Google Tasks,支持 token 自动刷新
  • tech-doc-translator:中英技术文档互译
  • research-prep:技术写作前的素材整理
  • quick-capture:快速记录想法到 Obsidian

杂活

微软 MVP 每年 renewal 需要手动提交博客到 Portal,繁琐却绕不开。Nova 帮我优化了脚本,一次性批量提交了 44 篇文章,还顺手修了分类填错的问题。


Forge:我的编程搭档

Forge 是后期专门为 coding 场景搭建的 agent,Python 优先,风格务实。

搭好之后,我拿两个真实项目来磨合它。

一是把 Android 断食追踪 App 从头重写一遍(原生 Kotlin + Jetpack Compose)——核心功能、通知系统、多语言国际化,到单元测试和 UI 集成测试,基本都是 Forge 主力完成。

二是 Feed Pulse,一个 Telegram RSS 订阅机器人。取消了 Readwise Reader 订阅之后,还保留着 RSS 阅读习惯,索性让 Forge 做一个完全符合自己偏好的替代品,省下一笔订阅费。

除了写代码,Forge 也参与技术决策。比如一起做过 ZTM(ClawParty)Android 版本的可行性分析,最终决定暂时搁置——" 分析清楚再决定不做 ",这本身也是一种产出。

磨合下来的感受——Forge 更像执行力很强的工程师,需求交代清楚就能干得不错;但架构决策和踩坑经验,还是得自己来把关。


Assistant:全家的打杂 agent

Assistant 是三个 agent 里定位最轻量的,处理不需要深度 coding 能力的协作任务。

主要是协助组织了 GitHub Copilot Dev Days 广州 的筹备工作——CFP 征集文案的撰写、海报制作。

但 Assistant 的 " 客户 " 不只是我。我太太做 HR,偶尔也会把工作数据扔过来——人力成本数据整理、计划总结。它不挑活,照单全收。

结果这一用,太太被直接俘获了,我也顺手帮她搭了一套。

OpenClaw 的杀手锏,原来是家庭渗透。


横向复盘

安全第一

把 OpenClaw 部署在公有云而不是本地,核心原因就是隐私安全。本地机器上有太多个人数据,不想给 agent 过多接触的机会。

虚拟机上只给必要权限,机器不对外暴露端口,SSH 以外外部无法直连。Agent 能力越强,边界就越重要——我不介意它帮我干活,但它在哪里运行、能碰什么、不能碰什么,我需要心里有数。

适合外包的

重复性强、输出明确的任务:批量处理、数据整理、写脚本,交给它,自己去干别的。

有明确规格的功能开发:输入输出定清楚,Forge 能独立完成一个功能的完整实现,测试和文档一起补。

需要自己把关的

对外发布的内容,最终还是要自己过一遍。Agent 能做大部分,但剩下的那些往往是最能体现个人风格和判断的地方。架构决策类似——用来讨论和分析可以,但不能完全交托。

一个意外的发现

AI agent 正在让 " 自己造 " 这件事变得可行。

以前付费订阅某个工具,往往不是因为需求有多复杂,而是 " 自己做太麻烦 "。现在这个理由越来越站不住脚了。Feed Pulse 就是一个例子——花几个小时,做出一个完全符合自己偏好的 RSS 阅读器,顺手省了一笔订阅费。

这个逻辑,正在被 AI agent 一点一点打破。


值得吗?

值得。

不是因为它完美,而是因为它改变了我处理事情的方式。很多以前会拖着不做的事——写脚本、整理数据、推进项目——现在有了一个随时可以协作的对象,反而做成了。

38 天,三个 agent,这只龙虾,算是正式入职了。

面对近段时间开源智能体 OpenClaw(网络俗称“龙虾”)引发的新一轮人工智能效率变革,360 集团昨天在京举办发布会,正式推出“360 安全龙虾”智能体应用客户端及“360 安全龙虾 Box”硬件终端,同时发布专门应对 OpenClaw 安全问题的“360 龙虾卫士”。据了解,360 安全龙虾是国内首个以“安全模式”为核心设计的 OpenClaw 智能体产品。

据 360 方面介绍,针对当前阻碍 OpenClaw 普及的“安装难、不好养、容易死、不安全”四大核心难题,360 安全龙虾系列产品提供了一套“出厂满血、全能守护”的综合解决方案,旨在让普通受众切实享受到技术红利,实现“龙虾自由”。

为了让普通人零距离感受人工智能带来的效率革命,360 在总部园区特设了免费装“龙虾”活动,吸引数百名群众热情参与。360 集团创始人周鸿祎更亲自下场化身“AI 工程师”,为现场用户安装部署“360 安全龙虾”,以实际行动推动前沿 AI 技术向大众普及。

周鸿祎表示,当前很多普通用户虽然对“龙虾”充满兴趣,但在实际使用时却常常被复杂的安装过程劝退。据了解,部署一套完整的 OpenClaw 环境并不简单。用户通常需要安装虚拟机、配置 Ubuntu 系统,并搭建 Python、Node 等开发环境,同时还要接入大模型 API 和各种技能组件。即便是熟练工程师,也往往需要约 6 小时才能完成基本配置。

而 360 安全龙虾将这一复杂流程整合为一键安装,将原本需要数小时甚至数天的配置过程压缩到 10 分钟内完成,实现开箱即用。

360 创始人周鸿祎在最新产品发布会上谈到近期爆火的“龙虾”概念时表示,这一产品实际上让他看到了推动“智能体(Agent)普及”的重要契机。

周鸿祎称,过去一年中国 AI 产业虽然经历了大模型热潮,但真正落地并不容易。“去年 DeepSeek 很火,它给中国用户做了一次大模型的科普,让很多企业和普通人第一次知道什么是大模型。但真正推广的时候我们发现,大模型更像一个聊天机器人、聊天助手。”

在他看来,大模型最大的问题是“没有手和脚”。虽然能够推理、规划和对话,但很难直接完成实际任务。因此行业开始引入“智能体”的概念,希望让 AI 能够调用工具、执行任务。不过这一概念过于抽象,普通用户很难理解。

“龙虾其实本质就是智能体,只不过换了一个名字。”周鸿祎表示,这种更直观的表达让技术迅速“破圈”。他认为,如果说 DeepSeek 完成了大模型的科普,那么“龙虾”则完成了智能体的第二次科普,让企业家、政府机构和创业者开始真正理解 AI 如何参与实际工作。

在技术层面,周鸿祎将大模型比作 AI 的“大脑”,而智能体则为它“加上了手和脚”。通过一套新的软件架构,智能体可以操控电脑、浏览器和手机,调用各种工具,甚至自动下载或编写新工具,从而完成复杂任务。

周鸿祎还对“龙虾爆火”的原因进行了分析。他认为,这标志着 AI 智能体技术正在发生三个重要变化:

首先,智能体拥有了大众可以理解的形态,不再只是抽象的大模型接口;其次,智能体正在从简单的对话工具转变为可以独立执行任务的“数字员工”;第三,借助技能(Skill)体系,智能体的能力可以通过工具组合持续扩展。

周鸿祎认为,随着“龙虾”能力不断提升,人工智能应用正从“问答式对话”阶段迈向真正的执行任务阶段。在他看来,当越来越多“龙虾”开始参与工作,一种新的生产方式也正在形成。

对于外界关注的成本问题,周鸿祎也回应称,智能体在执行复杂任务时需要大量推理和尝试,因此会消耗更多算力和 Token。“如果未来 AI 真正开始替人干活,算力需求可能会增长 100 倍甚至 1000 倍。但随着需求扩大,算力成本反而会进一步下降。”

在他看来,中国在 AI 应用层面拥有巨大优势:产业链完整、应用场景丰富,再加上 DeepSeek 和智能体带来的两轮技术普及,中国有机会在 AI 应用落地上走在全球前列。

据介绍,360 安全龙虾在系统架构上整合了多种模型能力与技能生态。系统目前已接入 16 家国内主流大模型,覆盖文本生成、编程开发、多模态创作等多种能力,并通过智能模型路由机制,在不同任务场景中自动选择最合适的模型。同时,系统内置 100 余个高频技能,可直接用于文档生成、数据分析、PPT 制作、会议转写等常见办公场景。

在开放生态方面,系统还兼容全球开源软件生态,可调用超过 2.1 万个开源技能与工具。当现有技能无法满足需求时,360 安全龙虾还可以通过系统内置的编程能力自动生成新的技能,实现持续扩展,此外还支持自动数据备份和配置恢复机制,即便在系统异常或崩溃情况下,也可以快速恢复运行。

随着 OpenClaw 开始进入办公、开发和内容创作等实际场景,安全问题也逐渐成为行业关注重点。对此,360 推出了专门针对 OpenClaw 安全风险的防护系统——“360 龙虾卫士”。“360 龙虾卫士”作为 360 安全龙虾的原生安全组件,通过虚拟化沙箱(WSL)隔离运行环境,将智能体执行空间与用户数据进行分离,并借助 AI 安全引擎识别恶意技能、异常指令以及潜在漏洞,从而主动拦截技能投毒、提示词注入等攻击行为。

据介绍,“360 龙虾卫士”采用“最小权限原则”和“人在回路”的核心防护策略,在不影响 OpenClaw 正常学习和执行能力的前提下,通过实时监控与 AI 安全模型识别潜在风险,构建“以模治模”的智能安全防护机制,从而在保障效率的同时为智能体运行建立安全边界。

此外,“360 安全龙虾”还提供新手与高级用户的分级权限管理机制,并支持客户端一键彻底卸载,即使是 360 安全龙虾自身也能够完全删除,确保用户始终对系统拥有充分的控制权。

面向对数据安全和隐私要求更高的机构用户,360 在发布会上还推出了“360 安全龙虾 Box”硬件设备。该产品通过物理级隔离的方式部署 OpenClaw 系统,可实现本地算力运行和数据不出内网,为政企机构提供更加安全可控的人工智能应用环境。

与此同时,360 宣布将对“龙虾”应用实施普惠战略。“360 安全龙虾”软件客户端、基础部署服务以及出厂技能组件均向公众免费开放,用户只需根据实际调用的大模型算力(Token)支付基础费用,入门套餐定价为 169 元。

业内人士认为,这一举措有望进一步降低人工智能应用门槛,推动智能体技术在办公协作、内容生产和数据分析等场景中的普及应用,加速数字生产力在各行业落地,为实体经济发展注入新的动力。

目前,“360 安全龙虾”Windows 客户端已向公众开放下载,用户可通过官方网站获取安装程序,MacOS 版本即将推出。

官方下载地址:https://claw.360.cn

360 龙虾卫士安全中心:htts://safe.claw60.cn。

《从谎言到战争的必然路径》,这篇文章写得真好,强烈推荐全文阅读! 📖📖📖

不过我猜,也没几个人会真的读下来,毕竟仅靠新闻标题相信一条谎言只需要 3 秒钟,而阅读长文需要 5 分钟还必须具备历史背景、政治常识和独立思考能力。正如文中所说「三秒永远打败五分钟」,所以才会有「愚蠢的认知总是获胜」这种反智结果。

作者对中国政治立场和利益关切的解读过于片面,但是瑕不掩瑜,整体逻辑没毛病。

最后,纠结了半天,这一篇就不发公众号了,以防万一被关小黑屋封号。 🤐🤐🤐

wechat_longscreenshot_2026-03-15_113302_557


原文链接 X 上的 Aelia Capitolina:“从谎言到战争的必然路径”

DBeaver Ultimate Edtion 26.0 Multilingual (macOS, Linux, Windows) - 通用数据库工具

One tool for all data sources

请访问原文链接:https://sysin.org/blog/dbeaver/ 查看最新版。原创作品,转载请保留出处。

作者主页:sysin.org


DBeaver 26 发布

通用数据库工具

DBeaver 是一个通用的数据库管理工具,适用于需要以专业方式处理数据的每个人。使用 DBeaver,您可以像在常规电子表格中一样处理数据,根据来自不同数据存储的记录创建分析报告,以适当的格式导出信息 (sysin)。对于高级数据库用户,DBeaver 建议使用强大的 SQL 编辑器、大量管理功能、数据和模式迁移能力、监控数据库连接会话等等。开箱即用的 DBeaver 支持 100 多种数据库。

DBeaver 26 新增功能

DBeaver 26.0

2026 年 3 月 12 日

你的 AI 工具现在可以直接与数据库对话。DBeaver PRO 26.0 新增对 MCP servers 的支持、一个名为 dbvr 的全新命令行工具,以及一种通过 AWS Marketplace 获取 DBeaver 的更简单方式。

将 AI 工具和 IDE 连接到你的数据库

现在你可以使用 MCP (Model Context Protocol) 将 AI 助手和 IDE 连接到你的数据库。CloudBeaver Enterprise、CloudBeaver AWS 和 DBeaver Team Edition Web 都可以作为 MCP servers 运行。

如果没有 MCP,IDE 中的 AI 助手无法看到数据库结构,因此给出的建议通常比较通用 (sysin)。而通过 MCP,你的 AI 可以连接到服务器并使用真实的元数据:实际的表名、列以及表之间的关系。它还可以直接执行查询,同时仍然遵循团队已经配置好的访问权限和连接设置。

DBeaver 26 sysin

要进行设置,管理员需要在 Administration panel 中启用该功能,并为单个连接开启 MCP。之后,任何拥有该连接访问权限的用户都可以将现成的配置片段复制到自己的 IDE 中。

你可以在 MCP Server documentation 中查看设置说明:https://dbeaver.com/docs/cloudbeaver/Model-Context-Protocol-Server/

DBeaver Ultimate 现在已登陆 AWS Marketplace

如果你已经在 AWS 中工作,现在可以直接通过 AWS Marketplace 获取 Windows 版本Linux 版本DBeaver Ultimate

这是 DBeaver 最强大的桌面版本之一,集成了高级数据管理功能、跨 AWS、GCP 和 Azure 的云数据库连接能力,以及完整的 SQL 开发工具集。Marketplace 版本会作为每个用户的独立实例运行在你的 AWS 基础设施中,并使用现有的云环境。

无需导入 license 文件,也不需要在本地安装 (sysin)。如果你的组织因为合规政策不允许在本地机器上安装软件,这会是一个非常直接的解决方案。

如果你的组织已经与 AWS 有商业协议,购买过程也非常简单。DBeaver Ultimate 采用 AWS Marketplace 标准许可证 分发,因此无需额外的法律审查。如果你通过 Marketplace credits 或 reseller 购买,也可以直接纳入现有流程,而不需要额外步骤。同时,无论通过哪种方式订阅,都包含 priority support

DBeaver 26 sysin

CloudBeaver AWS(为 AWS 定制的 Web 应用)也已在 AWS Marketplace 提供,为以浏览器方式工作的团队提供相同的采购优势。

使用审计日志跟踪团队活动

对于需要满足安全或合规要求的团队,现在可以获得整个平台的完整审计记录。

CloudBeaver EnterpriseDBeaver Team Edition 中的 Audit logging 可以为管理员提供完整的、带时间戳的用户活动记录,使调查事件和追踪操作来源变得更加容易 (sysin)。

该功能默认关闭。指定的管理员可以在 Administration panel 中随时启用,以开始收集日志。

启用后,它可以记录广泛的事件,包括:

  • 身份认证
  • 项目和连接变更
  • SQL 和文件操作
  • 云存储活动
  • 许可证和服务器配置更新
  • 偏好设置变更
  • 用户与团队管理操作

DBeaver 26 sysin

管理员可以在 Administration panel 中直接查看日志,并通过查询内部数据库或使用 REST API 导出日志,从而方便地将审计数据接入现有的监控或合规工具。

介绍 dbvr:新的数据库命令行工具

本次发布还推出了 DBeaver 产品家族中的一个新产品。dbvr 是一个轻量级 CLI,用于在没有图形界面的情况下执行数据库操作。

如果你在 headless environments、CI/CD pipelines 或 server-side workflows 中工作,它可以作为一个统一工具,通过命令行完成以下任务:

  • 执行 SQL 脚本
  • 将查询结果导出到云存储(S3、GCS 或 Azure Storage)
  • 执行备份验证检查

DBeaver 26 sysin

它支持多种 SQL 和 NoSQL 数据库,因此无需为不同数据库维护多个 CLI 工具。同时还支持 AWS、GCP 和 Azure 的原生认证机制,可以很好地融入云基础设施环境。

DBeaver PRO 桌面版的更多更新

26.0 版本还为桌面体验带来了一些改进:

  • 可以直接将文件上传到 AI Chat,以表格形式预览或导入到数据库中。还可以从聊天中直接运行常用 DBeaver 工具,例如数据传输、数据比较、数据导出、schema 比较、创建连接以及打开编辑器 (sysin)。
  • 可以为 AI 引擎配置自定义指令,并通过内置统计功能跟踪使用情况,例如每次请求的 token 消耗和执行时间。
  • 更快地执行多条查询,并支持更智能的数据分组。
  • Data Compare 工具中可以同时比较多组对象。

下载地址

MacOS DMG - just run it and drag-n-drop DBeaver into Applications.
Debian package - run sudo dpkg -i dbeaver-<version>.deb. Then execute “dbeaver &”.
RPM package - run sudo rpm -ivh dbeaver-<version>.rpm. Then execute “dbeaver &”. Note: to upgrade use “-Uvh” parameter.
ZIP archive - extract archive and run “dbeaver” executable. Do not extract archive over previous version (remove previous version before install).
Windows installer - run installer executable. It will automatically upgrade version (if needed).

DBeaver Ultimate Edtion 26.0 Multilingual (macOS, Linux, Windows), 2026-03-12

更多:macOS 下载汇总 (系统、应用和教程)

基于对 qclaw 的错误认知,我在已经安装了 openclaw 的环境上又安装了 qclaw ,在安装后, 无论是 qclaw 还是 openclaw 都无法进行对话(后面尝试修复过程中发现应该是两个 gateway 相互有冲突)

今天,我在应用列表对 qclaw 应用进行了删除
然后再尝试继续修复 openclaw 过程中发现了一个命令rm -rf ./openclaw,当我意识到问题的时候已经太晚了

最近,Cloudflare 发布了vinext,这是 Next.js 的一个实验性重新实现,基于Vite而非Turbopack。该项目由一名工程师在大约一周内使用 AI 开发完成,API token 的成本为 1100 美元。此外,该公司将其定位为一个即插即用的 Next.js 替代品,并且针对 Cloudflare Workers 做了优化。不过目前,该项目被标记为实验性和未经大规模测试。

 

从早期的基准测试看,该项目前景光明,不过也有一些需要注意的地方。在一个包含 33 个路由的测试应用中,使用 Vite 8 打包器 Rolldown 的生产构建耗时不到 1.67 秒,而使用 Turbopack 的 Next.js 16 则需要 7.38 秒。速度提升了 4.4 倍。客户端软件包的大小也从 168.9KB 减少到了 72.9KB,小了 57%。但 Cloudflare 提醒说,这些数字是“方向性的,不是确定性的”,因为它们基于单一测试环境,而不是现实世界中的生产应用。

图片来源:Cloudflare博文

 

领导开发这个项目的 Cloudflare 工程师 Steve Faulkner 在博文中描述了其工作流程:最初几个小时在 OpenCode 中使用 Claude 定义架构,然后迭代执行任务,由 AI 编写实现和测试。当测试通过时,合并代码。当测试失败时,AI 接收错误输出并迭代代码。800 多次 AI 会话便生成了大部分的代码,但每一行都通过了质量检查:1700 多个 Vitest 测试,从 Next.js 测试套件移植过来的 380 个 Playwright E2E 测试,TypeScript 检查和代码分析。

 

vinext 实现了 Next.js 的 API 接口、路由、服务器渲染、React 服务器组件、服务器操作、缓存、中间件(作为 Vite 的插件,而不是封装 Next.js 的输出)。这使得它可以在任何支持Vite Environment API的平台上运行,尽管 Cloudflare Workers 是其主要的部署目标。该公司声称,代码库中大约 95%的代码是平台无关的 Vite 代码。

 

部署到 Workers 只需要一个命令:vinext deploy。App Router 和 Pages Router 都完全支持客户端水合。缓存方面,vinext 包括一个用于 ISR(增量静态再生)的 KV 缓存处理器。在线示例包括一个App Router游乐场、一个Hacker News克隆CIO.gov(这是美国政府的一个 beta 站点,由 National Design Studio 运营)。

 

一个重要的限制是:vinext 尚未支持构建时静态预渲染。Next.js 在 next build 期间使用 generateStaticParams()预渲染页面。vinext 只支持 ISR,缓存并在第一次请求后重新验证页面。不过,静态预渲染已在路线图上

 

Cloudflare 提出了一个名为 Traffic-aware Pre-Rendering(TPR)的替代方案,目前还是实验性的。TPR 在部署时查询 Cloudflare 的区域分析,并且仅预渲染接收实际流量的页面。对于一个有 10 万个产品页面的网站,其中 90%的流量是访问其中的 50-200 个页面,这些页面将被预渲染,其余的则回退到按需 SSR。这只适用于已接入 Cloudflare 网络且具备现有分析数据的网站。

 

社区的反馈已经超出了实现质量的范畴。在Reddit的r/vibecoding论坛上,开发者们质疑其可维护性影响,有参与者评论道:“最后一句话很随意地承认了该代码难以由人类进行维护这一事实。”此言是针对 Cloudflare 宣称 AI 无需中间抽象层,因其“能将整个系统置于上下文之中”的说法。另有人指出:

 

一周开发完成意味着没有人真正地浏览过代码。

 

Hacker News上的反馈也反映出了类似的怀疑。一位评论者指出了文档悖论:

 

你越完善地记录工作成果,越清晰地定义契约,他人就越容易复制你的工作。若没有 Next 自主研发的测试工具,Cloudflare 根本不可能实现这一目标。

 

还有一位评论者指出,Vite 承担了最繁重的工作:

 

vinext 大约 95%的代码是纯 Vite。真正的成果是人为构建的 Vite。

 

需要注意的是,该项目目前还是一个实验性的项目。正如 Cloudflare 的博文所描述的那样:

 

vinext 是实验性的。它甚至还不到一周大,还没有经过任何有意义的大规模流量的实战测试。如果你正在评估将其用于生产应用程序,请务必谨慎行事。

 

README列出了明确不支持的特性和已知的限制。Cloudflare 正在与其他托管服务商合作推广该工具链;他们不到 30 分钟就为 Vercel 完成了概念验证部署,但该项目的长期可行性仍然存疑。

 

对于有兴趣参与测试的开发者,vinext 提供了一个用于迁移的 Agent Skill,可与 Claude Code、OpenCode、Cursor 及类似的工具搭配使用:npx skills add cloudflare/vinext。或者,也可以使用 npx vinext init 手动处理迁移。

 

声明:本文为 InfoQ 翻译,未经许可禁止转载。

 

原文链接:https://www.infoq.com/news/2026/03/cloudflare-vinext-experimental/

开发者朋友们大家好:

这里是 「RTE 开发者日报」,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real-Time Engagement) 领域内「有话题的技术」、「有亮点的产品」、「有思考的文章」、「有态度的观点」、「有看点的活动」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。

本期编辑:@koki、@鲍勃

01 有话题的技术

1、微信被曝自有独立 AI 模型,计划年内落地

据报道,腾讯正在打造一款「绝密级」AI 智能体,它直接内嵌进微信,能够帮你打车、买菜、订机票、是一个全程代劳的「真·生活管家」。

值得一提的是,腾讯曾经也把旗下独立 AI APP 元宝塞进了微信,但本质上它只是个聊天助手,离真正的 AI 智能体仍有一定差距。

而微信在 AI 进展缓慢的原因,一定程度上是基于战略上的谨慎。 微信有 14 亿月活,任何一个不成熟的功能,都可能引发大规模负面体验。据了解腾讯高管想法的人士透露,正是这种顾虑,让微信团队一直没敢轻举妄动。

这个项目从去年上半年就开始酝酿,内部被列为「最高优先级绝密项目」。

核心思路只有一个:把 AI 智能体接入微信生态里的百万小程序。

这个项目另一个值得关注的细节是:微信团队目前没有使用腾讯自研的混元(Hunyuan)模型,而是在测试智谱、阿里、DeepSeek,甚至微信自己开发的小型模型。原因很直接,混元的综合性能还没达到业内顶尖水平。

诚然,阿里和字节的优势在于服务生态的深度整合,但它们的核心产品(通义、豆包)本质上都是用户需要主动打开的独立 App。

微信不一样。微信是中国人手机上卸载不了的应用,是社交关系的承载体,是日常生活的操作系统。当 AI 智能体内嵌进微信,它不需要教育用户「去用一个新 App」,用户本来就在这里,每天都在这里。

这是微信做 AI 智能体最深的护城河,也是阿里和字节最难复制的壁垒。而按腾讯这次的准备力度来看,他们显然不打算再用半成品去赌这个答案。一旦出手,很有可能就是降维打击。

(@APPSO)

2、Kaltura 发布 Agentic Avatars:支持 SDK 嵌入的生产级实时多模态对话智能体

数字体验平台 Kaltura 宣布正式推出 Agentic Avatars,这是一类集成了组织智力与业务意图的实时视频 AI 智能体。该系统不仅作为独立应用,更以 Conversational Agents SDK 形式开放,允许开发者将支持多模态感知的虚拟人交互深度集成至自有 App、工作流及企业数据系统(CRM/ERP)中。

技术特性与交互架构

  • 多模态感知能力:智能体支持超过 30 种语言的实时对话,具备屏幕感知与摄像头视觉理解能力,能够根据用户的视觉反馈和上下文信号调整响应策略。
  • Agentic 意图引擎:采用意图驱动逻辑,而非简单的 Q\&A。系统会根据定义的业务目标(如线索转化、故障解决)引导对话方向,支持动态生成的媒体内容填充。
  • 企业级治理:内置针对组织知识库(RAG)的地面化(Grounded)约束,确保输出符合企业合规性与治理标准。

通过 Conversational Agents SDK,开发者可获得对虚拟人行为的底层控制权,从而做到自主定义对话状态机、知识库访问权限及不同输入信号的触发逻辑。通过 API 与企业后端系统实时同步,实现如自动创建支持工单或实时资格审查(Qualification)等闭环操作。

适用于金融服务,技术营销,教育和人力资源等多个行业,多种场景。

( @Kaltura\@GlobeNewswire)

02 有亮点的产品

1、高通 Arduino 发布 Ventuno Q:集成 40 TOPs 算力与 STM32H5 实时控制的机器人开发板

Qualcomm(高通)联合旗下 Arduino 发布单板计算机 Ventuno Q。该硬件采用高通 Dragonwing IQ8 处理器协同 STM32H5 低延迟微控制器(MCU)的双芯架构,核心定位于需高算力视觉处理与确定性电机控制相结合的边缘侧机器人及 AI 系统。

核心处理器搭载 Dragonwing IQ8,集成 8 核 ARM Cortex CPU、Adreno A623 GPU 以及 Hexagon Tensor NPU,AI 推理算力达 40 TOPs。同时,在实时层有独立的 STM32H5 MCU 负责处理高精度的物理运动反馈与低延迟传感器数据,实现视觉感知与机械操作的同步对齐。

软件栈与 AI 应用能力

  • Arduino App Lab:内置预训练模型库,支持 LLM、VLM、ASR、手势识别、姿态估计及目标跟踪,所有模型均支持全离线运行
  • 机器人开发栈:提供视觉处理与确定性(Deterministic)电机控制集成方案,兼容主流边缘 AI 愿景系统。
  • 典型场景:适用于智能终端、医疗助理、流量分析、边缘侧生成式 AI 原型开发及自动化机器人研究。

该平台旨在通过单板集成感知、决策与行动链路,将 AI 推理从云端迁移至物理执行层。其算力储备满足了对隐私性、实时性要求极高的工业巡检、医疗机器人及高性能边缘视觉感知系统的开发需求。

( @Steve Dent\@engadget)

2、微软推出 AI 健康平台 Copilot Health:能查化验结果、找医生,还能答疑

3 月 12 日,微软宣布推出「独立健康空间」Copilot Health,用户可以查询化验结果、查看医疗记录、搜索医生或医疗机构,并分析来自可穿戴设备的数据,还可完成各种健康相关问答。

微软表示,Copilot Health 不会取代医生,也不会提供诊断或治疗建议。其定位是帮助用户理解个人健康数据,用户可以通过 HealthEx 从美国超过 50000 家医院和医疗机构导入医疗记录,也可以导入化验结果。

其还支持苹果、Oura 和 Fitbit 等厂商的 50 多种可穿戴设备。系统主页可以显示步数等实时数据,也可以提醒用户即将到来的医疗预约,具体取决于用户愿意共享的数据。

用户还可以通过 Copilot Health 寻找医生。系统连接美国实时医疗服务提供者数据库,用户可以按照专科领域、地理位置、使用语言以及保险计划筛选医疗机构或医生。

微软表示,Copilot Health 通过优先引用来自全球 50 个国家权威医疗机构的信息,提高回答的质量和可靠性。Copilot Health 的回答会附带来源链接,同时还会提供来自哈佛健康出版的专家解答卡片。

(@IT 之家)

3、美国智能婴儿监测公司 Owlet Baby Care 靠「硬件+订阅」模式,2025 年营收破 7 亿元

美国智能婴儿监测公司 Owlet Baby Care 近日发布财报,显示其2025 全年营收 1.057 亿美元(约合 7.3 亿元),同比增长 35.4%

Owlet 是一家创立于 2013 年的消费者健康科技公司,专注于智能婴儿监测产品的设计和制造,采用「硬件+订阅」的商业模式。

其核心产品是 Smart Sock(智能袜子)是一款可穿戴监测器,可追踪新生儿的心率和血氧饱和度水平,并将实时数据传送到 App。2021 年该产品升级为 Dream Sock,并获得 FDA(美国食品药品监督管理局)批准,成为一款正规的医疗产品;此后,Owlet 扩展了产品线,还推出高清视频监控设备 Owlet Sight。

婴幼儿睡眠中潜在风险高,父母或者其他看护人员照料压力大。智能袜子精准解决家长对婴儿安全的焦虑,满足实时监护的刚性需求,产品一经推出即获市场认可。

截至 2025 年底,Owlet 全球活跃设备已超过 65 万台。

针对 25 年营收的强势表现,Owlet 总裁兼首席执行官哈里斯强调,2025 年 1 月推出的 Owlet360 订阅服务是一个核心战略转变。

Owlet360 不同于 Owlet Dream App,它是一个高级订阅功能。除了实时监测外,高级订阅还能解锁专属功能,例如每日健康概览、每周健康趋势分析以及包含详细睡眠模式分析的个性化晨间报告。Owlet360 还提供舒适体温监测、与同龄宝宝的对比数据、运动分析,以及持续更新和新功能。

公司表示,截至 3 月初,已拥有超过 11 万付费订阅用户,管理层指出,最近已在国际上推出订阅服务,称这开启了新的高利润率收入来源。

(@多知)

4、iQIBLA 推出高频交互的宗教助手 Zikr Ring(赞念戒指)四年狂卖 400 万只

在巨头环伺的穿戴市场,iQIBLA 放弃了步数、心率等通用的健康监测逻辑,转而深耕全球 20 亿穆斯林用户的精神刚需。自 2021 年品牌正式推出以来,核心单品 Zikr Ring 在短短约四年时间里,于中东及全球穆斯林市场创下了累计出货400 万只的惊人战绩。

它将穆斯林传承千年的宗教器物——念珠、指南针、祈祷提醒器,集成进了一枚小小的智能戒指和一套云端系统里。Zikr Ring 看起来像一枚极简的科技饰品,但其本质是一个高频交互的宗教助手。

它解决了三个核心问题:

  • Qibla Compass(朝向指南针):解决跨地域修行的空间定位焦虑

对于身处异地或频繁旅行的用户而言,精准定位克尔白的方向是每日礼拜的首要前提。iQIBLA 集成了高精度的地磁传感器,通过软硬一体的校准算法,解决了传统手机指南针易受电磁干扰、指向不稳的痛点。用户只需抬手或查看戒指屏幕,即可在几秒钟内获得精准的空间坐标导航。

  • Custom Tasbih(自定义计数):解决修行进度的个性化管理问题

传统的计数方式往往依赖物理念珠或机械计数器,难以记录复杂的修行计划。Custom Tasbih 功能允许用户在 App 中根据个人或导师的建议,灵活设定不同经文的计数目标,当用户通过戒指上的物理按键完成预设目标时,硬件会通过特定的震动频率进行反馈。这种逻辑将模糊的修行转化为精确的进度管理,让每一次按压都成为可感知的精神积累。

  • Time Reminders(礼拜时间提醒):解决现代生活节奏与宗教节律的冲突

由于礼拜时间随太阳运行角度每日微变,精准的时间控制是穆斯林生活的底层刚需。Time Reminders 结合用户实时经纬度,通过天文算法自动更新每日五次礼拜的精准时刻。相比于手机闹钟的嘈杂,戒指的指间震动更加私密且庄重,避免了在工作会议或公共场合产生不必要的打扰,确保用户在忙碌的现代生活中依然能保持与宗教节律的同步。

但 iQIBLA 的志向从未止步于单纯的硬件制造,其核心逻辑是试图通过这些硬件切入,为全球穆斯林用户建立一个无缝连接的数字交互系统

目前,iQIBLA 的产品矩阵已从智能戒指延伸至智能手表、高精度电子计数器,甚至是专用智能设备。这些产品高度统一地围绕着指向、提醒、记录这三大核心逻辑展开。

这种从工具向生态、从硬件向精神系统的跃迁,正是 iQIBLA 在出海浪潮中能够后发先至的野心所在。

( @Z Potentials)

03 有态度的观点

1、Neuralink 联合创始人:第一批能活到 1000 岁的人或已出生

Neuralink 联合创始人马克斯·霍达克(Max Hodak)近日在多场公开访谈与播客中提出激进预测,称「第一批能活到 1000 岁的人,现在可能已经出生了」。

霍达克认为,2035 年将成为技术发展的「事件视界」,人工智能与脑机接口(BCI)的协同突破,将在此后重塑人类生命状态。

他指出,大脑本质上是一台被头骨包裹的精密计算机,而当前 AI 模型的潜空间结构与人类大脑处理信息的方式高度相似,这意味着神经科学正逼近大脑的底层「API」。

霍达克在访谈中进一步描绘了未来 5 至 10 年的技术路径,包括:

  • 生物混合接口:通过干细胞技术在大脑中「生长」神经元接口,替代金属电极,实现更高带宽的人机融合;
  • 数字药物:利用超声波等非侵入式手段精准调控脑区,形成可替代化学药物的「数字安眠药」「数字兴奋剂」;
  • 寿命延长技术:从可穿戴人工肺等微型生命维持系统,到更具争议性的意识备份概念,推动医学从「抢救模式」转向「终点治疗」。

(@APPSO)

04 社区黑板报

招聘、项目分享、求助……任何你想和社区分享的信息,请联系我们投稿。(加微信 creators2022,备注「社区黑板报」)

1、Physical AI 系列活动硅谷站!探讨和上手全模态与硬件智能丨 Meetup+Workshop,3 月 19 日

湾区硅谷的开发者和创业者们,3 月 19 日见!

GTC 期间,来一场动脑又动手的 Physical AI 全天候嘉年华!同一场地,两场硬核活动无缝衔接:

🌅 上午 09:30|Meetup:对话真实世界

Agora | RiseLink | MiniMax | HumanTouch | EverMind | Resonance Ventures 等大咖齐聚,拆解全模态与端侧智能的机会与未来。

🛠 下午 13:30|Workshop:手搓语音 AI 硬件

基于 TEN 框架,实操接通语音 AI Agent。重点来了👉现场备有 40 套 Agora R1 开发板,代码跑通直接把硬件带回家!

上下午活动需分开独立报名,名额有限,拼手速:

上午 Meetup 报名:

https://luma.com/8we6qyma

下午 Workshop 报名:

https://luma.com/onc0xr9y

地点:Sunnyvale (审核后发具体定位)

阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么

写在最后:

我们欢迎更多的小伙伴参与 「RTE 开发者日报」 内容的共创,感兴趣的朋友请通过开发者社区或公众号留言联系,记得报暗号「共创」。

对于任何反馈(包括但不限于内容上、形式上)我们不胜感激、并有小惊喜回馈,例如你希望从日报中看到哪些内容;自己推荐的信源、项目、话题、活动等;或者列举几个你喜欢看、平时常看的内容渠道;内容排版或呈现形式上有哪些可以改进的地方等。

作者提示: 个人观点,仅供参考

大家的虾,养了多久了?

这一次,我们想认真把大家聚在一起,在3月19日(周四)晚上19点,在北京朝阳·望京,办一届「养虾故事大会」。

带上你的虾,show 出你做了什么,聊聊一路养下来的心得、脑洞和奇怪进展。这不是入门局,是一场属于 OpenClaw 玩家、创作者和高阶养虾人的 Demo Night。

讲出你的养虾故事,由现场观众投票——全场最佳逮虾户,带走 Mac mini M4 一台。

👉 立即报名:luma.com/dgq4wlv8

活动日程

19:00 - 19:10|开场

19:10 - 20:40|Demo 现场开麦

20:40 - 20:50|现场投票

20:50 - 21:00|公布结果 + 颁奖

21:00 - 21:30|自由交流

Demo 现场开麦· 寻找最佳逮虾户

这一批开麦的人——

有人把 OpenClaw 装进 Cardputer,做成了能养的拓麻歌子;有人让虾直接上岗管理公司,升职加薪当 CEO;有人通过硬件采集上下文,把虾喂得比任何人都聪明;有人给虾配上了川普的声线,每天早上亢奋地替你播报;还有人不止做桌宠,把虾开进了电商,认真跑商业化。

大家的背景横跨产品、技术、运营、KOL——唯一的共同点是,他们都把 OpenClaw 玩出了点不一样的东西。

本届开麦嘉宾

  • 手工川 · 科技博主 & Lovstudio.ai CEO
  • 豪大 · OPC & 前大厂 AI 产品经理
  • 小王 Anita · 灵宇宙北美 GTM 负责人
  • Berryxia · 提示词小子 & OpenClaw 商业化
  • AI 异类弗兰克 · QLab 创始人 & AI KOL
  • 宁辽原 · TTC 联合创始人 & CTO
  • Phoebe · NoizAI增长负责人

...

Demo 环节持续开放,欢迎带着你的虾来报名。

Demo 报名要求

  1. 必须带上你的虾虾来到现场,并分享你和它一起做了什么,为什么想做,如何做,以及中间的经验均可。
  2. 每位分享者限时 10 分钟,有无PPT均可。
  3. 现场除了分享,也可能会迎来大家的即兴提问和大胆开麦挑战。

Demo 报名截止:3月17日 20:00, 报名请提前联系小助手「Creators2022」,备注「我要开麦」逾期不候。

奖项

🏆 最佳逮虾户:Mac mini M4 一台

🎁 所有上台 Demo 的参与者:MiniMax Coding Plan

现场投票,现场唱票,结果当晚公布。

报名方式

👉 扫码报名:luma.com/dgq4wlv8

欢迎大家来现场开麦、投票、交流,一起把这届虾养得热闹一点。

阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么

我爸和众多中国老年人一样,其实已经是豆包的忠实用户了。

但作为一个 AI 博主,我内心总是想让老父亲知道 OpenClaw 的牛逼之处,让他开开眼。在家里给他演示一通后,他得出了个结论,软件不错,能控制很多东西,相当于有手脚了,但是就是不好用。

“啥不好用,最近不知道有多火!!”

“我都老花眼了,还要打字,人家豆包说说话就行了。你不是程序员吗?干嘛不做一个。”

这话我一听就来气,所以这两天我就一直研究,如何给OpenClaw 套上通话功能。

现在先给大家看看实际的使用情况:

架构选择

你可能以为我要短期内 vibecoding OpenClaw的插件之类的,但在这个普通人30 分钟都能写一个项目的年代。我估计这个功能早就实现了。

问题是如何找到这些代码呢?

第一是靠搜索:先随便搜搜,openclaw+voice,就会发现很多项目。

第二是靠积累:由于对架构的理解,我很早就知道有不少做 voice AI agents

接下来就是翻翻代码库,看看有没有上 OpenClaw 了。经过一番搜索,我选择了star 比较多,比较眼熟的ten-framework。

为什么这么选择呢?

首先他的文档比较完善,部署流程清晰了,我几乎不用写任何代码

还有个重要的原因,就是 OpenClaw 更新频繁,可能几天前的代码就变得老旧了,我还认识开发者,到时候督促他修修 bug。

基本服务购买

为了让整个项目运行起来,你需要注册 4 个免费的服务,其中除了 DeepSeek,其他都不需要付费。

DeepSeek(国内替代推荐)

国内直连,OpenAI 兼容接口,价格极低(约 OpenAI 的 1/50)。

注册步骤

  1. 打开 DeepSeek 开放平台
  2. 点击 注册,用手机号或邮箱注册

充值

  1. 登录后点击左侧 费用(Billing)
  2. 最低充值 ¥2,充 ¥10 能用很久

获取 API Key

  1. 点击左侧 API Keys:https\://platform.deepseek.com/api\_keys
  2. 点击 创建 API Key
  3. 填写名称,点击创建
  4. 立即复制保存——只显示一次

Deepgram(语音识别 STT)

用于将用户语音实时转为文字。

注册步骤

  1. 打开 Deepgram 控制台
  2. 点击 Sign Up,支持 Google / GitHub 登录或邮箱注册
  3. 首次登录会引导创建项目

获取 API Key

  1. 进入控制台,点击左侧 API Keys
  2. 点击 Create a New API Key
  3. 填写名称(如 \`openclaw\`),权限选 Member 或 Admin
  4. 点击 Create Key
  5. 立即复制保存——页面关闭后无法再查看

免费额度

新账号赠送 $200 免费额度,不需要绑信用卡,个人测试用很久。

ElevenLabs(语音合成 TTS)

用于将 AI 回复文字转为语音播报。

注册步骤

  1. 打开 ElevenLabs
  2. 点击右上角 Sign Up,支持 Google / GitHub 登录或邮箱注册

获取 API Key

  1. 登录后,点击左侧边栏最下面的 Developers
  2. 选择 API Keys 标签
  3. 点击 Create an API Key
  4. 填写名称,权限建议全部打开(Access / Write)
  5. 点击创建
  6. 立即复制保存

免费额度

免费计划每月 10,000 字符的语音合成额度,包含 API 访问权限,测试够用。

Agora(实时音视频 RTC)

用于浏览器与 AI 助手之间的实时音视频通信。

注册步骤

  1. 打开 Agora 控制台
  2. 点击注册,填写邮箱/手机号,完成验证

创建项目

  1. 登录后进入控制台,点击左侧 项目管理
  2. 点击 创建项目
  3. 填写项目名称(如 openclaw-voice)
  4. 使用场景选 互动直播 或 语音通话
  5. 鉴权机制选 安全模式(推荐)
  6. 点击提交

获取 App ID 和 Certificate

  1. 回到 项目管理 页面
  2. 找到刚创建的项目,点击 App ID 右侧的 复制图标
  3. 点击 配置 → 找到 主要证书,点击复制

信令服务rtm开启

  1. 打开项目详情
  2. 在Signaling选择数据中心开启

免费额度

每月 10,000 分钟免费使用,个人测试完全够用。

项目配置

克隆项目

将项目整体克隆下来:

https://github.com/TEN-framework/ten-framework

配置

环境变量配置

参考ai_agents/agents/examples/openclaw-example里面的 readme。

我们在ai_agents/下创建 .env文件,内容具体如下:

# --- 服务配置 ---LOG_PATH=/tmp/ten_agentLOG_STDOUT=trueGRAPH_DESIGNER_SERVER_PORT=49483SERVER_PORT=8080WORKERS_MAX=100WORKER_QUIT_TIMEOUT_SECONDS=60# --- 前端 ---AGENT_SERVER_URL=http://localhost:8080TEN_DEV_SERVER_URL=http://localhost:49483NEXT_PUBLIC_EDIT_GRAPH_MODE=false# --- Agora RTC/RTM ---AGORA_APP_ID=<你的 Agora App ID>AGORA_APP_CERTIFICATE=<你的 Agora App Certificate># --- LLM (DeepSeek) ---OPENAI_API_BASE=https://api.deepseek.comOPENAI_API_KEY=<你的 DeepSeek API Key>OPENAI_MODEL=deepseek-chat# OPENAI_PROXY_URL=# --- STT (Deepgram) ---DEEPGRAM_API_KEY=<你的 Deepgram API Key># --- TTS (ElevenLabs) ---ELEVENLABS_TTS_KEY=<你的 ElevenLabs API Key># --- OpenClaw Gateway ---OPENCLAW_GATEWAY_URL=ws://host.docker.internal:18789OPENCLAW_GATEWAY_PASSWORD=<你的 Gateway 密码>OPENCLAW_GATEWAY_ORIGIN=http://host.docker.internal:18789OPENCLAW_GATEWAY_SCOPES=operator.writeOPENCLAW_GATEWAY_DEVICE_IDENTITY_PATH=/data/openclaw/device_identity.js

OpenClaw配置

首先将 OpenClaw 的网关改成密码模式,具体步骤

openclaw config set gateway.auth.mode password                                             openclaw config set gateway.auth.password lxfater   

然后为了安全,需要配置Control UI Allowed Origins ,具体步骤如下图

在 OpenClaw 的 Settings → Gateway → Control UI Allowed Origins 中添加:

http\://host.docker.internal:18789

这个值必须与 .env 中的 OPENCLAW\_GATEWAY\_ORIGIN 完全一致(包括协议 http\:// 不能写成

wss\://,不能带路径)。如果不匹配,Gateway 会拒绝连接并返回 origin not allowed。

修改代码扩展功能

实际使用下来,为了方便中国人使用,需要对配置进行更改,具体如下

ai\_agents/agents/examples/openclaw-example/tenapp/property.json — 4 行改动

  • STT 语言 en-US → zh,模型 nova-3 → nova-2
  • LLM base\_url 从硬编码

    https\://api.openai.com/v1

    → ${env:OPENAI\_API\_BASE}

  • LLM model 从硬编码 gpt-4o → ${env:OPENAI\_MODEL}

上面主要是让 ASR 能转录中文,还有去除硬编码的环境变量,方便配置国内的模型。

构建容器

mac arm 架构下部署注意事项:

由于这个项目不支持arm64 架构,你需要在 docker开启虚拟化,具体步骤如下

  1. 打开 Docker Desktop
  2. 点击右上角 齿轮图标(Settings)
  3. 左侧选 General
  4. 往下找到 Virtual Machine Options
  5. VMM 选择 Apple Virtualization framework
  6. 勾选 Use Rosetta for x86\_64/amd64 emulation on Apple Silicon
  7. 点击 Apply & Restart

然后运行如下命令

# 1. 构建镜像                                                                                cd <项目所在目录>/ten-framework/ai_agents  # 强制build amd64 版本  docker build --platform linux/amd64 -f agents/examples/openclaw-example/Dockerfile -t        openclaw-example-app .                                                                                                                                                                

运行项目

首先保持 OpenClaw 开启,想看到网关的日志的话,推荐使用

*

openclaw gateway --force

然后运行容器

# 要在cd <项目所在目录>/ten-framework/ai_agents目录下
 docker run --rm -it --env-file .env -p 8080:8080 -p 3000:3000 openclaw-example-app

登录到http\://localhost:3000,会看到如下所示界面,我们复制这个命令运行,进行配对

使用项目

  1. 打开这个项目的第一件事情是选择麦克风
  2. 然后我们还要选择配置;voice-assistant
  3. 检查是否联通

具体如下图所示

现在开始就可以愉快对话了。

要求他创建在桌面创建一个文件,如下图所示,口喷就行:

很快就创建好了

结束

接入语音对话功能后,OpenClaw 开始有能力给不懂技术的普通人使用。

普通人估计都没有接触过开口就能干活,不废话的 AI

我给我爸的 OpenClaw 套上了个修复图片的 skill,他就乐呵呵地年轻时候的照片进行修复了。

普通人其实对 AI 产品只有两个要求:好用,能干活。

这篇文章希望对你有帮助!!

喜欢我的文章可以关注我的公众号

在这里插入图片描述

图片

阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么


图片