在数据驱动成为常态的今天,数据采集早已不再是技术门槛问题,而是访问许可问题。随着平台对自动化访问的识别能力不断提升,采集系统能否长期运行,越来越取决于网络行为是否合理。

数据采集代理正是在这种环境下,成为整个系统的关键基础。如果网络层缺乏可信度,即便采集逻辑再完善,也难以持续输出有效数据。

为什么采集失败往往源于网络层

很多采集任务在初期表现良好,但随着规模扩大,访问受限问题频繁出现。这类问题并不一定与采集频率直接相关,而是源于访问来源过于集中或行为模式不自然。
当请求长期来自可识别的网络结构时,平台会逐步建立风险画像。一旦触发阈值,限制便会成为常态。
因此,采集系统的稳定性,首先取决于代理网络是否具备真实用户的行为特征。

数据采集代理的真正作用

代理在数据采集中的价值,并不是隐藏身份,而是让访问行为显得合理。每一次请求,都应当符合目标平台的流量模型,而不是脱离整体环境。
基于真实家庭网络的代理,在这一点上具备天然优势。其访问节奏和分布方式,更容易融入正常用户行为中。
但前提是,这种代理必须被正确管理。无序切换、过度随机,都会破坏行为连贯性,从而引发新的风险。

稳定性带来的长期收益

短期内,通过激进切换策略或许可以获取数据,但这种方式难以长期维持。真正有价值的数据采集,往往需要持续观察和长期积累。
稳定的数据采集代理,可以让系统在较长时间内保持运行状态,从而支持趋势分析和结构化判断。这种能力,本身就是竞争优势。

降低系统维护成本的关键

不稳定的代理环境,会迫使团队不断修复采集系统,封禁、重试、替换资源都会消耗大量时间和成本。
当代理网络本身足够稳定,这些问题就会显著减少。系统可以专注于数据本身,而不是持续应对访问中断。

长期采集能力的未来价值

在数据竞争日益激烈的环境中,谁能持续获取高质量数据,谁就拥有更大的决策优势。
评估数据采集代理时,不应只关注短期表现,而应关注其长期可用性。稳定、真实、可持续,正在成为数据采集代理的核心标准。

坐标深圳最近发现很多人买 20w 的车感觉都很轻松随意,以前我会觉得说买 10 多 w 的是大众的常态,20w 的车算得上有小钱,但是我现在发现 20w 的车遍地都是,现在的新能源起步就是 20w,我想问一下大家都是全款买的还是贷款买的还是家庭资助的,还是说是单纯的社会发展起来了大家都有钱了

我快被这个交通银行太平洋信用卡中心烦死了
每天都打我电话
我可以确定我没欠钱
看着都是交通银行太平洋信用卡中心,但是点进去号码还不是固定的
导致我每次拉黑都是只拉黑了一个号码
小米手机是不是可以通过关键词拉黑的,没找到

5499 这个价格太香了,自己是双持党,主力机选了荣耀,收发短信和接打电话的信号不是一般的强。其他常用 APP 在果子生态上,想拿 Air 作为日常娱乐机和备用机,有国区 ID 和外区 ID ,没什么拍照需求。

借宝地问问大家:

1.在国内,国内 esim 和境外 esim 能共存吗?

2.假设 1 成立,如果要把 giffgaff 的卡转成 esim 写进去的话,是不是要物理出去?

3.假设 1 成立,物理出去把 giffgaff 的 esim 写进去之后,回来是否还能正常收到短信或者漫游流量吗?

最近在练习呼吸冥想,也在尝试理解和提升一种比较「高级」的能力:
在冥想过程中,对自己思想的流动有更多一点“可控性”。


我在做的呼吸冥想(简化版)

这里用的是一个尽量「无门槛」的版本,更偏实用主义:

  1. 找个可以安静坐 5~10 分钟的位置
  2. 自然呼吸,不刻意加深或放慢
  3. 选择一个感受点作为「锚点」:
    • 鼻腔进出气流
    • 胸腔起伏
    • 或者腹部鼓起 / 收缩
  4. 每次发现思绪跑偏,只做一件事:把注意力带回呼吸
  5. 计时到了就结束,不打分、不评价

核心就是:

「发现走神 → 回到呼吸」这个循环本身,就是练习。

这类基础的呼吸冥想,其实已经涵盖了很多后续进阶练习里的核心原理,只是形式更简单、门槛更低。


关于对「思想的控制」这件事

这里说的「高级」冥想,指的是:
在冥想时,对念头有更高的可控性——不是完全消灭思想,而是:

  • 能更快察觉:现在脑子在想什么
  • 能决定:是继续跟着这个念头走,还是放下,回到呼吸
  • 能不被情绪和自动化的想法瞬间拽走

很多进阶练习,其实就是在基础呼吸冥想的基础上,进一步训练这几件事,比如:

  • 把注意力从呼吸扩展到:身体感受、当前情绪、念头本身
  • 练习“看见一个念头出现,然后让它离开”,而不是立刻参与进去
  • 观察某些反复出现的思维模式,比如:过度担心、自动自我否定、脑内争辩等

本质上还是在练:

“念头出现 → 被意识到 → 被选择如何对待”,而不是自动反应。


想讨论的问题

  • 有在练冥想、正念或类似练习的朋友吗?
    你们是怎么训练“对思想更有控制力”这件事的?
  • 除了呼吸冥想之外,有没有哪些练习,能比较系统地提升对念头 / 情绪的觉察和调节能力?
  • 对已经能稳定做基础呼吸冥想的人,如果想在「处理念头」这一块更进阶一点,有哪些靠谱的练习方向或材料可以参考?

欢迎分享自己的实践、工具或踩过的坑,也欢迎从旁观视角,对这种「先把呼吸冥想打底,再慢慢练对念头的掌控」的思路提一些建议。

往年都会提前放假,延后返工,今年没了
钱也是,比往年少了一大截
感觉很糟糕
裁员并岗,年后活增加了,加量不加价。嗯,2026 年的开头也很糟糕

作为一个入市多年、踩过不少坑的普通散户,前两年全凭感觉买股票,要么追高被套在山顶,要么错过最佳卖点拍大腿,折腾大半年没找到合适的操作节奏,还耗费了大量时间和精力。后来偶然接触到量化交易,才彻底明白:“用数据说话、用规则约束”,才是降低风险、提升操作效率的关键——但一开始就被“量化门槛高”“API 收费贵”这两个难题劝退,直到偶然发现这个免费股票 API,才算真正迈出了量化入门的第一步,今天就把这份实测可行的经验,毫无保留分享给和我当初一样迷茫的新手。

先跟大家说句实在话:新手做量化,真的不用一开始就追求复杂的机器学习模型,也不用花大价钱买付费 API。免费版就足够我们完成基础的策略搭建、实时数据接入和历史回测,等后续有了更高需求(比如做高频交易、需要 Level2 深度数据),再考虑升级付费版也不迟,这也是我实测下来,最省钱、最高效的量化入门路径。

今天不聊虚的,纯个人实操经验拆解,下面教大家使用这款免费股票 API,搭建一个简单易上手、适合新手的量化交易策略,全程避开我踩过的各种坑,保证接地气、可落地。

一、接入实时数据

量化交易的核心逻辑是什么?其实很简单:实时获取市场数据 → 根据预设的策略逻辑判断 → 触发对应的交易信号,其中“实时数据接入”是最基础、也最关键的一步——如果数据延迟太高,策略判断就会失真,甚至可能导致不必要的亏损。而 iTick 的免费 API,支持 RESTful API 和 WebSocket 两种推送方式,实时延迟非常低(主要市场延迟<100ms),完全能满足非超高频策略的使用需求,新手也能轻松驾驭。

我全程用的是 Python(新手首选编程语言,语法简单、网上资料多,遇到问题能快速找到解决方案),下面直接上实测可用的代码,大家复制粘贴后,替换成自己的 API Token,就能直接运行,轻松获取实时股票数据,每一步我都标了详细注释,看不懂的地方慢慢看,不用怕。

首先,需要安装两个必要的库(打开电脑终端,输入对应命令即可):pip install requests websocket-client,这两个都是 Python 常用库,用于调用 API、接收实时数据,安装过程不会出错,新手放心操作。

1. 用 RESTful API 获取实时报价

import requests

# 替换成你自己的iTick API Token
api_token = "你的API Token"
# 设定要获取的股票(以A股贵州茅台为例,代码格式:区域.代码,SH=上交所,SZ=深交所)
url = "https://api.itick.org/stock/quote?region=SH&code=600519"
# 请求头,必须带上Token,否则会调用失败、报错
headers = {"accept": "application/json", "token": api_token}

# 发送请求,获取股票实时数据
response = requests.get(url, headers=headers)
# 解析数据,转换成JSON格式,方便后续查看和使用
data = response.json()

# 打印获取到的实时数据(重点看这几个关键信息,新手可直接参考)
print("股票名称:", data["s"])
print("实时价格:", data["ld"])
print("实时成交量:", data["v"])
print("实时涨跌幅:", data["chp"])

实测效果跟大家说一下:运行代码后,能瞬间获取到茅台的实时价格、成交量、涨跌幅,延迟非常低,和我们平时用的股票软件上的价格基本同步。新手建议先从单个股票入手,熟悉数据格式和调用流程,再慢慢扩展到多只股票,循序渐进更稳妥。

2. 用 WebSocket 订阅实时行情

如果我们的策略需要持续监控多只股票的实时走势(比如同时监控茅台、宁德时代、比亚迪),用 WebSocket 就更合适了,它能实现“实时推送”功能,不用反复发送请求,操作效率更高,也更节省时间。

import websocket
import json

# 替换成你自己的iTick API Token
api_token = "你的API Token"

# 定义消息接收函数,实时接收平台推送的行情数据
def on_message(ws, message):
    # 解析推送的数据,转换成可查看的格式
    data = json.loads(message)
    # 打印实时行情(可根据自己的需求修改,比如只打印涨跌幅超过1%的股票)
    print(f"股票:{data['s']} | 实时价格:{data['ld']} | 涨跌幅:{data['chp']}%")

# 定义连接函数,建立WebSocket连接(不用修改,复制即可)
def on_open(ws):
    # 订阅多只股票的实时行情(这里以茅台、宁德时代、比亚迪为例,可自行修改)
    subscribe_msg = {
        "action": "subscribe",
        "types": "quote",
        "params": "SH$600519,SZ$300750,SZ$002594",
    }
    # 发送订阅请求,完成多只股票实时行情订阅
    ws.send(json.dumps(subscribe_msg))

# 建立WebSocket连接,固定格式,不用修改
ws = websocket.WebSocketApp("wss://api.itick.org/stock",
                            on_open=on_open,
                            on_message=on_message)

# 持续运行,实时接收行情数据(关闭终端即可停止)
ws.run_forever()

二、实战搭建交易策略

成功接入实时数据后,就可以正式搭建量化交易策略了。新手建议从“双均线策略”入手,这个策略逻辑简单、容易理解、风险可控,也是很多资深量化交易者入门时首选的策略,结合 iTick 的实时数据和历史数据,就能快速实现,不用复杂的编程基础。

先跟大家简单拆解下双均线策略的核心逻辑(不用记复杂公式,理解意思就行,新手也能听懂):
选取两条均线——短期均线(比如 20 日均线)和长期均线(比如 60 日均线),通过两条均线的“交叉”情况,来判断交易信号:

  • ① 短期均线上穿长期均线(行业内叫“金叉”),说明股票趋势向好,触发“买入”信号;
  • ② 短期均线下穿长期均线(行业内叫“死叉”),说明股票趋势走坏,触发“卖出”信号。

结合 iTick 获取的实时数据,让程序自动判断信号,避免我们被主观情绪干扰——这也是量化交易的核心优势:理性、纪律性强,不会追涨杀跌,也不会因为贪心或恐慌做出错误决策。

策略搭建步骤

  1. 获取历史数据:获取某只股票的历史 K 线数据(比如近 3 年的日线数据),用来回测策略——回测非常重要,能帮我们验证这个策略在过去的行情中是否有效,避免盲目实盘操作,新手一定要重视;
  2. 计算均线:用 Python 的 talib 库(专门用于股票技术分析的库,新手直接用即可),计算出短期均线(MA20)和长期均线(MA60);
  3. 生成交易信号:根据两条均线的交叉情况,自动生成买入、卖出信号,不用手动判断;
  4. 接入实时数据:用前面讲的 WebSocket 方法,实时监控股票走势,当触发买入或卖出信号时,及时发出提醒(新手建议先只开启提醒功能,不直接自动交易,避免操作失误)。

完整实战代码

import requests
import websocket
import json
import talib
import pandas as pd

# ---------------------- 第一步:获取历史K线数据(用于回测策略,验证策略有效性)----------------------
api_token = "你的API Token"
# 获取茅台近1000条日线数据(limit=100 可自行修改,kType="8"表示日线,固定格式)
url = "https://api.itick.org/stock/ ?region=SH&code=600519&kType=8&limit=100"
headers = {"accept": "application/json", "token": api_token}
response = requests.get(url, headers=headers)
history_data = response.json()

# 转换数据格式,方便后续计算均线(新手不用修改这部分代码)
df = pd.DataFrame(history_data["data"], columns=["date", "open", "high", "low", "close", "volume"])
# 将价格数据转换为数值类型,避免计算时出错
df[["open", "high", "low", "close", "volume"]] = df[["open", "high", "low", "close", "volume"]].astype(float)

# 计算20日均线(短期)和60日均线(长期),新手可修改timeperiod调整均线周期
df["MA20"] = talib.SMA(df["close"], timeperiod=20)
df["MA60"] = talib.SMA(df["close"], timeperiod=60)

# ---------------------- 第二步:生成交易信号(金叉买入,死叉卖出,自动判断)----------------------
# 初始化交易信号(0表示无信号,1表示买入,-1表示卖出,固定设定)
df["signal"] = 0
# 金叉:短期均线上穿长期均线,且前一天短期均线低于长期均线(触发买入)
df.loc[(df["MA20"] > df["MA60"]) & (df["MA20"].shift(1) < df["MA60"].shift(1)), "signal"] = 1
# 死叉:短期均线下穿长期均线,且前一天短期均线高于长期均线(触发卖出)
df.loc[(df["MA20"] < df["MA60"]) & (df["MA20"].shift(1) > df["MA60"].shift(1)), "signal"] = -1

# 打印回测结果(查看过去的交易信号是否有效,新手重点参考这部分)
print("历史交易信号汇总(仅显示有信号的日期):")
print(df[df["signal"] != 0][["date", "close", "MA20", "MA60", "signal"]])

# ---------------------- 第三步:接入实时数据,监控交易信号(新手仅开启提醒,不自动交易)----------------------
def on_message(ws, message):
    data = json.loads(message)
    # 获取实时收盘价、当前日期,用于判断信号
    current_close = data["price"]
    current_date = data["date"]
    # 模拟实时计算均线(这里简化处理,实际可结合历史数据实时更新,新手不用修改)
    # 重点:当实时价格触发金叉/死叉时,打印提醒,新手手动执行交易更稳妥
    # (重要提醒:本文仅为经验分享,不构成投资建议,实盘操作需谨慎)
    if df["MA20"].iloc[-1] > df["MA60"].iloc[-1] and df["MA20"].iloc[-2] < df["MA60"].iloc[-2]:
        print(f"【买入提醒】{current_date} | {data['name']} 触发金叉,实时价格:{current_close}")
    elif df["MA20"].iloc[-1] < df["MA60"].iloc[-1] and df["MA20"].iloc[-2] > df["MA60"].iloc[-2]:
        print(f"【卖出提醒】{current_date} | {data['name']} 触发死叉,实时价格:{current_close}")

def on_open(ws):
    subscribe_msg = {
        "action": "subscribe",
        "token": api_token,
        "symbols": ["SH.600519"]  # 监控茅台的实时行情,可自行修改成其他股票代码
    }
    ws.send(json.dumps(subscribe_msg))

# 启动实时监控,关闭终端即可停止
ws = websocket.WebSocketApp("wss://api.itick.org/stock", on_open=on_open, on_message=on_message)
ws.run_forever()

三、总结

不知不觉写了这么多,其实总结下来就一句话:新手入门量化交易,不用怕技术复杂,不用怕成本太高,用免费股票 API,从最简单的双均线策略入手,先搞定实时数据接入,再慢慢优化策略、熟悉模拟实盘,一步一个脚印,比盲目跟风、凭感觉交易靠谱太多。

我自己就是这样过来的,从一开始连 API 是什么都不知道,到现在能熟练搭建简单的量化策略,实时监控多只股票的行情,虽然没有赚到大钱,但至少避开了以前的主观交易坑,交易心态也平稳了很多——其实量化交易的核心,从来不是“战胜市场”,而是“理解市场”,用纪律性约束自己的交易行为,克服贪心和恐慌,这也是我一直坚持的交易理念。

温馨提示:本文仅供代码参考,不构成任何投资建议。市场有风险,投资需谨慎

参考文档:https://blog.itick.org/stock-api/global-stock-market-realtime-quotes-for-quantitative-trading
GitHub:https://github.com/itick-org/

年纪大了,从二次元回归三次元再回归一次元。
看看大家有没有推荐的精神食量。

虽然感觉不爱看书的人会一直不爱看书,
小时候娱乐匮乏的时候看完一个长篇漫画,
会有一小段事件的回归现实的落差感,
估计现在接触太多内容,
很少会有这种感觉了把!

希望万能的 v 友能多推荐书籍,
路上 17 个小时呢,谢谢!

每天凌晨三点,你的 OLAP 集群仍在空转。

白天的查询高峰早已过去,但为了应对明天可能到来的流量洪峰,计算节点依然全量在线——只因传统架构无法做到“随用随停”。

这不是个例。行业数据显示,当前主流 OLAP 系统的平均资源利用率不足 35%。换句话说,企业每在计算上投入 3 元,就有 2 元花在了“等待”和“空跑”上。更棘手的是,这种浪费并非源于管理疏忽,而是架构本身决定的:存算一体、静态规划、强耦合设计,让系统只能按“最坏情况”配置资源。

在 AI 与实时决策驱动下,企业对 OLAP 系统的期待已从“能查”跃迁至“快、稳、省、易用”。然而,传统 OLAP 架构深陷四大困局:资源僵化、隔离薄弱、成本失控、运维繁重——其静态、耦合、运维密集的设计,已无法匹配动态业务的真实需求。

破局之道在于重新定义 OLAP 的资源供给方式。而这一方向,早在云原生演进初期就已被预见。

2019年,UC Berkeley 在论文《A Berkeley View on Serverless Computing》中极具前瞻性地预言:Serverless 将成为云时代默认计算范式。

  • 极致弹性:系统能够根据业务负载自动、无缝地进行扩容和缩容,甚至可以在没有负载时缩容至“零”,彻底消除资源规划的难题。
  • 按需付费:用户只为代码实际运行所消耗的资源付费,代码未运行时不产生任何费用,从根本上杜绝了资源闲置浪费。
  • 资源隔离:提供灵活而强大的资源隔离能力,有效解决性能抖动、故障传染等风险,保障多租户环境下的系统稳定性。
  • 免运维:将基础设施的建设、管理和运维等繁琐工作下沉到平台提供者,用户无需再关注硬件维护、软件升级等非业务核心工作,从而聚焦于创造价值。

基于 Serverless 的四大支柱,阿里云 Hologres 进一步提出‘Down to Zero’理念,将抽象原则转化为可落地的 OLAP 新范式。

Down to Zero理念:下一代OLAP的技术基石与实现

阿里云 Hologres 提出 “Down to Zero” 理念,以 Serverless OLAP 架构实现范式级突破:成本趋零浪费、算力趋零等待、体验趋零摩擦、运维趋零负担。这不仅是优化,而是一次范式级重构。

  • 成本趋零浪费:成本趋近于零浪费,只为实际使用的计算力付费,资源闲置趋零,将可变成本降至极致。
  • 算力趋零等待:瞬间获取海量算力应对峰值,算力用于有效分析,业务无需提前数月规划硬件。
  • 体验趋零摩擦:用户“点击即得”的即时洞察分析体验成为常态,同时查询延迟、调度延迟、启动延迟均趋零,实现“零延迟”。
  • 运维趋零负担:基础设施管理复杂性大幅降低,团队聚焦业务价值,无需容量规划、版本升级、故障恢复。

“Down to Zero”如何落地?阿里云Hologres的实践路径

为了实现 Down to Zero 的目标和核心价值,让大数据 OLAP 分析回归“按需而动”的本质,Hologres 推出了名为 Serverless Computing 的云原生解决方案,帮助企业实现计算资源如水电般按需取用,它不仅是企业驱动智能决策的智能引擎的技术架构革新,更是一场算力供给范式的革命性突破。

  • Serverless Computing 资源池:大查询、ETL 自动卸载至共享池,实现负载隔离与冷启动“零延迟”。
  • Adaptive Serverless Computing:AI 自动识别大查询、高负载场景,智能路由至弹性资源,无需人工干预。
  • Serverless 型实例:彻底取消预留计算资源,100% 按需取用,真正实现“零持有成本”。

Serverless型实例:让OLAP分析回归“按需而动”的本质

Serverless 型实例,帮助企业实现计算资源如水电般按需取用,从固定支出转向波动可控的“分析即服务”模式,从“人等资源”到“资源随想随用”,从“资源枷锁”到“业务赋能”,进化到全员数据探索的常态。

Serverless 型实例核心组件包括:

计算层:

  • 接入节点:免费赠送。负责连接实例、估算请求所需的资源量、发送请求到
  • Serverless 资源池等。Serverless Computing 资源池:可用区级别共享的计算资源池,负责执行用户的请求,按请求单独调度资源。

存储层:

  • Hologres 独享存储:基于 Alibaba Pangu 存储服务构建,提供高性能、高可靠、高可用、低成本、弹性的存储空间及强大稳定安全的系统服务。

Hologres Serverless 型实例不再预留任何计算资源,根据业务不断波动的负载需求完全使用远端的 Serverless Computing 资源池,做到真正的“零计算资源”持有成本,100%的即用即取,即用即释放。

Hologres Serverless 型实例以零计算资源持有成本、零闲置成本、无限弹性边界、零运维负担等实现分析算力的弹性爆发,进一步极致的诠释着 Down to Zero 的成本趋零浪费、算力趋零等待、体验趋零摩擦 、运维趋零负担的核心价值,让 OLAP 分析回归“按需而动”的本质,将算力转化为竞争力,把业务价值交还给用户。

上述能力并非孤立存在,而是构建于一套完整的 Serverless OLAP 架构蓝图之上。

一个优秀的 Serverless OLAP 系统 是通过存算分离架构和计算组核心抽象,深度融合了自动弹性、分时弹性、无损弹性伸缩、Query Queue、自动限流、Down to Zero (Serverless Computing、Adaptive Serverless Computing、Serverless 型)等六大核心能力,构建了一个极致弹性、极致隔离、免运维、稳定可靠且高性价比的实时分析平台,将算力转化为竞争力,让OLAP分析回归“按需而动”的本质。

Serverless OLAP 的本质是让算力供给隐形化,将基础设施转化为具备商业意识的数字伙伴。当资源使用变得如呼吸般自然,当每焦耳能耗都转化为洞察价值,“Down to Zero”便被赋予全新内涵,从技术理想升维为商业哲学,最终数据智慧在“Down to Zero”的管道中自由奔涌。

阿里云Hologres团队作为国内Serverless OLAP的先行者,以五年躬身探索为基石,撰写万字实战沉淀,首发《Down to Zero, Serverless OLAP 技术白皮书》。这本聚焦“Down to Zero”理念,直击传统 OLAP 成本高、弹性差、运维重等核心痛点,提出下一代分析引擎新范式——让算力按需爆发,资源归零无负担。

网格线是 Excel 工作表中用于区分单元格的浅色线条。有了网格线,用户可以清晰地看到每个单元格的边界,从而更有条理地阅读和处理数据。但在某些场景下,网格线反而会影响整体观感。本文将介绍如何使用 Spire.XLS for .NET 通过代码的方式显示、隐藏或移除 Excel 工作表中的网格线。

安装 Spire.XLS for .NET

首先,你需要将 Spire.XLS for .NET 包中包含的 DLL 文件添加为 .NET 项目的引用。你可以通过下载安装包获取 DLL 文件并手动引用,或者直接通过 NuGet 安装该库。

PM> Install-Package Spire.XLS

在 Excel 中隐藏或显示网格线

具体操作步骤如下:

  1. 创建一个 Workbook 对象。
  2. 使用 Workbook.LoadFromFile() 方法加载示例 Excel 文件。
  3. 通过 Workbook.Worksheets[] 属性获取指定的工作表。
  4. 使用 Worksheet.GridLinesVisible 属性来设置该工作表中网格线的显示或隐藏。
  5. 调用 Workbook.SaveToFile() 方法保存生成的结果文件。

具体示例代码如下:

using Spire.Xls;

namespace RemoveGridlines
{
    class Program
    {
        static void Main(string[] args)
        {
            // 创建一个 Workbook 对象
            Workbook workbook = new Workbook();

            // 加载示例 Excel 文档
            workbook.LoadFromFile(@"E:\Files\Test.xlsx");

            // 获取第一个工作表
            Worksheet worksheet = workbook.Worksheets[0];

            // 隐藏指定工作表中的网格线
            worksheet.GridLinesVisible = false;

            // 显示指定工作表中的网格线
            //worksheet.GridLinesVisible = true;

            // 保存文档
            workbook.SaveToFile("Gridlines.xlsx", ExcelVersion.Version2010);
        }
    }
}

申请临时许可证

如果你希望移除生成文档中的评估提示信息,或解除功能使用限制,请申请一个 有效期为 30 天的临时许可证。

摘要:
印尼征信局推进系统现代化时,遭遇合规成本高企、数据架构承压、服务效率偏低的三重技术挑战,传统架构难以适配业务发展需求。其采用 OceanBase 原生分布式数据库为核心的技术方案,依托在线弹性扩展、混合负载引擎、内置合规特性、全链路本土服务四大技术要点,针对性破解各维度瓶颈,实现了技术层面的核心突破,为征信系统的升级优化筑牢了关键技术基础。

印尼是东南亚最具活力的数字经济体之一,健全高效的征信体系是其保障金融稳定、促进负责任信贷及推动数字化可持续增长的关键基石。作为印尼头部私营征信机构,印尼征信局(Credit Bureau Indonesia,简称 CBI) 管理着超过 1 亿人口的基础征信数据,并致力于整合电信、电商等领域的海量信息,承担着数据归集、治理与服务输出的重要职责。然而,传统技术架构已成为其提升可扩展性与业务效率的主要障碍。

依托 OceanBase 原生分布式数据库核心技术及全链路本地化服务能力,OceanBase 成功帮助 CBI 实现了业务效率与服务质量的跨越式升级。

此次合作不仅有力推动了印尼征信局的业务革新,也标志着 OceanBase 在全球强监管、大体量数据的复杂场景中获得了成功验证。这既是 OceanBase 分布式数据库技术出海的重要里程碑,也为该技术在更广泛场景中的应用提供了实践典范。

合规、数据与服务:印尼征信局系统现代化的三大技术挑战

作为印尼数字金融生态的关键数据枢纽,印尼征信局的运营效率直接影响着金融机构业务的及时开展。然而在系统升级前,其在合规、数据与服务三个关键层面均面临显著瓶颈,持续制约着业务响应能力与创新速度。

01合规成本高企:满足严格监管的沉重负担

印尼金融服务管理局(Otoritas Jasa Keuangan, 简称 OJK) 为征信场景建立了严格的监管框架,明确要求私营征信机构必须实现私有化部署、构建双活/多活容灾架构,并对数据中心基础设施进行独立运维。与此同时,在数据访问控制、全生命周期治理及操作审计留痕等方面,OJK 亦执行强制性标准。然而,这套组合性要求为运营机构带来了巨大的合规挑战。

02数据洪流冲击:持续增长下的架构瓶颈

印尼征信局不仅管理着海量核心信用数据,还需处理日益多样化的数据集。定期数据报送成为常态,数据规模持续增长。原有数据库架构在应对持续的数据洪流时,其存储效率、实时处理能力与大规模检索性能均面临着严峻考验。

03响应限制业务:低效服务制约市场效率

图片在系统升级前,印尼征信局核心信用报告 API 的响应效率存在明显瓶颈,难以持续支撑金融机构与数字平台对实时数据服务的业务需求。此外,其现有的开源架构存在运维复杂、维护成本高、扩展性受限等问题,叠加本地团队在分布式数据库管理方面经验尚浅等因素,迫切需要对现有技术体系进行升级。

破局三重困境:OceanBase 重塑印尼征信核心系统

为破解上述合规、数据与效能瓶颈 ,印尼征信局采用了以 OceanBase 原生分布式数据库为核心的技术方案。该方案主要从以下四个层面针对性地解决了原有瓶颈:

01以弹性扩展能力承接数据持续性增长

OceanBase 具备在线无缝扩容能力,无需传统复杂的分库分表操作,即能灵活应对数据量的持续增长与高并发访问需求,在保障服务零中断的同时,实现资源的按需调配与高效利用。

02以混合负载引擎保障服务低延迟

凭借一体化分布式架构,OceanBase 可同时高效处理批量写入与实时查询相混合的业务负载。无论是内部批量报送,还是外部高并发信用查询,系统均能保持稳定低延迟,全面保障征信服务的实时性与可靠性。

03以内置合规特性降低部署与运维成本

方案严格遵循 OJK 对私有化部署、多活容灾及全链路审计的强制要求进行构建。同时,通过高效存储与资源弹性机制,在满足强监管要求的同时,实现基础设施成本的整体优化。

04以全链路本土服务赋能团队长效运维

OceanBase 提供从方案设计、部署上线到知识转移的全周期本地化服务,旨在系统性提升印尼征信局技术团队的自主运维与管理能力。

升级核心成效:服务、成本与创新框架的三重提升

完成与 OceanBase 的核心系统升级后,印尼征信局在服务性能、成本控制及业务拓展三大维度实现系统性突破,整体服务能力迈上新台阶:

01服务性能实现跨越式飞跃

面对征信业务固有的高并发请求压力,OceanBase 助力印尼征信局将核心信用服务的响应时间稳定在低毫秒级,系统吞吐能力与并发稳定性大幅提升,推动其服务标准直接对标国际金融级实时数据服务水准。

02运营效率与成本结构同步优化

新架构支撑下的无缝弹性扩展,保障了业务持续稳定运行;结合 OceanBase 的高效数据压缩技术,印尼征信局的存储成本显著降低。通过完整的本地化技术赋能与培训,其技术团队的自主运维能力与效率也获得大幅提升。

03业务创新框架获得坚实支撑

图片依托稳定可靠的技术底座,印尼征信局已启动面向个人消费者的信用报告 APP 及中小企业信用服务平台两项新业务线的研发。此次合作不仅实现了系统升级,更成为印尼征信局推进业务多元化、加速信用服务体系在印尼乃至东南亚市场拓展的重要支撑。

让原生分布式数据库从中国实践走向全球舞台

OceanBase 与印尼征信局的成功合作,不仅完成了分布式数据库在全球强监管金融征信场景的成熟落地验证,更构建了“技术架构适配+全链路本地化服务+生态协同共建”的可复制数据库能力出海模式。作为 OceanBase 全球化战略的关键突破点,该案例成功打通印尼乃至东南亚市场的准入通道,为后续服务更多区域金融机构、征信主体奠定了坚实的技术与品牌基础。

未来,OceanBase 将持续以技术创新为核心驱动力,深化全球化布局与本地化服务能力建设,助力更多海外企业突破数据管理架构瓶颈;同时依托中国自主研发的分布式数据库技术,为全球数字基础设施建设提供高效、稳定、安全的核心支撑,推动分布式数据库基础软件全球化发展进入新阶段。

欢迎访问 OceanBase 官网获取更多信息:https://www.oceanbase.com/

在 AGI(通用人工智能)爆发的今天,AI 应用如雨后春笋般涌现。对于开发者而言,这既是最好的时代,也是最“贵”的时代。

部署 LLM(大语言模型)、Stable Diffusion 等 AI 应用时,我们往往面临一个两难的选择:

  • 要速度(预留模式):为了毫秒级 - 秒级的响应,必须长期通过预留模式持有 GPU 实例,但昂贵的空置成本让人心痛。
  • 要省钱(按量模式):为了节省成本选择按量付费,但 GPU 实例的创建和模型加载带来的漫长“冷启动”延迟,又严重伤害用户体验。

难道性能与成本真的不可兼得?

阿里云函数计算(Function Compute)推出的CPU 和 GPU 实例浅休眠功能,正是为了打破这一僵局而来。它让实例学会了“浅休眠”,在保留热启动能力的同时,极大降低了实例的闲置成本

本文将带你深入技术后台,揭秘GPU实例浅休眠这一功能是如何从 0 到 1 实现的。

什么是 GPU 实例浅休眠?给显卡按下“暂停键”

在开启浅休眠功能后,当没有请求时,GPU 实例并不会被销毁,而是进入一种“休眠”状态。

此时,实例依然存在,但 CPU 和 GPU 的计算资源被挂起,用户只需支付极低的休眠费用(约为活跃实例费用的10%-20%,CPU不计费,具体见计费文档

当请求再次到来时,系统会瞬间“解冻”实例,毫秒-秒级恢复计算能力(视模型大小)。

技术揭秘:如何实现 GPU 的“浅休眠”?

在容器技术中,实现 CPU 的暂停(Pause)相对成熟且容易,但要给正在显存中跑着几个 G 大模型的 GPU 做暂停,技术挑战极大。我们通过三项关键技术,实现了对 GPU 资源的精细化管理。

1. 显存状态的“迁移”

传统释放 GPU 资源的方式意味着销毁实例,下次使用必须经历完整的冷启动(启动容器、加载模型)。为了解决这个问题,我们设计并实现了显存数据的迁移(Migration)机制

  • 休眠阶段:当实例空闲时,系统会将 GPU 显存中的所有数据(包括模型参数、中间状态等)完整迁移至外部存储保存。
  • 唤醒阶段:当新请求到达时,系统会迅速将存储中的数据回迁至 GPU 显存并重建状态,将实例恢复至休眠前的状态。

这一过程避免了重复的模型加载,确保实例始终处于待命状态。

2. 驱动层的透明兼容

为了让用户无需修改代码即可使用该功能,我们选择在底层进行技术突破。

FC GPU 实例做到了对框架无感。这意味着,无论是 PyTorch 还是 TensorFlow,现有的 AI 应用无需任何代码改造,即可直接具备浅休眠能力。

3. 基于请求的自动化调度

有了“浅休眠”能力后,还需要解决“何时休眠、何时唤醒”的调度问题。依托函数计算以请求为中心的架构优势,我们实现了全自动化的资源管控。

平台天然感知每个请求的生命周期:

  • 请求到达:系统自动触发解冻流程,毫秒级唤醒 GPU 执行任务。
  • 请求结束:系统自动触发冻结流程,释放 GPU 算力。

整个过程由平台自动托管,用户无需配置复杂的伸缩策略,即可实现资源的按需分配与极致利用。

浅休眠唤醒性能

性能是用户最关心的指标。我们以 ComfyUI + Flux 的文生图场景为例进行了实测:

GPU 实例从“浅休眠”唤醒的耗时仅约为 500 毫秒 - 2 秒(视模型大小不同而略有差异)。

考虑到整个文生图生成过程通常持续数十秒,这 1-2 秒的延迟对于用户体验的影响极为有限,不足以降低用户感知的流畅性,却能换来显著的成本下降。

真实案例:某 OCR 业务降本 70% 实录

深圳某科技公司主要业务是从专利文本中提取信息,使用 OCR 模型。他们的业务痛点非常典型:

  1. 启动耗时长:容器启动+加载模型+私有数据 OCR识图,全套下来要十几秒
  2. 流量难以预测:请求来去无法预判,“按量模式”的冷启动耗时长无法满足业务延迟需求。如果使用预留实例,大部分时间 GPU 都在空转出现了浪费。

开启 GPU 实例浅休眠后:

  • 启动延迟明显减少,请求到达后能快速响应;
  • 日常使用成本大幅下降;
  • 服务稳定性不受影响,用户体验保持良好。

整体成本节省接近 70%。

如何使用

开启方式非常简单,函数计算产品控制台已默认支持该功能:

  1. 进入函数的【弹性配置】页签。
  2. 设置【弹性实例】的数量。

  1. 系统将自动激活GPU实例的浅休眠功能。

计费逻辑

  • 请求执行时:全额收费。
  • 无请求执行时:自动切换至浅休眠计费(GPU 资源视卡型收取 10%-20% 的费用,CPU 不收费

结语:Serverless AI 的新范式

Serverless 的核心理念是“按需付费”,而 GPU 昂贵的持有成本一直是阻碍 AI 全面 Serverless 化的大山。

函数计算 CPU 和 GPU 实例均全面支持浅休眠能力。无论是高算力的 AI 推理(GPU),还是通用的计算任务(CPU),函数计算全系实例均致力助您在 Serverless 的道路上实现极致的降本增效。

想要降本?现在就是最好的时机。

了解更多

FunctionAI 是阿里云推出的一站式 AI 原生应用开发平台,基于函数计算 FC的 Serverless 架构,深度融合 AI 技术,为企业提供从模型训练、推理到部署的全生命周期支持。

通过 Serverless 架构的弹性特性与智能化资源管理,显著降低 AI 应用的开发复杂度与资源成本,助力企业快速实现 AI 落地。

  1. 开发效率提升:无需关注底层资源,开发者可专注于业务逻辑,模型一键转换为 Serverless API。
  2. 弹性资源调度:按需付费 + N 分之一卡资源分配(如 1/16 卡),GPU 部署成本降低 90% 以上。
  3. 免运维特性:实例闲置时自动缩容至 0,资源利用率优化 60%,实现业务运维转型。

快速体验 FunctionAI:https://cap.console.aliyun.com/explore

在AI技术狂飙突进的今天,AI Agent(智能体)已成为最受瞩目的技术范式之一。从ChatGPT的“对话助手”到AutoGPT的“任务执行者”,从单一功能工具到复杂场景的“决策中枢”,AI Agent的进化不仅重塑了人机协作模式,更在重新定义“智能”的边界。本文将从技术演进、核心挑战、未来趋势三个维度,探讨AI Agent的进化之路。

一、AI Agent的进化阶段:从“被动响应”到“自主决策”
AI Agent的进化并非一蹴而就,而是经历了从工具化到自主化的渐进式突破。我们可以将其划分为四个阶段:

  1. 基础工具阶段:被动响应,单一任务
    代表产品:早期Siri、Alexa、规则引擎
    特点:基于预设规则或简单NLP模型,仅能完成单一任务(如查询天气、设置闹钟),缺乏上下文理解与自主学习能力。
    局限:依赖人工定义规则,无法处理复杂或模糊指令,泛化能力弱。
  2. 任务自动化阶段:多步骤执行,简单推理
    代表产品:AutoGPT、BabyAGI、HuggingGPT
    特点:通过链式思维(Chain-of-Thought, CoT)与工具调用(Tool Use),将复杂任务拆解为子步骤,并自主调用外部API(如搜索引擎、计算器)完成目标。
    突破:从“单轮对话”到“多轮任务执行”,具备初步的逻辑推理能力。
    局限:依赖外部工具链,长周期任务易出错,缺乏对环境变化的动态适应。
  3. 环境感知阶段:多模态交互,实时决策
    代表产品:Google的SIMA、OpenAI的GPT-4o、Figure 01机器人
    特点:整合视觉、语音、传感器等多模态输入,在物理或虚拟环境中实时感知并决策(如机器人操作、自动驾驶)。
    突破:从“文本世界”迈向“真实世界”,具备空间理解与动态响应能力。
    挑战:多模态数据融合、实时性要求、硬件协同设计。
  4. 自主进化阶段:长期记忆,自我优化
    代表方向:Self-Improving AI Agent、具身智能(Embodied AI)
    特点:通过长期记忆(Long-Term Memory)存储历史经验,结合强化学习(RL)或元学习(Meta-Learning)实现自我优化,甚至具备目标驱动的自主规划能力。
    愿景:从“执行指令”到“主动创造价值”,成为真正的“数字伙伴”。
    核心挑战:记忆效率、安全对齐、可解释性。

二、AI Agent进化的核心驱动力
AI Agent的跨越式发展,离不开以下关键技术的突破:

  1. 大语言模型(LLM)的“思维链”升级
    CoT(Chain-of-Thought):通过分步推理提升复杂任务处理能力(如数学解题、代码生成)。
    ToT(Tree-of-Thought):引入树状搜索,探索多条推理路径并选择最优解。
    ReAct(Reason+Act):结合推理与行动,在动态环境中实时调整策略。
  2. 多模态感知与交互
    视觉-语言模型(VLM):如GPT-4V、FLAMINGO,实现图像/视频与文本的联合理解。
    具身智能(Embodied AI):通过机器人或虚拟化身,在物理世界中感知与操作(如Figure 01的“端茶倒水”)。
  3. 长期记忆与上下文学习
    向量数据库(Vector DB):如Pinecone、Chroma,高效存储与检索历史经验。
    检索增强生成(RAG):结合外部知识库,提升回答的准确性与时效性。
    记忆压缩技术:如RecurrentGNN,在有限资源下维护长期上下文。
  4. 自主规划与强化学习
    蒙特卡洛树搜索(MCTS):如AlphaGo的决策框架,探索未来可能性。
    层次化强化学习(HRL):将复杂任务分解为子目标,提升学习效率。
    安全对齐(Alignment):通过RLHF(人类反馈强化学习)确保Agent行为符合人类价值观。

三、AI Agent的未来挑战与方向
尽管AI Agent已取得显著进展,但距离真正的“自主智能”仍有漫长道路。以下是未来需突破的关键方向:

  1. 从“短周期任务”到“长周期规划”
    挑战:当前Agent多擅长分钟级任务(如写邮件),但难以处理跨天、跨周的复杂项目(如旅行规划、科研实验)。
    方向:结合世界模型(World Model)模拟未来状态,实现多步前瞻性规划。
  2. 从“单一Agent”到“多Agent协作”
    挑战:复杂场景需多个Agent分工协作(如医疗诊断中的影像分析、病历整理、治疗方案生成)。
    方向:研究多Agent系统(MAS)的通信协议与冲突解决机制。
  3. 从“虚拟世界”到“物理世界”
    挑战:具身智能需解决硬件可靠性、实时感知、能源效率等问题。
    方向:轻量化模型、边缘计算、仿生机器人设计。
  4. 从“技术突破”到“伦理安全”
    挑战:自主Agent可能引发失控风险(如金融交易、军事决策)。
    方向:构建可解释AI(XAI)、紧急停止机制与伦理审查框架。

四、开发者如何参与AI Agent进化?
AI Agent的未来属于开发者。无论是研究算法、构建工具链,还是探索应用场景,都有大量机会:
算法层:优化CoT/ReAct框架、探索新型记忆机制、设计安全对齐方法。
工具层:开发Agent开发框架(如LangChain、AutoGPT)、多模态数据管道、向量数据库。
应用层:探索企业自动化(如RPA+AI Agent)、个人助手(如AI Agent+智能家居)、教育娱乐(如AI NPC)。

结语:AI Agent,智能的下一站
AI Agent的进化,本质上是人类对“通用智能”的持续探索。从被动工具到自主伙伴,从执行指令到创造价值,这一过程不仅需要技术突破,更需跨学科的协作与伦理的约束。
未来已来,只是尚未均匀分布。 如果你对AI Agent充满热情,不妨从今天开始:
尝试用LangChain构建一个简单的任务执行Agent;
关注多模态大模型的最新进展(如GPT-4o、Gemini);
思考AI Agent如何解决你所在领域的实际问题。
智能的进化,终将由你我共同书写。 🚀

(欢迎在评论区分享你的AI Agent实践或思考!)

在大数据分析的过程中,海量数据的处理与分析往往是决定最终结果质量的关键。而IP地址作为互联网通讯中每个设备的“身份证”,包含了大量与用户位置、行为、需求等相关的关键信息。对于企业和开发者来说,了解并高效查询这些IP数据,可以帮助他们在众多应用场景中实现精准分析。
 
例如,在广告投放中,了解IP归属地能够实现精准的地域定向,提高广告的转化率;在安全防护中,IP归属地能够帮助识别可疑用户和潜在威胁,有效提升防御能力;而在网站优化过程中,通过IP地址的归属地查询,可以为不同地区的用户提供定制化内容,提升用户体验。

image.png
 

一、IP归属地查询在大数据分析中的实际应用

1. 广告投放与市场分析

在进行广告投放时,基于IP地址的归属地查询是实现精准营销的基础。通过查询用户的IP归属地,广告商可以分析用户的地理位置,进而制定更加精确的广告投放策略。比如,一个电商平台可以根据用户的IP地址,精准推送符合当地市场需求的广告内容,从而提高广告的转化率,减少广告浪费。
 

2. 网络安全与风险管理

在大数据分析中,IP地址归属地查询对于网络安全管理至关重要。通过对大量用户IP的归属地进行实时分析,企业能够发现潜在的安全威胁。比如,来自于海外的IP访问可能意味着潜在的网络攻击,而对于敏感数据的访问,也可以通过分析IP归属地来判断是否为正常用户请求。这样,企业就能快速识别并阻止不合规的访问请求,保护网络安全。
 

3. 网站优化与本地化服务

网站本地化是提升用户体验的有效手段。通过对用户IP的归属地查询,可以为不同地区的用户展示量身定制的内容。例如,针对北美用户推送英语内容,针对亚洲用户推送本地语言内容,不仅提升用户的浏览体验,还能提高网站的访问时长和用户粘性。
 

4. 数据质量监控与反欺诈

数据质量的管理是大数据分析中的一项重要工作。IP归属地查询可以帮助开发者识别虚假数据,特别是在反欺诈和风控场景中,准确地识别用户的IP地址,可以及时发现欺诈行为,避免不法分子通过虚假IP地址绕过系统审核。通过精准的IP归属地查询,企业能够有效监控和清理虚假数据,提升数据质量,确保大数据分析结果的可信度。
 

二、如何高效处理海量IP查询?

随着数据量的不断增加,如何高效地查询海量IP地址成为了一个亟待解决的挑战。传统的手动查询方式不仅效率低下,而且可能带来数据不准确、延迟等问题。为此,企业和开发者需要借助高效的IP查询工具,自动化批量查询大量IP地址的归属地,并对结果进行进一步的数据分析和处理。
 
在此过程中,IP数据云作为一种强大的IP地址查询工具,提供了灵活的API接口和强大的查询能力,能够支持开发者快速高效地查询海量IP数据。我们将IP查询集成到应用中,轻松实现了海量数据的归属地查询,大大提高了数据分析的效率。
 

三、IP数据云的优势与应用案例

市场上有许多优秀的IP查询服务提供商,在经历了多次使用测试后,我们最终选择了IP数据云作为我们的核心IP地址查询工具。
 

精准性与数据全面性

相比其他工具,IP数据云的IP归属地查询不仅涵盖了IP地址的具体地理位置,还能提供详细的运营商信息、ASN、IP风险评分等多维度数据。这些丰富的查询结果让我们能够更加全面地了解每一个IP的背景,避免了单一数据源可能带来的片面性和误差。
 

实时性和更新频率

随着全球化业务的开展,我们需要实时查询和更新海量IP数据。IP数据云的数据更新非常迅速,能够为我们提供最新的IP归属地信息和动态变化,确保我们的分析结果始终是准确的。
 

灵活的API接口

IP数据云简单易用的API接口,不仅让我们能够高效地批量处理IP数据,还能根据业务需求灵活定制查询功能,极大地提高了我们的工作效率。

image.png

因此,在集成了IP数据云的服务后,我们团队进行跨国电商平台的用户数据分析变得更简便高效,也为区域性广告投放和市场分析提供了坚实的依据。我们通过查询不同地区用户的IP,得到了他们的地理位置、网络运营商等信息,这为我们定制广告内容提供了精准依据。特别是在全球化布局中,通过IP数据云,我们可以确保每个地区的用户看到符合其文化背景和需求的广告内容,从而提高了广告的点击率和转化率。
 
此外,在进行用户安全性分析时,IP数据云的风险评分功能帮助我们识别了潜在的欺诈行为。我们根据IP地址的风险评分,及时发现了多个异常IP,并采取了相应的安全防范措施,有效避免了不法分子的攻击。这一过程极大地增强了我们平台的安全性,减少了可能带来的损失。经过多次实践,我们深刻体会到它在大数据分析中的不可或缺性,成为了我们数据分析和安全防护的得力助手。
 

四、总结与展望

在大数据分析的场景中,IP地址归属地查询是一项重要的技术支撑,能够帮助企业和开发者在广告投放、网络安全、数据质量监控等方面实现精准分析。通过使用像IP数据云这样的IP查询工具,能够大大提升大数据分析的效率和精度,帮助用户从海量数据中提取有价值的信息。

随着技术的不断进步,未来IP查询将更加智能化、自动化,能够为更多行业和场景提供精准的数据支撑。希望企业和开发者能够充分利用IP地址查询技术,在大数据分析中获得更多的洞察与价值。

云原生热点

Rook v1.19 正式发布:存储性能、兼容性与运维体验全面提升

Rook 是一个开源的 K8s 原生存储编排器,用于在 K8s 集群上自动部署、管理和扩展 Ceph 分布式存储系统,提供文件、块和对象存储支持,并简化存储生命周期管理,使容器化环境具备高性能、可扩展的持久化存储能力。

近日,Rook v1.19 正式发布,这是一个重要的功能版本,显著提升了存储平台的性能与兼容性。该版本新增实验性 NVMe over Fabrics(NVMe-oF)网关支持,可通过 NVMe/TCP 协议访问 RBD 卷,为集群内外提供高性能块存储访问;集成 Ceph CSI v3.16,带来动态挂载、节点故障隔离、块卷统计和可配置加密等改进;同时引入并发对齐多个 CephCluster 的实验性支持,以优化 Operator 操作,并改善日志信息与多集群管理体验。

Kueue v0.16 发布:增强批处理调度与弹性队列能力

Kueue 是 K8s 原生作业队列控制器,用于管理批处理工作负载的入队、资源分配与调度,结合标准调度器和自动扩缩容组件,实现公平、高效的资源共享与优先级控制,适用于本地与云端 K8s 集群的批任务管理。

Kueue v0.16 引入了重要的 API 和行为变更,包括默认使用新的 v1beta2 API 存储版本,以提升内部拓扑分配性能,并为后续版本淘汰旧 API 做准备;新增 multiplyBy 字段以优化资源转换逻辑;增强 CLI 使用体验和多集群(MultiKueue)支持,并加入更多可观测性指标与错误修复;同时还提供 RayJob 弹性作业支持、TLS 配置自定义,以及安全性和 Pod 集成方面的改进。

技术实践

文章推荐

如何让对 Docker 镜像的更改持久保存

Docker 镜像采用不可变设计,但如果需要将对镜像的修改持久化保存,可以通过 docker commit 命令将正在运行或已修改的容器状态捕获为一个新的镜像,使安装的软件、修改的文件或配置等更改得以保留,而不会影响原始镜像。文章解释了镜像不可直接修改的原因,展示了如何运行容器、在容器内进行更改,并使用
docker commit [OPTIONS] 容器ID 新镜像名[:标签]
创建新镜像,同时对比了该方式与使用 Dockerfile 进行规范、可重现构建之间的差异。该方法适合快速实验或临时修复,但不建议作为生产环境的主要镜像构建流程。

使用 Agones 在 K8s 中构建和扩展游戏服务器

本文介绍了作者如何利用 Agones 从零开始构建、部署、配对以及自动扩缩容游戏服务器的完整实践过程。文章首先解释了为何需要 Agones 来处理游戏服务器这种既有状态又需弹性伸缩的工作负载,然后通过 Go 语言示例 实现简单的游戏服务器代码,并展示如何将其与 Agones SDK 集成、在 K8s 集群上部署、编写匹配服务以及设置 autoscaling 策略。

K8s 事故中惨痛教训揭示的隐藏不良实践

本文介绍了 K8s 停机事件背后的根本原因并非平台本身的 bug,而往往是人为因素导致的复杂性问题。作者指出,虽然 K8s 是一个强大且成熟的容器编排平台,但工程团队在实际运维中常通过未文档化的工具、自行设计的复杂解决方案以及“英雄式工程”等做法累积了大量潜在风险,使系统变得脆弱不堪。

许多事故实际上源于配置错误、变更失误以及缺乏清晰的操作规范,而非底层平台漏洞。要降低此类风险,关键在于提升流程纪律性、简化运维实践、加强团队对系统运行方式的共同理解,并建立更完善的可观测性与变更管理机制。

开源项目推荐

Colima

Colima 是一个开源的本地容器运行环境工具,用于在 macOS 和 Linux 上替代 Docker Desktop。它基于 Lima 运行轻量级虚拟机,可无缝支持 Docker 容器和 Kubernetes 集群,支持多种容器运行时(Docker Engine、containerd)、自动配置镜像加速、端口转发和持久化存储等功能,简化本地容器环境的搭建与使用,是替代 Docker Desktop 的优秀选择。

Agno

Agno 是一个开源的 Python 框架,用于构建和运行具备共享记忆、知识库、推理能力和工具集成的多智能体系统(Multi-Agent Systems)。它提供从智能体构建到生产级运行时 AgentOS 及控制面板 UI 的完整开发栈,支持多模型厂商、丰富工具集和复杂工作流管理,适合构建可扩展、私有化部署的智能体应用。

Calico

Calico 是一个开源的云原生网络与安全解决方案,主要用于为 Kubernetes、容器、虚拟机及裸机环境提供高性能、可扩展的网络连接、网络策略控制和可观测性支持。它支持多种数据平面技术(如 eBPF、标准 Linux、Windows 和 VPP),实现灵活的网络配置与细粒度安全策略,使集群间和集群内流量安全、可靠地通信,广泛应用于多云、混合云和边缘场景的容器网络中。

Openwork

Openwork 是一个开源的 AI 桌面智能助手项目,作为本地运行的自动化代理,能够利用用户自带的 AI API(如 OpenAI、Anthropic、Google、xAI)或本地模型,自动完成文件管理、文档创建和浏览器操作等任务。所有操作均在本机执行,数据不外泄,且支持用户对每一步操作进行审批,适合构建安全、可控的桌面自动化工作流。

关于KubeSphere

KubeSphere (https://kubesphere.io)是在 Kubernetes 之上构建的容器平台,提供全栈的 IT 自动化运维的能力,简化企业的 DevOps 工作流。

KubeSphere 已被 Aqara 智能家居、本来生活、东方通信、微宏科技、东软、新浪、三一重工、华夏银行、四川航空、国药集团、微众银行、紫金保险、去哪儿网、中通、中国人民银行、中国银行、中国人保寿险、中国太平保险、中国移动、中国联通、中国电信、天翼云、中移金科、Radore、ZaloPay 等海内外数万家企业采用。KubeSphere 提供了开发者友好的向导式操作界面和丰富的企业级功能,包括 Kubernetes 多云与多集群管理、DevOps (CI/CD)、应用生命周期管理、边缘计算、微服务治理 (Service Mesh)、多租户管理、可观测性、存储与网络管理、GPU support 等功能,帮助企业快速构建一个强大和功能丰富的容器云平台。

一、概述总结
健康 E 站小程序是一款基于微擎系统开发,深度聚焦社区健康服务场景的智能化解决方案,涵盖微信公众号等多平台适配。其核心定位是链接社区医院、家庭医生、居民与药品供应链,通过 “线上 + 线下” 融合模式,搭建起集处方单管理、智能取药、健康数据管理、社群运营于一体的居家社区私域服务平台。产品提供源码交付与定期更新服务,支持 PHP5.5、PHP5.6 运行环境,以 “便捷购药、高效管理、精准服务” 为核心目标,为家庭医生落地提供坚实的模式支撑,同时满足社区居民就近就医取药的核心需求,推动社区健康服务数字化、智能化升级。

二、功能介绍
(一)核心服务功能
智能取药与药品管理:居民在社区药房开具处方后,由管理员代取药品并存入社区药柜,系统自动向居民发送取药通知,居民通过扫描药柜二维码即可完成取药操作,全程无需额外等待。同时支持药品供应链对接,涵盖药品规格、数量、单价、厂家信息等详细记录,实现药品流转全程可追溯。

处方单全周期管理:提供处方编号查询、处方状态跟踪等功能,处方状态涵盖待取药(派件员到药房)、药房发药成功、药品放入药柜、取药完成、退药等全流程,方便居民与管理员实时掌握进度。

(二)管理运营功能
多角色管理:支持管理员、派送员、配货员、处方医生等多角色权限配置,可实现分配区域、上货通知、补货管理等操作,满足社区健康服务的分工协作需求。

用户信息管理:可收集并管理用户微信昵称、头像、性别、地区、手机号、身份证号、联系地址等信息,支持用户绑定、信息查看与编辑,为精准健康服务提供数据支撑。

社区与站点管理:支持站点添加、区域分配,可记录站点名称、地址、联系人等信息,方便对不同社区服务点位进行集中管理。

系统设置:支持模板消息配置、短信通知设置、寄存柜存储时长设置、监督电话设置,以及是否开启强制关注等功能,可根据运营需求灵活调整平台规则。

(三)数据与社群功能
健康数据管理:搭建健康数据与健康工作室模块,为家庭医生提供数据支撑,助力个性化健康服务的开展。

私域运营支撑:服务社区医院社群,营造居家社区私域流量池,通过关注话术设置、消息通知等功能,增强居民与社区健康服务的粘性。

三、适用场景与行业价值
(一)适用场景
社区健康服务中心:用于社区居民日常购药、处方管理,提升社区健康服务效率,减少居民跑腿次数。

社区药房 / 药柜:通过智能取药功能优化药品发放流程,降低人工成本,同时实现药品库存与流转的规范化管理。

家庭医生服务:为家庭医生提供健康数据支撑与服务落地载体,方便家庭医生跟踪居民用药情况与健康状态。

居家养老服务:适配居家养老中心场景,为老年群体提供便捷取药渠道与专属健康服务,解决老年群体购药不便的痛点。

(二)行业价值
对居民:在家附近即可完成购药,无需长时间等待,取药流程简单便捷,同时可实时跟踪处方状态,提升健康服务体验。

对社区医疗机构:优化处方流转与药品管理流程,减少人工操作成本,提升服务效率;通过私域运营增强与居民的联系,扩大服务覆盖面。

对行业:推动社区健康服务数字化转型,构建 “社区 - 家庭 - 医生” 的闭环服务模式,为家庭医生制度的落地提供可复制的解决方案,助力基层医疗服务提质增效。

四、问答环节
健康 E 站小程序的交付方式是什么?

答:采用微擎系统在线交付模式,源码已加密,保障产品正品权益。

小程序支持哪些运行环境?

答:支持 PHP5.5、PHP5.6 版本。

居民取药的具体流程是怎样的?

答:居民在社区药房开药后,管理员代取药并放入专门药柜,系统会向居民发送通知,居民扫描药柜上的二维码即可取药。

平台可以管理哪些用户信息?

答:可获取并管理用户微信昵称、头像、性别、地区等基础信息,以及手机号、身份证号、联系地址等关键信息,方便提供精准服务。

处方状态有哪些?可以查询吗?

答:处方状态包括待取药(派件员到药房)、药房发药成功、药品放入药柜、取药完成、退药,支持通过处方编号查询相关状态。

平台支持多角色管理吗?

答:支持,涵盖管理员、派送员、配货员、处方医生等多角色,可分配不同权限,满足分工协作需求。

之前看 Alex 爬酋长岩,就担心他摔下来挂了。 攀岩名人里,很多人的终点就是最好一次攀爬失误,没了

尽管他说每次都做充分的训练和准备,但是保不准石头风化啊、沙石打滑啊,这些都不是人力可控的

包括这次爬台北 101 ,万一碰上哪个外墙部件豆腐渣,或者当初没有设计足够的承重能力,直接脱裂了,也无了

看 Alex 的攀爬,显然臂力、体能都远超常人,甚至没有恐惧神经。登顶 101 的情节很像 King Kong 里大猩猩那个场景,确实很震撼。

一般自己户外登高,虽然没有恐高症,但是太高了还是脚底发凉,不知道这种极限攀岩到底是为什么?

之前关于 go ,rust ,java 等热门语言,都有很多月经贴,周经贴。现在 AI Coding 之后,基本都没什么人讨论语言相关的东西了。

关于语言语法、编程技巧、代码风格、最佳实践的讨论,肉眼可见地少了,我在想是不是 AI Coding 彻底把“怎么写代码”这个问题给解决了?