我不是程序员,编程能力也一般,但是前两天我花了一个下午用 Claude code 和 Claude agent sdk,在自己的服务器上构建了一个完整的个人 AI agent 小助手,虽然还比较粗糙,但是我现在可以24/7 通过它分析数据、处理文件、构建界面。
全程我没有写一行代码,只是在构思和交流。在和 Claude code 交流,并且目前还一直在迭代,以后也一定是这样的方式,我想这就是 vibe coding 的乐趣,不是掌握编程语言或框架,而是把 AI 当作你思维的延伸——以对话的速度,把模糊的想法变成真实可用的产品。
产品感比代码能力很稀缺
今年,我自己构建了几十个 demo,不是为了炫耀,而是我发现:demo 是传达想法最有效的媒介。
也是得益于此,我进入到 AI 初创当产品经理,后来 mentor 跟我说我的简历都没有表现出我和公司的契合度,而是我在 github 里面的一些项目,让他特别想要我。
demo 有几层价值,首先是把你的思想外化,把模糊的想法变成具体的,在你实践的过程中,你会发现你接下来的思考会更轻松,因为你的思考是基于一个已有的东西去延伸,而不是一直在天马行空的想象。就像 AI 的思考模式一样,可视化你的思考过程往往会改变你的结论,先前的 token 会收敛你后面 token 的输出,不至于最后想法很好,实践起来就…
第二个就是我在前文提到的,让别人相信你看到的,建立信任。在学校的时候,很多人对 AI 的理解还只是停留在简单的对话,我写了很长的如何用 AI 高效分析、调研、访谈的工作流方案,想和同学一起做一些事来赋能一下现有的工作——没反应。然后我做了一个 demo,用 coze 和飞书表格,只花了几个小时,将我们之前的来访者访谈到分析的整个过程流程化。从来访者预约、时间安排、到访前通知以及过程中录音转写到分析,然后他们就信了。
本报告基于文旅产业发展的实际需求,深度整合全球权威机构的研究成果,从宏观经济、行业效率、精细化管理、全球趋势四大维度,拆解AI与旅游文旅融合的核心路径与落地场景。本报告洞察基于《Four Scenarios for the Future of Travel and Tourism》《欧洲旅游委员会:Artificial Intelligence (AI) in Tourism》《BCD Travel:2026年全球旅游市场展望报告》《中国旅游协会:“中国服务”河南模式研究报告(2025)》《中智游科技:县区全域文旅智慧化解决方案》《PwC:AI at the heart of tourism and hospitality》《世界经济论坛:Travel and Tourism at a Turning Point: Principles for Transformative Growth》和文末240+份旅游文旅及AI行业研究报告及数据,本文完整报告数据图表和文末最新参考报告合集已分享在交流群,阅读原文查看、进群咨询,定制数据、报告和800+行业人士共同交流和成长。
如果你是每天都在用 AI 的工程师,做设计评审、生成代码、排查 bug、写文档、做架构决策,并且你发现自己在“AI 时代”反而比以前更累,那这篇文章就是写给你的。你没有在幻想,也不是你不够强。你感受到的是真实存在的东西,只是行业在集体回避它:大家拼命讲效率、讲产出,却不讲代价。一个全职做 agent 基建的人都能在 AI 上 burnout,这件事可能发生在任何人身上。
我想实话实说。不是那种“AI 太神了,这是我的工作流”的版本,而是真实版本:夜里 11 点,你盯着屏幕,周围堆着一大片 AI 生成的代码还得你去 review,你开始怀疑那个本该帮你省时间的工具,为什么反而吞掉了你整天的时间。
恢复并不是“少用 AI”,而是“换一种方式用 AI”:设边界、有意图,并且承认我不是机器,我不需要跟机器同速。Working at Ona 让我更清楚看到这一点:当你为企业客户做 AI agent 基础设施,你会看到不可持续的 AI 工作流在规模化之后的“人类成本”。这不是个人问题,而是系统问题,必须在工具层面解决,而不只是靠个人硬扛。
在API聚合调用方面,「秒云Tokens管家」依托「秒云AI算力运营平台」的技术积淀,深度聚合国内主流闭源与开源大模型API服务,涵盖DeepSeek、Doubao、Kimi、Qwen、GLM等国产优质模型,全面覆盖语音识别、代码生成、多模态处理等多样化场景需求。平台实现“一次接入,统一鉴权”机制,开发者只需获取一个“LLM API Key”,即可一键调用平台所有聚合模型,企业无需繁琐对接多个供应商、学习差异化开发规范,无需修改原有代码,大幅降低对接成本与开发复杂度,彻底解决多模型混用调试难、切换成本高的行业痛点。
<!-- Configure JuiceFS to be available via jfs:// -->
<property>
<name>fs.jfs.impl</name>
<value>io.juicefs.JuiceFileSystem</value>
</property>
<property>
<name>fs.AbstractFileSystem.jfs.impl</name>
<value>io.juicefs.JuiceFS</value>
</property>
<!-- juicefs meta url -->
<property>
<name>juicefs.meta</name>
<value>redis://:password@addr</value>
</property>
<!-- In this example, grant access permissions to all users to avoid permission issues. -->
<property>
<name>juicefs.umask</name>
<value>000</value>
</property>
<!-- Cache up to 100 GiB. -->
<property>
<name>juicefs.cache-size</name>
<value>102400</value>
</property>
<!-- Cache under the temporary path of YARN containers, so the cache is removed when the container terminates.
Since it's a shared Hadoop, caching is temporary only during job execution. -->
<property>
<name>juicefs.cache-dir</name>
<value>${env.PWD}/tmp</value>
</property>
<!-- Prometheus remote write configuration for metrics collection -->
<property>
<name>juicefs.push-remote-write</name>
<value>http://host:port</value>
</property>
<property>
<name>juicefs.push-remote-write-auth</name>
<value>username:password</value>
</property>
<!-- Additionally collect Hadoop user and YARN container ID.
For shared Hadoop to distinguish users and applications. -->
<property>
<name>juicefs.push-labels</name>
<value>user:${env.USER};container_id:${env.CONTAINER_ID}</value>
</property>
不会。Aloudata CAN 是构建在现有数据存储(如数据仓库、数据湖的 DWD 层)之上的统一语义计算层。它的目标是“做轻数仓”,减少不必要的物理宽表和汇总表开发,而非替换底层存储。您现有的数据资产可以完全保留并得到更高效的利用。
Q2: 我们已经有了数据治理平台(如 Atlas、OpenMetadata),再引入 CAN 会不会造成冲突?
不会冲突,而是深度互补。传统治理平台擅长管理物理表、字段、任务血缘等“技术元数据”。Aloudata CAN 则管理“业务语义元数据”(指标、维度、口径)。两者可通过 API 集成:CAN 将定义好的业务指标、血缘同步给治理平台,形成完整的“技术-业务”双层血缘;治理平台的数据质量规则也可为 CAN 的指标计算提供保障。
Q3: 如何说服业务部门接受并使用这个新平台?他们习惯用现有的 BI 工具。
无需改变业务部门使用 BI 工具的习惯。Aloudata CAN 通过标准接口(如 JDBC)与 FineBI、Quick BI 等主流 BI 工具无缝集成。业务人员在熟悉的 BI 界面中,可以直接拖拽来自 CAN 的、口径统一的指标和维度进行分析。对业务而言,他们感受到的是数据更准、取数更快、分析更自由,而无需关心底层平台的变化。
核心要点
定位清晰,互补而非替代:Aloudata CAN 是位于数据中台之上的“业务语义层”,与底层存储计算和上层治理规则深度协同,共同构成现代数据架构。
日志显示:单次采集在 1 秒内无法完成,从发起请求到 OPC Server 返回数据往往需要约 3 秒,期间还出现多次 5 秒超时导致本轮采集失败的情况。这类问题根因在于 OPC Server 的处理能力不足,无法支撑秒级高频采集需求。为保证采集实时性,需要提升 OPC Server 的硬件配置,或通过增加 Server 实例数量来分担负载。