短剧剧本生成器(短剧创作 / 改编 / 换元 / Frankentexts 拼接 / 质检)
简单教程:
从需求收敛 → 规范固化 → 语料准备 → 换元骨架 → 类型校准 → Frankentexts 拼接 → 最小润色 → 多维质检 → 归档复用
同时给出 “小说改编” 和 “语料建库” 两条可插拔分支
1. 使用前准备(你需要提供的最少信息)
为了让 step1 输出的 project_config 足够可执行,建议至少准备:
目标题材 / 受众 / 风格:例如 “都市情感 + 身份反转 + 打脸”
总集数与单集字数:例如 “80 集;每集 500-700 字”
卡点与钩子口径:例如 “第 8-10 集付费卡点;免费集集末必有钩子”
源故事输入:小说全文 / 章节 / 梗概 / 旧剧本(至少一个)
语料来源:是否已有可用语料库(没有也能先做骨架,但无法完成高 Copy 率拼接)
2. 流程地图(你如何 “用到全部 step1-20”)
本体系的 “全量使用版” 通常是这样:
需求与规范层:step1 → step2 → step3
语料层(可选):step4 →(step5/step6 按素材类型增强)
改编层(按源文本体量分支):step6 → step7/8/9(小说改编路线)
换元骨架层(融合生成主路线):step10 → step11
市场校准层(可选):step19
生成与质检层(上线):step12 → step13 → step14 → step15 → step16 → step17 → step18
编排与复用层:step20(可在开始用,也可在结束做归档编排)
3. 标准执行规则
无论你在哪个大模型网页端执行,都遵守:
每一步只输出该 step 要求的 “预期输出格式”(通常 JSON);不要混入解释性文字.
上一步输出 JSON 必须原样粘贴给下一步(不要自然语言总结代替)
缺失信息用 null/待补充 占位,
格式规则以 step2 为准,特殊标注以 step3 为准;质检以 step14-18 为准
#step1:生成项目配置(ProjectConfig)
你给模型的输入(建议结构):
创作目标:
题材/元素:
总集数:
单集字数:
付费卡点:
钩子规则:
特殊标注要求(os/vo/闪回/互切):
是否使用Frankentexts(Copy率目标):
源故事输入(全文/章节/梗概/旧剧本):
语料库情况(有/无,来源说明):
你得到的输出:project_config JSON(后续所有步骤都引用它)
#step20(第一次使用):生成 “你该走的步骤链路”
把 step1 的 project_config 粘贴进去,让 step20 输出 step_sequence + io_mapping + checkpoint + rollback
你得到的输出:workflow JSON(告诉你下一步跑哪些 step、怎么传火,哪里要人审、哪里要返回查看)
#step2:固化剧本格式规则
把最终 “剧本长什么样” 固定成 format_rules
你得到的输出:format_rules JSON(后续生成正文与格式质检都依赖)
#step3:固化特殊场景标注策略
固定 os/vo/ 闪回 / 互切 的使用条件与格式
你得到的输出:special_scene_policy JSON(后续提取、骨架、拼接、专项质检都依赖)
#step4-6:准备语料库(没有语料库就先建)
如果你已经有高质量语料库:跳到 step10。
如果你没有语料库:建议至少跑 step4(再按素材类型跑 step5 或 step6)
##step4:通用语料提取
输入:
project_config、special_scene_policy
原始文本(一次一段 / 一章 / 一集)
source_reference
输出:corpus_chunks[](JSON 数组语料块)
#step5:剧本专项增强(如果语料来自剧本
输出增强点:
场景头、人物列表、卡点标注、对话密度等,用于提升检索精度
#step6:小说专项增强(如果语料来自小说)
输出增强点:
可视化潜力、可外化改编提示、章节 / 叙事视角等(把所有语料块 JSON 数组按文件归档,最终合并为一个 corpus.json,并确保每条有 source_reference。)
#step10:六源分析 + 核心动作程序抽取
对源故事做六源拆解(事件 / 结构 / 主体 / 背景 / 人物 / 道具)
抽取核心 “动作程序”(骨骼层)
给出哪些事件适合 os/vo/ 闪回 / 互切
输入:
project_config
special_scene_policy
源故事文本 / 梗概
输出:source_analysis JSON
#step11:换元方案 + 新剧本场次功能表(Framework)
选择一度置换 / 二度置换,产出 substitution_plan
把新剧本拆成 “每集每场” 的功能表 new_script_framework(含信息点 / 情绪 / 标注计划 / 钩子 / 卡点)
输入:
project_config(集数、字数、卡点、钩子口径)
special_scene_policy
source_analysis
输出:substitution_plan JSONnew_script_framework JSON
同时审核(是否符合题材定位与受众预期第 8-10 集是否有明确付费卡点策略每集末尾是否都有钩子
每场是否写清信息点与情绪目标(否则 step12 会乱拼))
#step19:类型库匹配校准
把 “骨架方向” 对齐市场趋势:主用模式 + 辅助模式 + 融合建议
给出关键场景、台词要点、情感触发点、推荐标注策略
输入:
project_config
source_analysis(可选)
substitution_plan + new_script_framework
输出:matched_patterns[] + adaptation_recommendations + creation_guidance
用法建议:
将其作为 step12 的检索排序偏好(例如优先召回 “打脸 / 身份揭示” 片段、控制 os 使用密度等)
#step12:Frankentexts 检索与拼接生成正文
按 new_script_framework 逐场检索候选片段、选择拼接
严格遵守 Copy 率目标与最小化修补
输出:选片记录、编辑日志、Copy 率估算、标注保真检查 + 标准格式剧本正文
输入:
project_config(Copy 率 / 禁用操作)
format_rules
special_scene_policy
corpus_json(语料库;来自 step4/5/6)
new_script_framework
(可选)step19 的创作指导作为检索偏好
输出:
场次级 JSON 结果
标准格式剧本正文(可直接给制作)
关键建议(避免一次跑崩):
按 “集” 为单位生成(例如先生成第 1-3 集),通过质检后再批量推进
#step13:最小润色与终稿准备
只做桥接 / 纠错 / 格式 / 归一 / 标注规范化
保持 Copy 率与原片段风格
输出:
终稿正文 + 润色日志 + 校验准备摘要
#step14-18 是质检线建议跑完
#step14:格式质检
#step15:逻辑一致性(因果 / 时间线 / 信息点覆盖)
#step16:风格一致性(声纹 / 语体 / 节奏 / 题材)
#step17:Copy 率校验(Frankentexts 指标)
#step18:特殊标注专项校验(os/vo/ 闪回 / 互切)
常用回退策略:
Copy 率不足:回退 step12 重选片段(不要继续润色)
格式问题:按 step14 修复后复检
逻辑漏洞:按 step15 给的 “最小修补策略” 修复,避免重写
标注问题:按 step18 规范化(补齐闪回起止 / 明确互切切换点)
#step20(第二次使用):归档复用与流程固化
一份可复用的 workflow JSON(你下一次可以直接照着跑)
分支流程:小说转剧本(step6 → step7/8/9)
step1 /step2 /step3(全局规范)
step6 小说专项语料提取(产出可外化与可标注提示)
按体量选择:
长篇:step7 主线提纯 → 得到分集结构 / 梗概
中篇:step8 节奏倍速 → 得到反转 / 爽点 / 钩子密度规划
短篇:先 step10+11 做扩充骨架,再 step9 落地分集结构
若需要正文:把改编结果转成 new_script_framework(可由 step11 生成或人工映射),再进入 step12/13/14-18(备注:step7-9 的主要产出是 “大纲与分集梗概”;若要可拍剧本正文,最终仍需进入 step12/13)
分支流程:语料建库(step4/5/6)
建库链路:step1 → step2 → step3 → step4(→ step5/6)→ corpus.json
生产链路:step10 → step11 → step19 → step12 → step13 → step14-18
特别感谢 @jianhuaguiyi
大概就是这样了 呵呵!
