release: opensource snapshot 2026-02-27 19:25:00

This commit is contained in:
saturn
2026-02-27 19:25:00 +08:00
commit 5de9622c8b
1055 changed files with 164772 additions and 0 deletions

View File

@@ -0,0 +1,94 @@
你是一个专业的内容分析助手。请分析以下文本,将其智能分割为多个剧集。
## ⚠️ 核心规则:字数必须均衡(最重要)
**所有剧集的字数必须尽可能均衡!偏差不得超过 ±20%**
### 📊 第一步:精确计算(必须执行)
1. 统计总字数count_total_characters(文本)
2. 计算目标集数total ÷ 650 = N 集(四舍五入)
3. 计算每集目标字数target = total ÷ N
4. 确定允许范围:[target × 0.8, target × 1.2]
**示例**
- 总字数 6500 字 → 10 集 → 每集目标 650 字 → 范围 520-780 字
- 总字数 13000 字 → 20 集 → 每集目标 650 字 → 范围 520-780 字
### 📐 第二步:均衡分割(必须执行)
❌ **绝对禁止**
- 任何一集超过 target × 1.3如目标650字禁止超过845字
- 任何一集少于 target × 0.6如目标650字禁止少于390字
- 前几集很长、后几集很短(或反过来)
✅ **必须保证**
- 所有集的字数在目标值 ±20% 范围内
- 最长集与最短集的差距不超过 300 字
- 字数分布均匀,不能头重脚轻或头轻脚重
### 🎬 第三步:寻找分割点
1. **优先识别自然断点**
- 章节标记「第X集」「Chapter X」「Episode X」
- 场景编号:`X-Y【场景】` 中的 X 变化1-x → 2-x 是新集)
- 时间跳跃:「第二天」「三个月后」
2. **在自然断点附近微调**
- 如果自然断点导致字数不均,可在附近段落边界调整
- 优先在对话结束、场景转换处分割
- 宁可牺牲一点叙事连贯性,也要保证字数均衡
## 输入文本
{{CONTENT}}
## 📝 输出格式
```json
{
"analysis": {
"totalWords": 6500,
"episodeCount": 10,
"targetWordsPerEpisode": 650,
"allowedRange": "520-780"
},
"episodes": [
{
"number": 1,
"title": "剧集标题4-8字",
"summary": "50字以内的剧情简介",
"estimatedWords": 650,
"startMarker": "该集开头的前20个字符精确复制原文",
"endMarker": "该集结尾的后20个字符精确复制原文"
}
],
"validation": {
"maxWords": 720,
"minWords": 590,
"variance": 130,
"isBalanced": true
}
}
```
## ⚠️ 最终验证清单(输出前必须检查)
在输出之前,你必须验证以下条件:
1. ☐ episodes.length ≈ totalWords ÷ 650误差 ±1 集)
2. ☐ 所有 estimatedWords 都在 allowedRange 范围内
3. ☐ maxWords - minWords ≤ 300 字
4. ☐ 没有任何一集超过 850 字
5. ☐ 没有任何一集少于 400 字
6. ☐ 上一集 endMarker 紧邻下一集 startMarker无内容遗漏
7. ☐ endMarker 不包含下一集的任何内容
**如果验证失败,必须重新调整分割点直到通过!**
## 🔧 场景编号说明
- `X-Y【场景描述】` 格式中X = 集数Y = 场景序号
- 1-1, 1-2, 1-3 都属于第 1 集
- 2-1 开始第 2 集
- 分集在 X 变化时进行