File size: 5,329 Bytes
76b8566
 
 
 
 
 
bf1c2d7
 
76b8566
 
 
 
f4dde24
76b8566
f4dde24
76b8566
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
f4dde24
76b8566
 
f4dde24
 
 
 
 
 
76b8566
 
 
 
 
87ee19d
76b8566
 
 
 
 
 
 
 
 
 
 
 
f4dde24
76b8566
 
 
 
f4dde24
 
 
 
 
 
 
 
 
 
 
 
 
 
76b8566
 
 
 
 
 
 
 
 
 
 
8348ba6
 
 
 
 
 
76b8566
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95


---

# ExpressiveSpeech 数据集

[**项目网页**](https://freedomintelligence.github.io/ExpressiveSpeech/)

[**English Version**](./README.md)

## 关于数据集

**ExpressiveSpeech** 是一个高质量、**富有表现力****双语**(中英)语音数据集,旨在解决现有对话数据集中普遍存在的语音表达力不足的问题。

该数据集精心整理自五个著名的开源情感对话数据集,分别是:Expresso、NCSSD、M3ED、MultiDialog 和 IEMOCAP。 通过严格的处理和筛选流程,ExpressiveSpeech 确保了每一段语音都在音频质量和情感丰富度上达到高标准。 此数据集专为需要高保真度、能引起情感共鸣音频的任务而设计,例如富有表现力的语音转语音(S2S)、文本转语音(TTS)、语音转换以及语音情感识别等领域。

## 主要特点

- **高表现力**: 平均表现力得分高达 **80.2**,显著优于其原始来源数据集。
- **双语内容**: 包含均衡的中英文语音内容,语言比例接近 **1:1**- **数据规模可观**: 包含约 **14,000** 条语音片段,总时长达 **51** 小时。
- **丰富的元数据**: 为每条语音提供由 ASR 生成的文本转录、表现力得分以及来源信息。

## 数据集统计

| 指标 | 数值 |
| :--- | :--- |
| 总语音条数 | ~14,000 |
| 总时长 | ~51 小时 |
| 语言 | 中文, 英文 |
| 语言比例 (中:英) | 约 1:1 |
| 采样率 | 16kHz |
| 平均表现力得分 (DeEAR) | 80.2 |


## 我们的表现力评分工具:DeEAR

本数据集的高表现力是使用我们的筛选工具 **DeEAR** 实现的。如果您需要自己构建更大批量的高表现力数据,欢迎使用此工具。您可以在我们的 [GitHub](https://github.com/FreedomIntelligence/ExpressiveSpeech) 上找到它。


## 数据格式

数据集的组织结构如下:

```
ExpressiveSpeech/
├── audio/
│   ├── M3ED
│   │    ├── audio_00001.wav
│   │    └── ...
│   ├── NCSSD
│   ├── IEMOCAP
│   ├── MultiDialog
│   └── Expresso
└── metadata.jsonl
```

- **`metadata.jsonl`**: 一个 `jsonl` 文件,其中包含每条语音的详细信息。元数据包括:
  - `audio-path`: 音频文件的相对路径。
  - `value`: 由 ASR 生成的文本转录。
  - `emotion`: 来自原数据集的情感标签。
  - `expressiveness_scores`: 来自 **DeEAR** 模型的表现力得分。

## JSONL 文件示例

每行 JSONL 包含一个 `conversations` 字段,其中存放语音轮次数组。
示例:

```json
{"conversations": [{"No": 9, "from": "user", "value": "Yeah.", "emotion": "happy", "length": 2.027, "score_arousal": 0.9931480884552002, "score_prosody": 0.6800634264945984, "score_nature": 0.9687601923942566, "score_expressive": 0.9892677664756775, "audio-path": "audios/Expresso/splitted_conversation/ex04-ex01/laughing/ex04-ex01_laughing_001/009_speaker1_53s_55s.wav"}, {"No": 10, "from": "assistant", "value": "What was the reason, what was the, why couldn't I get there, ah I forget.", "emotion": "happy", "length": 3.753, "score_arousal": 0.9555678963661194, "score_prosody": 0.6498672962188721, "score_nature": 1.030701756477356, "score_expressive": 0.9965837001800537, "audio-path": "audios/Expresso/splitted_conversation/ex04-ex01/laughing/ex04-ex01_laughing_001/010_speaker2_55s_59s.wav"}]}
{"conversations": [{"No": 10, "from": "user", "value": "What was the reason, what was the, why couldn't I get there, ah I forget.", "emotion": "happy", "length": 3.753, "score_arousal": 0.9555678963661194, "score_prosody": 0.6498672962188721, "score_nature": 1.030701756477356, "score_expressive": 0.9965837001800537, "audio-path": "audios/Expresso/splitted_conversation/ex04-ex01/laughing/ex04-ex01_laughing_001/010_speaker2_55s_59s.wav"}, {"No": 11, "from": "assistant", "value": "Because genie really had to go and and to the bathroom and she couldn't find a place to do it and so she when they put the tent on it it was it was a bad mess and they shouldn't have done that.", "emotion": "happy", "length": 10.649, "score_arousal": 0.976757287979126, "score_prosody": 0.7951533794403076, "score_nature": 0.9789049625396729, "score_expressive": 0.919080913066864, "audio-path": "audios/Expresso/splitted_conversation/ex04-ex01/laughing/ex04-ex01_laughing_001/011_speaker1_58s_69s.wav"}]}
```

*注*:部分源数据集使用了 VAD(语音活动检测),可能会将一句话切分为多个片段。
为保持对话完整性,我们通过特定规则将这些片段合并回完整语句。


## 授权协议

为遵循其源数据集的非商业性使用限制,ExpressiveSpeech 数据集在 **知识共享署名-非商业性使用-相同方式共享 4.0 国际 (CC BY-NC-SA 4.0) 许可协议**下发布。

您可以在[此处](https://creativecommons.org/licenses/by-nc-sa/4.0/)查看完整的许可协议。

## 如何引用

如果您在研究中使用了本数据集,请引用我们的论文:

```bibtex
@article{lin2025decoding,
  title={Decoding the Ear: A Framework for Objectifying Expressiveness from Human Preference Through Efficient Alignment},
  author={Lin, Zhiyu and Yang, Jingwen and Zhao, Jiale and Liu, Meng and Li, Sunzhu and Wang, Benyou},
  journal={arXiv preprint arXiv:2510.20513},
  year={2025}
}
```