跳转到主要内容
本文档由 AI 生成。如果您发现任何错误或有改进建议,欢迎贡献! 在 GitHub 上编辑
ElevenLabs 文本转对话节点可从文本生成多说话人音频对话。它允许您通过为每个参与者指定不同的文本行和独特音色来创建对话。该节点将对话请求发送至 ElevenLabs API 并返回生成的音频。

输入参数

参数名数据类型必填取值范围描述
stabilityFLOAT0.0 - 1.0音色稳定性。数值越低情感范围越广,数值越高语音越一致但可能单调。(默认:0.5)
apply_text_normalizationCOMBO"auto"
"on"
"off"
文本归一化模式。‘auto’ 由系统决定,‘on’ 始终应用归一化,‘off’ 跳过归一化。
modelCOMBO"eleven_v3"用于对话生成的模型。
inputsDYNAMICCOMBO"1"
"2"
"3"
"4"
"5"
"6"
"7"
"8"
"9"
"10"
对话条目数量。选择数字将生成相应数量的文本和音色输入字段。
language_codeSTRING-ISO-639-1 或 ISO-639-3 语言代码(如 ‘en’、‘es’、‘fra’)。留空则自动检测。(默认:空)
seedINT0 - 4294967295用于可重现性的随机种子。(默认:1)
output_formatCOMBO"mp3_44100_192"
"opus_48000_192"
音频输出格式。
注意: inputs 参数是动态的。当您选择一个数字(例如 “3”)时,节点将显示三个对应的 textvoice 输入字段(例如 text1voice1text2voice2text3voice3)。每个 text 字段必须包含至少一个字符。

输出参数

输出名称数据类型描述
audioAUDIO以选定输出格式生成的多说话人对话音频。