本文档由 AI 生成。如果您发现任何错误或有改进建议,欢迎贡献! 在 GitHub 上编辑UNetTemporalAttentionMultiply 节点用于对时序 UNet 模型中的不同类型的注意力机制应用乘法因子。该节点通过调整自注意力和交叉注意力层的权重来修改模型,并区分结构组件和时序组件。这样可以微调每种注意力类型对模型输出的影响程度。
输入参数
| 参数名 | 数据类型 | 必填 | 取值范围 | 描述 |
|---|---|---|---|---|
模型 | MODEL | 是 | - | 需要应用注意力乘数进行修改的输入模型 |
自我结构 | FLOAT | 否 | 0.0 - 10.0 | 自注意力结构组件的乘数(默认值:1.0) |
自我时间 | FLOAT | 否 | 0.0 - 10.0 | 自注意力时序组件的乘数(默认值:1.0) |
交叉结构 | FLOAT | 否 | 0.0 - 10.0 | 交叉注意力结构组件的乘数(默认值:1.0) |
交叉时间 | FLOAT | 否 | 0.0 - 10.0 | 交叉注意力时序组件的乘数(默认值:1.0) |
输出结果
| 输出名称 | 数据类型 | 描述 |
|---|---|---|
模型 | MODEL | 经过注意力权重调整后的修改模型 |