本文档由 AI 生成。如果您发现任何错误或有改进建议,欢迎贡献! 在 GitHub 上编辑UNetCrossAttentionMultiply 节点用于对 UNet 模型中的交叉注意力机制应用乘法因子。它允许您缩放交叉注意力层的查询、键、值和输出组件,以实验不同的注意力行为与效果。
输入参数
| 参数 | 数据类型 | 必填 | 取值范围 | 描述 |
|---|---|---|---|---|
模型 | MODEL | 是 | - | 需要应用注意力缩放因子的 UNet 模型 |
q | FLOAT | 否 | 0.0 - 10.0 | 交叉注意力中查询组件的缩放因子(默认值:1.0) |
k | FLOAT | 否 | 0.0 - 10.0 | 交叉注意力中键组件的缩放因子(默认值:1.0) |
v | FLOAT | 否 | 0.0 - 10.0 | 交叉注意力中值组件的缩放因子(默认值:1.0) |
输出 | FLOAT | 否 | 0.0 - 10.0 | 交叉注意力中输出组件的缩放因子(默认值:1.0) |
输出结果
| 输出名称 | 数据类型 | 描述 |
|---|---|---|
模型 | MODEL | 经过交叉注意力组件缩放处理后的 UNet 模型 |