跳转到主要内容
本文档由 AI 生成。如果您发现任何错误或有改进建议,欢迎贡献! 在 GitHub 上编辑
UNetSelfAttentionMultiply 节点用于对 UNet 模型中的自注意力机制的查询、键、值和输出组件应用乘法因子。通过调整注意力计算不同部分的缩放比例,您可以探索注意力权重如何影响模型的行为表现。

输入参数

参数数据类型必需取值范围描述
模型MODEL-需要应用注意力缩放因子的 UNet 模型
qFLOAT0.0 - 10.0查询组件的乘法因子(默认值:1.0)
kFLOAT0.0 - 10.0键组件的乘法因子(默认值:1.0)
vFLOAT0.0 - 10.0值组件的乘法因子(默认值:1.0)
输出FLOAT0.0 - 10.0输出组件的乘法因子(默认值:1.0)

输出结果

输出名称数据类型描述
MODELMODEL经过注意力组件缩放处理后的 UNet 模型