[深度概念]·深度学习之Attention Model(注意力模型)学习笔记 (10)

[深度概念]·深度学习之Attention Model(注意力模型)学习笔记

 

 

 

第一阶段产生的分值根据具体产生的方法不同其数值取值范围也不一样,第二阶段引入类似SoftMax的计算方式对第一阶段的得分进行数值转换,一方面可以进行归一化,将原始计算分值整理成所有元素权重之和为1的概率分布;另一方面也可以通过SoftMax的内在机制更加突出重要元素的权重。即一般采用如下公式计算:

  

[深度概念]·深度学习之Attention Model(注意力模型)学习笔记

 

第二阶段的计算结果

[深度概念]·深度学习之Attention Model(注意力模型)学习笔记

​即为

[深度概念]·深度学习之Attention Model(注意力模型)学习笔记

​对应的权重系数,然后进行加权求和即可得到Attention数值:

[深度概念]·深度学习之Attention Model(注意力模型)学习笔记

 

通过如上三个阶段的计算,即可求出针对Query的Attention数值,目前绝大多数具体的注意力机制计算方法都符合上述的三阶段抽象计算过程。

 

由上述内容我们可以对3中的问题如何表示权重,做进一步解答了:

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zwfxpw.html