Skip to main content
Yiwen
人工智能
服务端开发
Native开发
Web开发
计算机基础
数学
抗痘
博客
English
English
中文
GitHub
One doc tagged with "self-attention"
View all tags
Transformer 注意力机制的本质
Transformer 架构中,注意力的本质可以用一句话概括:基于相关性的加权求和(Weighted Sum based on Relevance)。