跳到主要内容
Yiwen
人工智能
服务端开发
Native开发
Web开发
计算机基础
数学
抗痘
博客
中文
English
中文
GitHub
1 篇文档带有标签「self-attention」
查看所有标签
Transformer 注意力机制的本质
Transformer 架构中,注意力的本质可以用一句话概括:基于相关性的加权求和(Weighted Sum based on Relevance)。