Skip to main content

One doc tagged with "gpt"

View all tags

手写带掩码的自注意力机制

GPT 等大模型之所以强大,核心在于它们如何"理解"上下文。而这一切的基石,就藏在不到 20 行的 PyTorch 代码中。