Skip to main content

7 docs tagged with "NLP"

View all tags

N-gram 语言模型详解

N-gram 是自然语言处理(NLP)和概率论中一个非常经典且基础的概念。简单来说,它是指文本序列中 N 个连续的项(通常是词或字符) 组成的序列。

Transformer 完整架构详解与 PyTorch 实现

这是一份完整的 Transformer 架构代码笔记,整合了从底层的多头注意力(QKV)到中间的编码器/解码器块,再到整体架构和掩码机制的所有核心概念。本文包含极其详尽的中文注释,帮助你深入理解 Transformer 的工作原理。

Word2Vec 词嵌入详解

Word2Vec 是自然语言处理(NLP)领域中一个里程碑式的技术。简单来说,它是一种让计算机理解词语含义,并把词语转换成数字向量(Word Embeddings)的工具。

隐马尔可夫模型 (HMM) 详解

隐马尔可夫模型 (Hidden Markov Model, HMM) 是马尔可夫链的扩展,它在普通马尔可夫链的基础上增加了一个关键概念:隐藏状态。

马尔可夫链详解

马尔可夫链 (Markov Chain) 是概率论和数理统计中一个非常核心的模型。它以俄罗斯数学家安德雷·马尔可夫(Andrey Markov)的名字命名。