动手学深度学习 (Dive into Deep Learning)
《动手学深度学习》是由李沐等人编写的深度学习入门教材,面向中文读者,强调"能运行、可讨论"。本书已被全球 70 多个国家的 500 多所大学采用作为教学教材。
课程信息
- 官网: https://zh.d2l.ai/
- 课程页面: https://courses.d2l.ai/zh-v2/
- GitHub: https://github.com/d2l-ai/d2l-zh
- 视频: B站 / YouTube
作者
- 李沐 - AWS 资深首席科学家,卡内基梅隆大学计算机系博士
- Aston Zhang
- Zachary C. Lipton
- Alexander J. Smola
课程特色
- 理论与实践结合 - 在同一个地方阐述概念、数学知识和代码实现
- 多框架支持 - 含 PyTorch、NumPy/MXNet、TensorFlow、PaddlePaddle 实现
- 可运行代码 - 所有代码示例都可以直接运行
- 中文友好 - 专为中文读者编写
主要章节
基础部分
- 预备知识(数据操作、线性代数、微积分、概率论)
- 线性神 经网络(线性回归、Softmax 回归)
- 多层感知机(MLP、权重衰减、Dropout)
深度学习计算
- 层与块
- 参数管理
- 自定义层
- 读写文件
- GPU 计算
卷积神经网络 (CNN)
- 卷积层、池化层
- LeNet、AlexNet、VGG
- NiN、GoogLeNet
- 批量归一化、ResNet、DenseNet
循环神经网络 (RNN)
- 序列模型
- 语言模型
- RNN、GRU、LSTM
- 深度循环神经网络
- 双向循环神经网络
注意力机制
- 注意力机制
- 自注意力和位置编码
- Transformer
优化算法
- 梯度下降
- 随机梯度下降
- 动量法
- Adam
计算机视觉
- 图像增广
- 微调
- 目标检测(SSD、YOLO)
- 语义分割
自然语言处理
- 词嵌入(Word2Vec、GloVe)
- 文本预处理
- 预训练模型(BERT、GPT)
相关资源
学习代码
https://github.com/Hao-yiwen/deeplearning/tree/master/pytorch_2025/month_11