Skip to content

2.0.0-alpha0版发布

Compare
Choose a tag to compare
@goldmermaid goldmermaid released this 08 Mar 23:03
· 766 commits to release since this release
24158fb

主要特点

该版本为《动手学深度学习》2.0.0-alpha0版(中文第二版的预览版),翻译自英文版Dive into Deep Learning0.16.1版。目前中英文版已被全球来自40个国家的175所大学采用教学。

与第一版有所不同,该版本的代码部分包含MXNet、PyTorch和TensorFlow三种框架的实现,供读者自由选择。由于深度学习领域发展极为迅速,第二版不仅重新修订了第一版里所有章节的内容(包括文字、数学、图片和代码),还添加了新的内容。

主要改进

  • 添加了第二版的在线预览版:zh-v2.d2l.ai
  • 更新了第二版的讨论区:discuss.d2l.ai/c/16
  • 将本书的常用函数包的名称由d2lzh改为了英文版的d2l,并分为mxnet.pytorch.pytensorflow.py三个模块;
  • 丰富并修订了第一章“前言”内容。
  • 丰富并修订了第二章“预备知识”内容,例如添加了“数据预处理”、“线性代数”、“微分”和“概率”小节;
  • 丰富并修订了第一版第三章“深度学习基础”内容,并分为“线性神经网络”“多层感知机”两章,例如添加了“环境和分布偏移”小节;
  • 丰富并修订了第一版第五章“卷积神经网络”内容,并分为“卷积神经网络”“现代卷积神经网络”两章,例如添加了“从全连接层到卷积”小节;
  • 丰富并修订了第一版第六章“循环神经网络”内容,并分为“循环神经网络”和“现代循环神经网络”两章(后一章稍后发布),例如添加了“序列模型”和“文本预处理”小节;

详细改进

《动手学深度学习》2.0.0-alpha0版一共含50个小节:

  • 第1章: 深度学习前言

  • 第2章: 预备知识

    • 2.1. 数据操作
    • 2.2. 数据预处理
    • 2.3. 线性代数
    • 2.4. 微分
    • 2.5. 自动求导
    • 2.6. 概率
    • 2.7. 查阅文档
  • 第3章:线性神经网络

    • 3.1. 线性回归
    • 3.2. 线性回归的从零开始实现
    • 3.3. 线性回归的简洁实现
    • 3.4. softmax回归
    • 3.5. 图像分类数据集
    • 3.6. softmax回归的从零开始实现
    • 3.7. softmax回归的简洁实现
  • 第4章: 多层感知机

    • 4.1. 多层感知机
    • 4.2. 多层感知机的从零开始实现
    • 4.3. 多层感知机的简洁实现
    • 4.4. 模型选择、欠拟合和过拟合
    • 4.5. 权重衰减
    • 4.6. Dropout
    • 4.7. 正向传播、反向传播和计算图
    • 4.8. 数值稳定性和模型初始化
    • 4.9. 环境和分布偏移
    • 4.10. 实战 Kaggle 比赛:预测房价
  • 第5章: 深度学习计算

    • 5.1. 层和块
    • 5.2. 参数管理
    • 5.3. 延后初始化
    • 5.4. 自定义层
    • 5.5. 读写文件
    • 5.6. GPU
  • 第6章: 卷积神经网络

    • 6.1. 从全连接层到卷积
    • 6.2. 图像卷积
    • 6.3. 填充和步幅
    • 6.4. 多输入多输出通道
    • 6.5. 池化层
    • 6.6. 卷积神经网络(LeNet)
  • 第7章: 现代卷积神经网络

    • 7.1. 深度卷积神经网络(AlexNet)
    • 7.2. 使用块的网络(VGG)
    • 7.3. 网络中的网络(NiN)
    • 7.4. 含并行连结的网络(GoogLeNet)
    • 7.5. 批量归一化
    • 7.6. 残差网络(ResNet)
    • 7.7. 稠密连接网络(DenseNet)
  • 第8章: 循环神经网络

    • 8.1. 序列模型
    • 8.2. 文本预处理
    • 8.3. 语言模型和数据集
    • 8.4. 循环神经网络
    • 8.5. 循环神经网络的从零开始实现
    • 8.6. 循环神经网络的简洁实现
    • 8.7. 通过时间反向传播

更多未翻译的全新章节请参见已发布的英文版0.16版。欢迎关注本书第二版的英文开源项目。我们将同时不断更新中文版,翻译其他章节。