专业课程

课程二:深度学习101

摘要

本课程介绍现代英特尔® 架构上的深度学习。深度学习因在计算机视觉和自然语言处理方面取得的惊人结果而受到业界的显著关注。
本课程结束时,学生将深入理解以下方面:

• 深度学习的技术、术语和数学
• 基础神经网络架构、前馈网络、卷积网络和循环网络
• 如何恰当地构建和训练这些模型
• 各种深度学习应用
• 如何使用预训练模型达到最佳结果
该课程安排为约 12 周的授课和练习。 每一周要求三小时完成。
学习该课程的前提条件:

学习该课程的前提条件:
Python* 编程
微积分
线性代数
统计学




第一周

本周课程回顾课程 1:机器学习 101。已经熟悉机器学习的学生可跳至下一周的课程。










第二周

神经网络的灵感源自生物学。 本周课程教授学生深度学习的基本命名法:什么是神经元(它类似于生物学神经元),前馈神经网络的架构,激活函数和权重。








第三周

本周课程建立在第 2 周学习的概念之上:神经网络如何根据给定的单向正推中的输入来计算输出,以及如何使用此网络来训练模型。 学习如何使用反向传播的技术来计算损失并调整权重。 还介绍不同类型的激活函数










第四周

学习提高训练速度和准确性的技术。 识别使用梯度下降、随机梯度下降和迷你批量之优缺点。 通过第 2 周至第 4 周讲授的神经网络基础知识,您将学习如何使用 Keras*(以 TensorFlow* 作为后端)建立一个基本神经网络。








第五周

如何避免神经网络中的拟合过度(正则化)? 在本周课程中,您将学习惩罚性成本函数、删节、提前停止、动量及一些有助于正则化神经网络的优化器(如 AdaGrad 和 RMSProp)。









第六周

学习有关卷积神经网络 (CNN) 的知识以及卷积神经网络与业已介绍的完全连接的神经网络之比较 学习如何通过选择网格大小 (grid size)、填充 (padding)、步幅 (stride)、深度 (depth) 和池化 (pooling) 来建造卷积神经网络。









第七周

使用 LeNet-5* 拓扑,学习如何将上周课程中学到的所有卷积神经网络概念应用到 MNIST(修订的美国国家标准技术研究所)手写数字的数据集。 通过训练的神经网络,观察在最初几层中学到的原始特征可如何被类推至所有图像分类任务,以及迁移学习有何帮助。







第八周

深度学习文献讨论许多图像分类拓扑,如 AlexNet、VGG-16 和 VGG-19、Inception 及 ResNet。 本周学习这些拓扑是如何设计的,以及每一种拓扑的使用场合。

决策树以及如何将决策树用于分类问题
如何辨认最佳分割以及决定分割的因素
决策树的强项和弱点
有助于连续值分类的回归树







第九周

构建图像分类器的一个实际障碍是获得标记的训练数据。 探讨如何使用数据增强来最大限度地利用可用标记数据,并使用 Keras* 实施数据增强。









第十周

至此,我们已使用图像作为对神经网络的输入。 图像值本质上是数字(灰度或 RGB)。 但是,如何处理文字呢? 我们能如何建立神经网络来处理可变长度的文字片段? 如何将文字转换成数字值? 在本周课程中,学习有关循环神经网络(recurrent neural networks,或 RNN)及其对自然语言处理(natural language processing,或 NLP)的应用。







第十一周

学习开发循环神经网络 (RNN) 的更高级课题,以及循环概念可如何用于解决涉及变量序列和字序的问题。 取出笔记本和铅笔,逐步学习循环神经网络 (RNN) 的数学。




第十二周

标准循环神经网络 (RNN) 的记忆能力不良。 在自然语言处理 (NLP) 中,重要的是具有一种结构,能携带一些信号向前传递许多步骤。 在本周课程中,学习有关解决这个问题的长短期记忆 (long short term memory,LSTM)。