课程目录:
第1章 初识深度学习 8 节 | 34分钟
本章中将向大家介绍,深度学习的应用范畴、人才需求、基础概念和子学科分类,并会结合应用现状,与大家讨论技术发展前景,带领同学们初识深度学习。
1-1 系统入门深度学习,从这里轻松开始 (07:44)
1-2 本章内容介绍 (01:19)
1-3 神经网络&深度学习 (08:22)
1-4 深度学习路线图 (06:07)
1-5 深度学习应用 (08:27)
1-6 本章总结 (01:24)
第2章 入门必修:单、多层感知机17 节 | 152分钟
本章将以机器学习中的逻辑回归算法作为引子,展开与其相关的神经网络基础学习。帮助大家认识神经网络的一般结构和实施方法;实践神经网络搭建和训练的过程,并能用神经网络搭建二分类器。
2-1 本章内容介绍 (01:28)
2-2 深度学习实施的一般过程 (07:34)
2-3 逻辑回归 (06:00)
2-4 逻辑回归损失函数 (09:18)
2-5 逻辑回归示例 (12:17)
2-6 单层、多层感知机 (08:51)
2-7 pytorch 构建单多层感知机 (19:53)
2-8 基于多层DNN假钞识别 (01:43)
2-9 数据集及特征分析 (05:49)
2-10 项目构建和模型训练(1) (16:43)
2-11 项目构建和模型训练(2) (14:25)
2-12 项目构建和模型训练(3) (16:27)
2-13 项目构建和模型训练(4) (15:58)
2-14 模型评估和选择 (13:02)
2-15 本章总结 (02:24)
第3章 深度学习基础组件精讲 11 节 | 116分钟
本章将带领大家,学习深度学习中一些重要的组件、优化原理及方法,他们既是神经网络优化的重要准备知识和基础支撑理论,更是所有深度学习训练和优化的基础。
3-1 本章内容介绍 (02:30)
3-2 如何划分和处理你的数据集 (06:27)
3-3 正确的初始化模型参数 (13:57)
3-4 激活函数选择 (16:32)
3-5 优化器选择 (20:00)
3-6 Normalization 增强模型训练(上) (17:40)
3-7 Normalization 增强模型训练(下) (15:38)
3-8 使用正则提升模型表现 (19:13)
3-9 本章总结 (03:40)
第4章 图像处理利器:卷积神经网络 22 节 | 251分钟
本章将重点学习卷积神经网络,帮助大家理解卷积的意义和各种卷积的变体,学会如何设计、搭建卷积神经网络,并应用解决实际的问题。
4-1 本章内容介绍 (02:06)
4-2 人类视觉和卷积神经网络关系 (07:46)
4-3 卷积神经网络的应用 (05:23)
4-4 卷积运算是怎样的过程(上) (15:58)
4-5 卷积运算是怎样的过程(下) (13:56)
4-6 用池化进行下采样 (15:54)
4-7 几种卷积的变体(上) (15:19)
4-8 几种卷积的变体(下) (14:49)
4-9 利用残差搭建更深的网络 (16:30)
4-10 Vgg介绍及实现 (24:02)
4-11 图片的数据增广 (15:15)
4-12 手势识别应用来源和项目分析 (06:27)
4-13 模型设计 (08:12)
4-14 MoocTrialNet模型搭建(1) (16:18)
4-15 MoocTrialNet模型搭建(2) (14:04)
4-16 MoocTrialNet模型搭建(3) (18:12)
4-17 MoocTrialNet模型搭建(4) (17:58)
4-18 MoocTrialNet模型搭建(5) (07:45)
4-19 模型评估和选择 (10:09)
4-20 本章总结 (04:22)
第5章 为序列数据而生:RNN系列19 节 | 191分钟
本章将带领大家认识序列模型,主要围绕RNN和其变体进行相关讲解。帮助大家理解序列模型和序列数据,并能应用用序列模型处理序列数据的实际问题。
5-1 本章内容介绍 (02:43)
5-2 什么是序列模型 (12:25)
5-3 不同的RNN应用类型:OvM, MvM (04:26)
5-4 循环神经网络原理 (19:18)
5-5 用BPTT 训练RNN (05:06)
5-6 两个重要的变体:LSTMGRU(上) (15:25)
5-7 两个重要的变体:LSTMGRU(下) (14:08)
5-8 利用双向、多层RNN增强模型 (16:02)
5-9 典型应用范式:Encoder-Decoder (05:50)
5-10 GRU实现唤醒词识别 (07:20)
5-11 基于双层、双向GRU的命令词识别模型搭建(1) (16:12)
5-12 基于双层、双向GRU的命令词识别模型搭建(2) (15:29)
5-13 基于双层、双向GRU的命令词识别模型搭建(3) (16:52)
5-14 基于双层、双向GRU的命令词识别模型搭建(4) (14:32)
5-15 基于双层、双向GRU的命令词识别模型搭建(5) (09:26)
5-16 模型评估和选择 (10:02)
5-17 本章总结 (05:15)
第6章 深度学习新思路: GAN网络21 节 | 255分钟
本章将一起学习生成式网络,帮助大家重点掌握GAN网络,理解GAN的原理和背后的数学原理,并能实践如何应用GAN网络构建一个人脸生成器,真正所学及所用。
6-1 本章内容介绍 (03:23)
6-2 什么是生成式模型? (12:58)
6-3 GAN的原理(上) (12:04)
6-4 GAN的原理(下) (11:58)
6-5 GAN的一些变体之:CycleGAN (14:26)
6-6 GAN的一些变体之:StyleGAN(上) (10:38)
6-7 GAN的一些变体之:StyleGAN(下) (10:20)
6-8 GAN的一些变体之:DCGAN (03:48)
6-9 GAN的一些变体之:text-to-image (09:12)
6-10 用DCGAN生成人脸照片 (04:14)
6-11 超参和dataset编写 (28:03)
6-12 generator编写 (28:24)
6-13 discriminator编写 (16:01)
6-14 trainer 编写(1) (16:39)
6-15 trainer 编写(2) (16:28)
6-16 trainer 编写(3) (17:05)
6-17 trainer 编写(4) (15:08)
6-18 怎么检查GAN的训练过程? (19:35)
6-19 本章总结 (04:31)
第7章 赋予模型认知能力:注意力机制24 节 | 312分钟
Transformer作为深度学习研究的重点和热点,日渐受到关注。在本章中,将帮助大家认识注意力机制,掌握Transformer的原理,并能在搭建Transformer的同时巩固对Attention的理解。
7-1 本章内容介绍 (02:28)
7-2 什么是注意力机制? (07:40)
7-3 注意力机制的一般性原理 (09:31)
7-4 几种典型的注意力机制 hard、soft、local attention (10:12)
7-5 自注意力机制:self-attention (14:03)
7-6 Transformer (14:03)
7-7 用Transformer实现G2P(上) (17:42)
7-8 用Transformer实现G2P(下) (16:21)
7-9 g2p dataset 编写 (27:31)
7-10 model结构和位置编码 (20:48)
7-11 encoder (19:18)
7-12 Multi-head attention(上) (18:23)
7-13 Multi-head attention(下) (21:45)
7-14 Pointwise FeedForward (06:49)
7-15 decoder (21:52)
7-16 transformer(上) (19:59)
7-17 transformer(下) (06:07)
7-18 trainer脚本编写 (12:29)
7-19 infer推理函数编写 (13:49)
7-20 inference和attention map展示(上) (14:15)
7-21 inference和attention map展示(下) (12:10)
7-22 本章总结 (03:52)
第8章 数据不够怎么办?迁移学习来帮忙10 节 | 78分钟
本章会带领大家熟悉迁移学习的基本概念,掌握实用得实施迁移学习的方法,并将手把手的教会同学们如何构建迁移学习的项目,解决实际问题。
8-1 本章内容介绍 (02:01)
8-2 什么是迁移学习 (07:26)
8-3 迁移学习分类 (11:46)
8-4 怎么实施迁移学习? (09:18)
8-5 基于ResNet迁移学习的姿势识别 (09:09)
8-6 工程代码(上) (13:16)
8-7 工程代码(下) (11:31)
8-8 inference (09:20)
8-9 本章总结 (03:45)
第9章 深度学习新范式:半监督学习19 节 | 202分钟
本章将帮助大家,在掌握半监督学习核心概念的同时,更能基于实际问题,提出半监督学习的解决方案、设计半监督的理论和实施方法,并完成相关项目,循序渐进带领大家学通学会半监督学习。
9-1 本章内容介绍 (02:19)
9-2 半监督学习是什么? (06:01)
9-3 半监督学习能解决什么问题? (05:30)
9-4 几种典型的半监督学习方法(上) (13:34)
9-5 几种典型的半监督学习方法(下) (11:44)
9-6 在Cifar10上实现MixMatch半监督学习-论文拆解 (08:10)
9-7 超参和dataset (09:32)
9-8 utils编写(1) (17:59)
9-9 utils编写(2) (17:22)
9-10 utils编写(3) (13:33)
9-11 utils编写(4) (09:23)
9-12 model编写 (06:49)
9-13 loss 编写 (08:48)
9-14 trainer 编写(1) (17:23)
9-15 trainer 编写(2) (15:45)
9-16 trainer 编写(3) (20:22)
9-17 trainer 编写(4) (14:43)
9-18 本章总结 (02:59)
本站资料仅供个人学习和研究使用 若本帖作者内容侵犯了原著者的合法权益请提供相应证明材料本站审核通过后将即予以处理
评论0