该课程基于微软亚洲研究院开发的人工智能课程,合共15次课,讲述了人工智能的基础知识,以及和机器学习,深度学习的基本知识和算法,具体资料:点击进入
你知道什么是人工智能吗?实现人工智能需要什么技术?本课程会是该系列课程的开篇,你可以认识人工智能,掌握人工智能的应用场景,所需要的相关技术等。
课程内容地址:基础知识
ppt: 00-MLIntro.pdf
线上视频: 点击观看
我们完成了机器学习的第一步,知道了什么是机器学习,接下来我们开始系统学习线性回归的知识。本次课程将会介绍单变量线性回归问题,并详细讲解梯度下降算法,神经网络法,以及梯度下降的三种形式。
课程内容地址: 单变量线性回归
ppt: 01-MLRegression1.pdf
代码:code/ch02/
线上视频: 点击观看
我们完成了单变量线性回归的学习,我们进入多变量线性回归的学习,并讲解正规方程解法,神经网络解法,还有样本数据归一法。希望小伙伴能结合上周的课程,真正掌握线性回归的知识学习。
课程内容地址: 多变量线性回归
ppt: 02-MLRegression2.pdf
代码:code/ch03/
线上视频: 点击观看
各位掌握了线性回归的知识。接下来我们会介绍线性分类的学习,你将会学习最基础的二分类知识。包括认识线性二分类,以及如果调用二分类函数,并通过神经网络实现线性二分类。
课程内容地址: 线性二分类
ppt: 03-LinearBinaryClassification.pdf
代码:code/ch04/
线上视频: 点击观看
线性分类除了线性二分类,还有线性多分类的学习。通过线性多分类的学习,区分和二分类的不同,并介绍多分类函数。
课程内容地址: 线性多分类
ppt: 04-LinearMultiClassification.pdf
代码:code/ch05/
线上视频: 点击观看
在进入非线性系列,我们先介绍一下激活函数,它究竟有什么作用,要怎么实现激活函数,以及通过激活函数优化神经网络
课程内容地址: 激活函数
ppt: 05-ActivationFunction.pdf
线上视频: 点击观看
基于单入单出的双层神经网络的非线性回归实现。
课程内容地址: 非线性回归
ppt: 06-NonlinearRegression.pdf
线上视频: 点击观看
非线性二分类,多分类介绍。
课程内容地址: 非线性分类
ppt: 07-NonlinearClassicfication.pdf
线上视频: 点击观看
小结 分类vs回归 线性vs非线性 神经网络等知识
ppt: 08-Review.pdf
线上视频: 点击观看
在前面的学习中,我们了解了机器学习、神经网络的概念和基本原理,学习了机器学习里面的线性二分类、线性多分类、非线性而分类、非线性多分类等知识。本节课程,我们将在此基础上,引入深度学习框架——PyTorch。它是一种简洁高效、易于安装及上手的深度学习框架。
课程内容地址: PyTorch 基础知识介绍
代码:code/ch10/
ppt: 09-PyTorch.pdf
线上视频: 点击观看
探讨深度学习的一些细节,如权重矩阵初始化、梯度下降优化算法、批量归一化等高级知识
课程内容地址: 深度学习
代码:code/ch11/
ppt: 10-DeepLearning.pdf
线上视频: 点击观看
开放式神经网络交换(Open Neural Network Exchange,简称ONNX)介绍,将通过实际案例,向大家介绍如何测试生成的训练模型 和 ONNX 模型,并展示如何将其直接部署到不同终端
课程内容地址: 模型应用与部署
代码:code/ch12/
ppt: 11-ModelInferenceAndDeployment.pdf
线上视频: 点击观看
卷积神经网络是深度学习中的一个里程碑式的技术,有了这个技术,才会让计算机有能力理解图片和视频信息,才会有计算机视觉的众多应用。在本部分的学习中,将会逐步介绍卷积的前向计算、卷积的反向传播、池化的前向计算与反向传播,然后用代码实现一个卷积网络并训练一些实际数据。
课程内容地址: 卷积神经网络
代码:code/ch13/
ppt: 12-ConvolutionalNeuralNetworks.pdf
线上视频: 点击观看
循环神经网络实际上前馈全连接神经网络的一种扩展,如果你已经掌握了全连接神经网络中的算法、公式推导等知识,那么学习循环神经网络会很容易。在普通循环神经网络部分,将先介绍只有两个时间步的网络,然后扩展到四个时间步,通过软件工程的抽象,进一步扩展到通用的网络模型。然后介绍不定长时序循环神经网络、深度循环神经网络、双向循环神经网络。通过这一部分的学习,使读者对于循环神经网络的基本原理有透彻的理解。在高级循环神经网络部分,将介绍LSTM、GRU、序列到序列的模型的原理,为以后学习自然语言处理(Natural Language Processing,NLP)打下坚实的基础。
课程内容地址: 循环神经网络
代码:code/ch14/
ppt: 13-RecurrentNeuralNetwork.pdf
线上视频: 点击观看
随着网络的加深,训练变得越来越困难,时间越来越长,原因:参数多/数据量大/梯度消失/损失函数坡度平缓等,为了解决这些问题,科学家们在深入研究网络表现的前提下,发现在下面这些方向上经过一些努力,可以给深度网络的训练带来或多或少的改善,权重矩阵初始化/批量归一化/梯度下降优化算法/自适应学习率算法
课程内容地址: 网络优化
ppt: 14-NetworkOptimization.pdf
线上视频: 点击观看