广东工业大学:《机器学习》课程教学资源(课件讲义)第13讲 卷积神经网络计算机视觉应用(Inception, 批量归一化和残差网络ResNet)

动手学深度学习 13.Inception,批量归一化和残差网络(ResNet) 中文教材:zh.d21.ai 英文教材:www.d2I.ai 教学视频:https:l/courses.d2l.ai/berkeley-stat-157/units/resnet..html D2L.ai
动手学深度学习 13.Inception, 批量归一化 和 残差网络(ResNet) 中文教材:zh.d2l.ai 英文教材:www.d2l.ai 教学视频:https://courses.d2l.ai/berkeley-stat-157/units/resnet.html

概要 ·Inception ·卷积的不均匀混合(不同深度) ·批量归一正则化 ·ResNet ·泰勒展开式 ·残差网络(ResNext)分解卷积 。Z00 稠密连接网络(DenseNet),ShuffleNet,可分解卷积层,. D2L.ai
概要 • Inception • 卷积的不均匀混合(不同深度) • 批量归一正则化 • ResNet • 泰勒展开式 • 残差网络(ResNext) 分解卷积 • Zoo 稠密连接网络(DenseNet), ShuffleNet, 可分解卷积层, …

Inception 围围 D2L.ai
Inception

选最合适的卷积 1x1 3x3 5x5 最大迟化 许多1x1 LeNet AlexNet VGG NiN ↑ ↑ Dense(120) 3x3 Conv (384),pad 1 3x3 Conv(384),pad 1 2x2 AvgPool,stride 2 3x3 MaxPooling,stride 2 3x3 Conv(384),pad 1 ↑ 5x5 Conv (16) 5x5 Conv(256),pad 2 3x3 MaxPooling,stride 2 1x1 Convolution 2x2 AvgPool,stride 2 3x3 MaxPool,stride 2 5x5 Conv(256),pad 2 1x1 Convolution 5x5 Conv (6),pad 2 11x11 Conv(96),stride 4 3x3 MaxPool,stride 2 image (32x32) image(3x224x224) 11x11 Conv(96),stride 4 Convolution 2L.ai
选最合适的卷积 … LeNet AlexNet VGG NiN 1x1 3x3 5x5 最大迟化 许多 1x1

干嘛选呢?都用就是了。 D2L.ai
干嘛选呢? 都用就是了

Inception块 4个路径从不同方面提取信息,然后拼接作为输出通道 与输入相同的 宽度高度 用不同的空间 大小的卷积提取 Concatenation 3x3 Conv,pad 1 5x5 Conv,pad 2 1x1 Conv 1x1 Conv 1x1 Conv 1x1 Conv 3x3 MaxPool,pad 1 Input 使用池化 提取空间信息 D2L.ai
Inception 块 4个路径从不同方面提取信息,然后拼接作为输出通道 用不同的空间 大小的卷积提取 使用池化 提取空间信息 与输入相同的 宽度 / 高度

Inception块 (第一个初始块)指定的通道大小 为每个通道 分配洛种容量 Concatenation(256) 3x3 Conv(128) 5x5 Conv (32) 1x1 Conv(32) 1x1 Conv(64) 1x1 Conv (96) 1x1 Conv(16) 3x3 MaxPool 减小通道大小 192x28x28 以降低模型容量 D2L.ai
Inception 块 为每个通道 分配各种容量 减小通道大小 以降低模型容量 (第一个初始块)指定的通道大小

Inception块 与单个3x3或5x5卷积层相比,初始块具有更少的参数和更低的 计算复杂度 不同功能混合(多样的功能类) 卷积核计算高效(良好的泛化) #参数 浮点运算FLOPS Concatenation(256) Inception 0.16M 128M 3x3 Conv(128) 5x5 Conv (32) 1x1 Conv (32) 1x1 Conv (64) 3x3卷积 0.44M 346M 1x1 Conv (96) 1x1 Conv (16) 3x3 MaxPool 5x5卷积 192x28x28 1.22M 963M D2L.ai
Inception 块 # 参数 浮点运算 FLOPS Inception 0.16 M 128 M 3x3 卷积 0.44 M 346 M 5x5 卷积 1.22 M 963 M 与单个3x3或5x5卷积层相比,初始块具有更少的参数和更低的 计算复杂度 • 不同功能混合(多样的功能类) • 卷积核计算高效(良好的泛化)

GoogLeNet Dense Output Global AvgPool 卡宝 Stage 5 ·5个阶段 2x ·g个Inception块 3x3 MaxPool Stage 4 5x 3x3 MaxPool 2x 宝 Stage 3 3x3 MaxPool 入 3x3 Conv Stage 2 1x1 Conv 3x3 MaxPool Stage 1 D2L.ai 7x7 Conv
GoogLeNet • 5 个阶段 • 9 个 Inception 块 Stage 1 Stage 2 Stage 3 Stage 4 Stage 5 Output

阶段1&2 GoogLeNet AlexNet 由于更多层: 192x28x28 ·更小的内核 3x3 MaxPool,stride 2,pad 1 256x12x12 更小的输出通道 3x3 MaxPool,stride 2 3x3 Conv (192),pad 1 5x5 Conv (256),pad 2 1x1 Conv (64) 3x3 MaxPool,stride 2 3x3 MaxPool,stride 2,pad 1 11x11 Conv(96),stride 4 7x7 Conv (64),stride 2,pad 3 3x224x224 3x224x224 D2L.ai
阶段 1 & 2 • 由于更多层 : • 更小的内核 • 更小的输出通道 GoogLeNet AlexNet
按次数下载不扣除下载券;
注册用户24小时内重复下载只扣除一次;
顺序:VIP每日次数-->可用次数-->下载券;
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第12讲 卷积神经网络(LeNet, AlexNet, VGG和NiN).pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第12讲 卷积神经网络(卷积和池化层).pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第11讲 感知机模型与多层感知机(前馈神经网络,DNN BP).pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第10讲 神经网络的优化(激活函数 dropout).pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第10讲 神经网络的优化(梯度消失和梯度爆炸BN).pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第10讲 神经网络的优化(自适应学习率 AdaGrad RMSProp).pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第10讲 神经网络的优化(batch和动量Momentum NAG).pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第9讲 神经网络的优化(梯度下降、学习率adagrad adam、随机梯度下降、特征缩放).pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第9讲 神经网络的优化(损失函数).pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第8讲 集成学习(决策树的演化).pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第7讲 集成学习(决策树).pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第6讲 线性回归模型及其求解方法 Linear Regression Model and Its Solution.pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第5讲 分类问题(4.4 朴素?叶斯分类器).pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第5讲 分类问题(4.3 ?持向量机 SVM).pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第4讲 分类问题(4.1 分类与回归问题概述 4.2 分类性能度量?法).pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第3讲 特征工程 Feature Engineering.pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第2讲 模型评估与选择.pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第1讲 机器学习概述.pdf
- 《机器学习》课程教学资源:《大语言模型》参考书籍PDF电子版 THE CHINESE BOOK FOR LARGE LANGUAGE MODELS(共十三章).pdf
- 《机器学习》课程教学资源:《Python数据科学手册》参考书籍PDF电子版(2016)Python Data Science Handbook,Essential Tools for Working with Data,Jake VanderPlas.pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第13讲 卷积神经网络计算机视觉应用(目标检测,计算机视觉训练技巧).pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第14讲 循环神经网络(RNN).pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第15讲 无监督学习——降维深度学习可视化(PCA Kmeans).pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第15讲 无监督学习——降维深度学习可视化(Neighbor Embedding,LLE T-SNE).pdf
- 广东工业大学:《机器学习》课程教学资源(PPT讲稿)第16讲 现代循环神经网络(高级循环神经网络).pptx
- 广东工业大学:《机器学习》课程教学资源(PPT讲稿)第16讲 现代循环神经网络(编码器解码器,Seq2seq模型,束搜索).pptx
- 广东工业大学:《机器学习》课程教学资源(PPT讲稿)第16讲 现代循环神经网络(嵌入向量, 词嵌入, 子词嵌入, 全局向量的词嵌入).pptx
- 广东工业大学:《机器学习》课程教学资源(PPT讲稿)第17讲 注意力机制(概述).pptx
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第17讲 注意力机制(自注意力).pdf
- 广东工业大学:《机器学习》课程教学资源(PPT讲稿)第18讲 变换器模型 Transformer.pptx
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第18讲 变换器模型 Transformer.pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第19讲 ViT及注意力机制改进(Vision Transformers ,ViTs).pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第19讲 ViT及注意力机制改进(各式各样的Attention).pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第20讲 预训练模型 Pre-training of Deep Bidirectional Transformers for Language Understanding(授课:周郭许).pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第21讲 生成式网络模型(自编码器 Deep Auto-encoder).pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第21讲 生成式网络模型(VAE Generation).pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第22讲 生成式网络模型(Diffusion Model).pdf
- 广东工业大学:《机器学习》课程教学资源(课件讲义)第22讲 生成式网络模型(Stable Diffusion).pdf
- 北京信息科技大学:计算机学院各专业课程教学大纲汇编.pdf
- 北京信息科技大学:计算中心及图书馆课程教学大纲汇编.pdf