VGGNet由牛津大学的视觉几何组(Visual Geometry Group)提出,并在2014年举办的ILSVRC(ImageNet 2014比赛)中获得了定位任务第1名和分类任务第2名的好成绩,(GoogleNet 是2014 年的分类任务第1 名)。虽然VGGNet在性能上不及GoogleNet,但因为VGG结构简单,应用性强,所以很多技术人员都喜欢使用基于VGG 的网络。VGG论文Very deep convolutional networks for large-scale image recognition,有兴趣的同学可以看下。
array,list,tensor,Dataframe,Series之间互相转换总结
本文转载自:【串讲总结】array, list, tensor,Dataframe,Series之间互相转换总结
一、前言
对于在Deep Learning的学习中总会有几个数据类型的转换,这次想把这些常用的转换做一个总结,方便以后看。
【超详细】对比10种优化函数BGD、SGD、mini-batch GD、Momentum、NAG、Adagrad、RMSProp、Adadelta、Adam、AMSgrad
在实践中常用到一阶优化函数,典型的一阶优化函数包括 BGD、SGD、mini-batch GD、Momentum、Adagrad、RMSProp、Adadelta、Adam 等等,一阶优化函数在优化过程中求解的是参数的一阶导数,这些一阶导数的值就是模型中参数的微调值。另外,近年来二阶优化函数也开始慢慢被研究起来,二阶方法因为计算量的问题,现在还没有被广泛地使用。
在Windows10中使用 Jupyter Notebook 运行C++
在Windows10中使用 Jupyter Notebook 运行C++ !
从Inception到Xception,卷积方式的成长之路!
2014年Google提出了多尺度、更宽的Inception网络结构,不仅比同期的VGG更新小,而且速度更快。Xception则将Inception的思想发挥到了极致,解开了分组卷积和大规模应用的序幕。
本文将详细讲述
- Inception v1的多尺度卷积和Pointwise Conv
- Inception v2的小卷积核替代大卷积核方法
- Inception v3的卷积核非对称拆分
- Bottleneck卷积结构
- Xception的Depthwise Separable Conv深度可分离卷积
Alexnet网络结构逐层详细分析+代码实现
在2012年Imagenet比赛冠军—Alexnet (以第一作者Alex命名)直接刷新了ImageNet的识别率,奠定了深度学习在图像识别领域的优势地位。网络结构如下图:
深入理解ReLU、Leaky ReLU、 PReLU、ELU、Softplus
深入理解dropout(原理+手动实现+实战)
在这篇博客中你可以学到
- 什么是dropout
- dropout为什么有用
- dropout中的多模型原理
- 手动实现dropout
- 在pytorch中使用dropout
Pytorch离线下载并使用torchvision.models预训练模型
Pytorch离线下载并使用torchvision.models预训练模型
python中超级实用的30个内置函数
python的内置函数是指不需要任何导入,就可以使用的函数