卷积神经网络总结

卷积神经网络总结
卷积神经网络总结

1 卷积神经网络

卷积神经网络是深度学习的一种,已成为当前图像理解领域的研究热点它的权值共享网络结构使之更类似于生物神经网络,降低了网络模型的复杂度,减少了权值的数量。这个优点在网络的输入是多维图像时表现得更为明显, 图像可以直接作为网络的输入,避免了传统识别算法中复杂的特征提取和数据重建过程. 卷积网络是为识别二维形状而特殊设计的一个多层感知器,这种网络结构对平移、比例缩放以及其他形式的变形具有一定不变性. 在典型的CNN 中,开始几层通常是卷积层和下采样层的交替, 在靠近输出层的最后几层网络通常是全连接网络。卷积神经网络的训练过程主要是学习卷积层的卷积核参数和层间连接权重等网络参数, 预测过程主要是基于输入图像和网络参数计算类别标签。卷积神经网络的关键是:网络结构(含卷积层、下采样层、全连接层等) 和反向传播算法等。在本节中, 我们先介绍典型CNN 的网络结构和反向传播算法, 然后概述常用的其他CNN 网络结构和方法。神经网络参数的中文名称主要参考文献

[18] 卷积神经网络的结构和反向传播算法主要参考文献[17] 。

网络结构

卷积层

在卷积层, 上一层的特征图(Feature map) 被一个可学习的卷积核进行卷积, 然后通过一个激活函数(Activation function), 就可以得到输出特征图. 每个输出特征图可以组

合卷积多个特征图的值[17] :

()l

l

j j x f u =

1j l

l l l j j ij j i M u x k b -∈=

*+∑ 其中, l j u 称为卷积层l 的第j 个通道的净激活(Netactivation), 它通过对前一层输出

特征图1l j x -进行卷积求和与偏置后得到的, l

j x 是卷积层l 的第j 个通道的输出。()f 称为激活函数, 通常可使用sigmoid 和tanh 等函数。j M 表示用于计算l j u 的输入特征图子集, l ij k 是卷积核矩阵, l j b 是对卷积后特征图的偏置。对于一个输出特征图l j x ,每个输入特征图1l j x -对应的卷积核l ij k 可能不同,“*”是卷积符号。

;

下采样层

下采样层将每个输入特征图通过下面的公式下采样输出特征图[17]:

()l

l

j j x f u =

1()l

l

l

l

j j j j u down x b β-=+

其中, l j u 称为下采样层l 的第j 通道的净激活, 它由前一层输出特征图1

l j x -进行下采样

加权、偏置后得到, β是下采样层的权重系数, l

j b 是下采样层的偏置项. 符号()down 表

示下采样函数, 它通过对输入特征图1l

j x -通过滑动窗口方法划分为多个不重叠的n n ?图像

块, 然后对每个图像块内的像素求和、求均值或最大值, 于是输出图像在两个维度上都缩小了n 倍。

全连接层

在全连接网络中, 将所有二维图像的特征图拼接为一维特征作为全连接网络的输入.

全连接层l 的输出可通过对输入加权求和并通过激活函数的响应得到[17]:

%

()l

l

j j x f u =

1l l l l u w x b -=+

其中, l u 称为全连接层l 的净激活, 它由前一层输出特征图1l x

-进行加权和偏置后得

到的。l w 是全连接网络的权重系数, l b 是全连接层l 的偏置项。 反向传播算法

神经网络有两类基本运算模式: 前向传播和学习. 前向传播是指输入信号通过前一节中一个或多个网络层之间传递信号, 然后在输出层得到输出的过程. 反向传播算法是神经网络有监督学习中的一种常用方法, 其目标是根据训练样本和期望输出来估计网络参数. 对于卷积神经网络而言, 主要优化卷积核参数k 、下采样层网络权重ˉ、全连接层网络权重w 和各层的偏置参数b 等. 反向传播算法的本质在于允许我们对每个网络层计算有效误差,

并由此推导出一个网络参数的学习规则, 使得实际网络输出更加接近目标值[18]。

我们以平方误差损失函数的多分类问题为例介绍反向传播算法的思路. 考虑一个多分

类问题的训练总误差, 定义为输出端的期望输出值和实际输出值的差的平方[17]:

21

1(,,,)2N n n n E w k b t y β==-∑ 其中, n t 是第n 个样本的类别标签真值, n y 是第n 个样本通过前向传播网络预测输出的类别标签. 对于多分类问题, 输出类别标签常用一维向量表示, 即输入样本对应的类别标签维度为正数, 输出类别标签的其他维为0 或负数, 这取决于选择的激活函数类型, 当激活函数选为sigmoid, 输出标签为0, 当激活函数为tanh, 输出标签为-1。

>

反向传播算法主要基于梯度下降方法, 网络参数首先被初始化为随机值, 然后通过梯度下降法向训练误差减小的方向调整. 接下来, 我们以多个“卷积层-采样层”连接多个全连接层的卷积神经网络为例介绍反向传播算法。

首先介绍网络第l 层的灵敏度(Sensitivity)[17,18]:

l l

E u δ?=?

其中, l δ描述了总误差E 怎样随着净激活l

u 而变化. 反向传播算法实际上通过所有网络层的灵敏度建立总误差对所有网络参数的偏导数, 从而得到使得训练误差减小的方向。 卷积层

为计算卷积层l 的灵敏度, 需要用下一层下采样层l + 1 的灵敏度表示卷积层l 的灵敏度, 然后计算总误差E 对卷积层参数(卷积核参数k 、偏置参数b) 的偏导数.由于下采样层的灵敏度尺寸小于卷积层的灵敏度尺寸, 因此需要将下采样层l + 1 的灵敏度上采样到卷积层l 的灵敏度大小, 然后将第l 层净激活的激活函数偏导与从第l + 1 层的上采样得到的灵敏度逐项相乘. 分别由式(1) 和(2), 通过链式求导可得第l 层中第j 个通道的灵敏

度[17]: 11[()()]j l

l l l j j j l j

E f u up u δβδ++?'==? 其中, ()up 表示一个上采样操作, 符号± 表示每个元素相乘. 若下采样因子为n, 则()up 将每个像素在水平和垂直方向上复制n 次, 于是就可以从l + 1层的灵敏度上采样成卷积层l 的灵敏度大小. 函数()up 可以用Kronecker 乘积()1n n up x x ?=?来实现。 %

然后, 使用灵敏度对卷积层l 中的参数计算偏导. 对于总误差E 对偏移量l

j b 的偏导, 可以对卷积层l 的灵敏度中所有节点进行求和来计算:

,,()j l u v l u v

j E b δ?=?∑ 对于总误差关于卷积核参数的偏导, 由式(1),使用链式求导时需要用所有与该卷积核相乘的特征图元素来求偏导:

1,,,()()j j l

l

u v u v l u v

ij E p k δ-?=?∑ 其中, 1,()j l u v p -是在计算l j x 时, 与l ij k 逐元素相乘的1

l j x -元素. 下采样层

为计算下采样层l 的灵敏度, 需要用下一层卷积层l + 1 的灵敏度表示下采样层l 的灵敏度, 然后计算总误差E 对下采样参数权重系数β、偏置参数b 的偏导数.

为计算我们需要下采样层l 的灵敏度, 我们必须找到当前层的灵敏度与下一层的灵敏度的对应点,这样才能对灵敏度δ进行递推. 另外, 需要乘以输入特征图与输出特征图之间的连接权值, 这个权值实际上就是卷积核的参数. 分别由式(1) 和(2), 通过链式求导可

得第l 层第j 个通道的灵敏度[17]:

11()2(,180(),)j j l l

l l

j j f u conv rot k full δδ++'''=

其中, 对卷积核旋转180 度使用卷积函数计算互相关(在Matlab 中, 可用conv2 函数实现), 对卷积边界进行补零处理.

然后, 总误差对偏移量b 的偏导与前面卷积层的一样, 只要对灵敏度中所有元素的灵敏度求和即可:

,,()j l u v l u v

j E b δ?=?∑ 对于下采样权重β, 我们先定义下采样算子1()j l

l j d down x -=, 然后可通过下面的公

式计算总误差E 对β的偏导:

,,()j j l l u v l u v

j E d δβ?=?∑ 这里我们假定下采样层的下一层为卷积层, 如果下一层为全连接层, 也可以做类似的推导.

全连接层l 的灵敏度可通过下式计算:

#

11()()l l T l l w f u δδ++'=

输出层的神经元灵敏度可由下面的公式计算:

()()L n n L y t f u δ'=-

总误差对偏移项的偏导如下:

l

l l l l E E u b u b

δ???==??? 接下来可以对每个神经元运用灵敏度进行权值更新. 对一个给定的全连接层l, 权值更新方向可用该层的输入1l x - 和灵敏度l

δ 的内积来表示: 1()l l T l E x w

δ-?=? 网络参数更新过程

卷积层参数可用下式更新:

l ij l ij

E k k η??=-? l l

E b b η

??=-? 下采样层参数可用下式更新:

l l E βηβ

??=-? l l E b b

η

??=-? 全连接层参数可用下式更新: l l E w w η

??=-? 【

其中, 对于每个网络参数都有一个特定的学习率η.若学习率太小, 则训练的速度慢; 若学习率太大, 则可导致系统发散. 在实际问题中, 如果总误差在学习过程中发散, 那么将学习率调小; 反之, 如果学习速度过慢, 那么将学习率调大.

常用的其他网络结构和方法

卷积层

传统卷积神经网络的卷积层采用线性滤波器与非线性激活函数, 一种改进的方法在卷积层使用多层感知机模型作为微型神经网络, 通过在输入图像中滑动微型神经网络来得到

特征图, 该方法能够增加神经网络的表示能力, 被称为Network in net-work [19]. 为了解决

既能够保证网络的稀疏性, 又能够利用稠密矩阵的高性能计算, Szegedy 等[11] 提出

Inception 网络. Inception 网络的一层含有一个池化操作和三类卷积操作: 1 *1、3 *3、5 * 5 卷积。

池化

池化(Pooling) 是卷积神经网络中一个重要的操作, 它能够使特征减少, 同时保持特征的局

部不变性. 常用的池化操作有: 空间金字塔池化(Spatial pyramid pooling, SPP)[10]、最

大池化(Max pooling)、平均池化(Mean pooling)、随机池化(Stochastic pooling)[20] 等.

激活函数

~

常用激活函数有: ReLU [8]、Leakly ReLU [21]

、Parametric ReLU 、Randomized ReLU 、ELU 等.

损失函数

损失函数的选择在卷积神经网络中起重要作用, 代表性的损失函数有: 平方误差损失、互熵损失(Cross entropy loss)、Hinge 损失等.

优化方法和技巧

卷积神经网络常用的优化方法包含随机梯度下降方法(Stochastic gradient descent, SGD), 常用的技巧有权值初始化[8]、权值衰减(Weight decay)[18]、Batch

normalization[22] 等.

卷积神经网络的优势

卷积神经网络在下采样层可以保持一定局部平移不变形, 在卷积层通过感受野和权值共享减少了神经网络需要训练的参数的个数. 每个神经元只需要感受局部的图像区域, 在更高层将这些感受不同局部区域的神经元综合起来就可以得到全局的信息.因此, 可以减少网络连接的数目, 即减少神经网络需积神经网络以其权值共享的特殊结构在图像理解领域

中有着独特的优越性, 通过权值共享降低了网络的复杂性.

总之, 卷积神经网络相比于一般神经网络在图像理解中有其特殊的优点: 1) 网络结构能较好适应图像的结构; 2) 同时进行特征提取和分类, 使得特征提取有助于特征分类; 3) 权值共享可以减少网络的训练参数, 使得神经网络结构变得更简单、适应性更强.要训练的权值参数的个数. 由于同一特征通道上的神经元权值相同, 所以网络可以并行学习, 这也是卷

积网络相对于神经元彼此相连网络的一大优势.

神经网络最新发展综述

神经网络最新发展综述 学校:上海海事大学 专业:物流工程 姓名:周巧珍 学号:201530210155

神经网络最新发展综述 摘要:作为联接主义智能实现的典范,神经网络采用广泛互联的结构与有效的学习机制来模拟人脑信息处理的过程,是人工智能发展中的重要方法,也是当前类脑智能研究中的有效工具。目前,模拟人脑复杂的层次化认知特点的深度学习成为类脑智能中的一个重要研究方向。通过增加网络层数所构造的“深层神经网络”使机器能够获得“抽象概念”能力,在诸多领域都取得了巨大的成功,又掀起了神经网络研究的一个新高潮。本文分8个方面综述了其当前研究进展以及存在的问题,展望了未来神经网络的发展方向。 关键词: 类脑智能;神经网络;深度学习;大数据 Abstract: As a typical realization of connectionism intelligence, neural network, which tries to mimic the information processing patterns in the human brain by adopting broadly interconnected structures and effective learning mechanisms, is an important branch of artificial intelligence and also a useful tool in the research on brain-like intelligence at present. Currently, as a way to imitate the complex hierarchical cognition characteristic of human brain, deep learning brings an important trend for brain-like intelligence. With the increasing number of layers, deep neural network entitles machines the capability to capture “abstract concepts” and it has achieved great success in various fields, leading a new and advanced trend in neural network research. This paper summarizes the latest progress in eight applications and existing problems considering neural network and points out its possible future directions. Key words : artificial intelligence; neural network; deep learning; big data 1 引言 实现人工智能是人类长期以来一直追求的梦想。虽然计算机技术在过去几十年里取得了长足的发展,但是实现真正意义上的机器智能至今仍然困难重重。伴随着神经解剖学的发展,观测大脑微观结构的技术手段日益丰富,人类对大脑组织的形态、结构与活动的认识越来越深入,人脑信息处理的奥秘也正在被逐步揭示。如何借助神经科学、脑科学与认知科学的研究成果,研究大脑信息表征、转换机理和学习规则,建立模拟大脑信息处理过程的智能计算模型,最终使机器掌握人类的认知规律,是“类脑智能”的研究目标。 类脑智能是涉及计算科学、认知科学、神经科学与脑科学的交叉前沿方向。类脑智能的

卷积神经网络 论文版

卷积神经网络 摘要:卷积神经网络是近年来广泛应用于模式识别、图像处理等领域的一种高效识别算法,它具有结构简单、训练参数少和适应性强等特点。本文从卷积神经网络的发展历史开始,详细阐述了卷积神经网络的网络结构、神经元模型和训练算法。在此基础上以卷积神经网络在人脸检测和形状识别方面的应用为例,简单介绍了卷积神经网络在工程上的应用,并给出了设计思路和网络结构。 关键字:模型;结构;训练算法;人脸检测;形状识别 Convolution Neural Network Abstract:Convolution neural network is an efficient recognition algorithm which is widely used in pattern recognition, image processing and other fields recent years.It has a simple structure, few training parameters and good adaptability and other advantages. In this paper, begin with the history of convolutional neural networks,describes the structure of convolutional neural network,neuron models and training algorithms in detail. On this basis,uses the applications of convolutional neural network in face detection and shape recognition as examples, introduces the applications of convolution neural network in engineering, and gives design ideas and network structure. Keywords:Model; Training Algorithm; Advantage; Face detection; Shape recognition 0 引言 卷积神经网络是人工神经网络的一种已成为当前语音分析和图像识别领域的研究热点,它的权值共享网络结构使之更类似于生物神经网络,降低了网络模型的复杂度,减少了权值的数量。该优点在网络的输入是多维图像时表现的更为明显,使图像可以直接作为网络的输入,避免了传统识别算法中复杂的特征提取和数据重建过程。卷积网络是为识别二维形状而特殊设计的一个多层感知器,这种网络结构对平移、比例缩放、倾斜或者共他形式的变形具有高度不变性。 1 卷积神经网络的发展历史 1962年Hubel和Wiesel通过对猫视觉皮层细胞的研究,提出了感受野(receptive field)的概念,1984年日本学者Fukushima基于感受野概念提出的神经认知机(neocognitron)可以看作是卷积神经网络的第一个实现网络,也是感受野概念在人工神经网络领域的首次应用。神经认知机将一个视觉模式分解成许多子模式(特征),然后进入分层递阶式相连的特征平面进行处理,它试图将视觉系统模型化,使其能够在即使物体有位移或轻微变形的时候,也能完成识别。神经认知机能够利用位移恒定能力从激励模式中学习,并且可识别这些模式的变化形,在其后的应用研究中,Fukushima将神经认知机主要用于手写数字的识别。随后,国内外的研究人员提出多种卷积神经网络形式,在邮政编码识别和人脸识别方面得到了大规模的应用。 通常神经认知机包含两类神经元,即承担特征抽取的S-元和抗变形的C-元。S-元中涉及两个重要参数,即感受野与阈值参数,前者确定输入连接的数目,后者则控制对特征子模式的反应程度。许多学者一直致力于提高神经认知机的性能的研究:在传统的神经认知机中,每个S-元的感光区中由C-元带来的视觉模糊量呈正态分布。如果感光区的边缘所产生的模糊效果要比中央来得大,S-元将会接受这种非正态模糊所导致的更大的变形容忍性。我们希望得到的是,训练模式与变形刺激模式在感受野的边缘与其中心所产生的效果之间的差异变得越来越大。为了有效地形成这种非正态模糊,Fukushima提出了带双C-元层的改进型神经

基于卷积神经网络的文本分类研究综述

第34卷第3期2019年5月 内蒙古民族大学学报(自然科学版) Journal of Inner Mongolia University for Nationalities Vol.34No.3 May2019 基于卷积神经网络的文本分类研究综述 裴志利1,阿茹娜2,姜明洋2,卢奕南3 (1.内蒙古民族大学计算机科学与技术学院,内蒙古通辽028043;2.内蒙古民族大学数学学院,内蒙古通辽028000;3.吉林大学计算机科学与技术学院,吉林长春130012) [摘要]随着互联网及其相关技术的高速发展,网络数据呈现出井喷式的增长,其中主要以文本的形式大量 存在,数据在这种增长趋势下,文本分类已经成为越来越重要的研究课题.如今,采用深度学习技术对文本进 行表示受到研究者的极大关注.如采用卷积神经网络对文档进行表示和分类等自然语言处理.本文主要对基 于卷积神经网络的文本分类方法进行了研究,介绍了几个具有代表性的卷积神经网络模型结构.最后提出了 对基于该方法文本分类的展望. [关键词]卷积神经网络;文本分类;深度学习 [中图分类号]TP393[文献标识码]A[文章编号]1671-0815(2019)03-0206-05 Survey of Text Classification Research Based on Convolutional Neural Networks PEI Zhi-li1,Aruna2,JIANG Ming-yang2,LU Yi-nan3 (1.College of Computer Science and Technology,Inner Mongolia University for Nationalities,Tongliao028043,China; 2.College of Mathematics,Inner Mongolia University for Nationalities,Tongliao028000,China; 3.College of Computer Science and Technology,Jilin University,Changchun130012,China) Abstract:With the rapid development of the Internet and related technologies,network data has shown a spurt growth trend,which mainly exists in the form of text.Under this growth trend,text classification has become an increasingly important research topic.The use of deep learning technology to express the text has received great attention.For example, natural language processing such as convolutional neural network is used to represent and classify documents.The text classification method based on convolutional neural network is investigated.Several representative convolutional neural network model structures are introduced.Finally,the prospect of text classification based on this method is proposed. Key wrrds:Convolutional neural network;Text classification;Deep learning 0引言 随着网络媒体的出现,用户生成的内容以飞快的速度填充数据资源,这些数据的自动处理引起了研究者的巨大关注.文本分类是自然语言处理领域的重要任务,包括情感分析、对话分析、文献综述、机器翻译等[1].文本分类具有多种方法,传统的机器学习分类算法有支持向量机算法(Support Vector Machine,SVM)[2]、朴素贝叶斯算法(Naive Bayesian Classifier,NBC)[3]、决策树算法(Decision Tree,DT)[4]、K-最近邻算法(K-Nearest Neighbor,KNN)[5]等,采用传统算法文本分类时需要人工进行特征提取,耗费时间和精 基金项目:国家自然科学基金项目(61672301);内蒙古自治区“草原英才”工程产业创新人才团队(2017);内蒙古自治区科技创新引导奖励资金项目(2016);内蒙古民族大学特色交叉学科群建设项目(MDXK004);2019年度内蒙古自治区高等学校“青年科技英才支持计划”(NJYT-19-B18) 作者简介:裴志利,内蒙古民族大学计算机科学与技术学院教授,博士. DOI:10.14045/https://www.360docs.net/doc/4e12127857.html,ki.15-1220.2019.03.005

趋势分析之卷积神经网络

趋势分析之卷积神经网络 卷积神经网络(Convolutional Neural Networks, CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deep learning)的代表算法之一。由于卷积神经网络能够进行平移不变分类(shift-invariant classification),因此也被称为“平移不变人工神经网络(Shift-Invariant Artificial Neural Networks, SIANN)”。 对卷积神经网络的研究始于二十世纪80至90年代,时间延迟网络和LeNet-5是最早出现的卷积神经网络;在二十一世纪后,随着深度学习理论的提出和数值计算设备的改进,卷积神经网络得到了快速发展,并被大量应用于计算机视觉、自然语言处理等领域。 第一个卷积神经网络是1987年由Alexander Waibel等提出的时间延迟网络(Time Delay Neural Network, TDNN)。TDNN是一个应用于语音识别问题的卷积神经网络,使用FFT预处理的语音信号作为输入,其隐含层由2个一维卷积核组成,以提取频率域上的平移不变特征。 卷积神经网络热度变化图 下面我们将用Trend analysis分析卷积神经网络领域内的研究热点。(点击链接即可进入Convolutional Neural Networks Trend Analysis: https://https://www.360docs.net/doc/4e12127857.html,/topic/trend?query=Convolutional%20Neural%20Networks)

综述卷积神经网络:从基础技术到

1 引言 1.1 动机 过去几年来,计算机视觉研究主要集中在卷积神经网络(常简称为ConvNet 或CNN)上。这些工作已经在广泛的分类和回归任务上实现了新的当前最佳表现。相对而言,尽管这些方法的历史可以追溯到多年前,但对这些系统得到出色结果的方式的理论理解还很滞后。事实上,当前计算机视觉领域的很多成果都是将CNN 当作黑箱使用,这种做法是有效的,但其有效的原因却非常模糊不清,这严重满足不了科学研究的要求。尤其是这两个可以互补的问题:(1)在被学习的方面(比如卷积核),究竟被学习的是什么?(2)在架构设计方面(比如层的数量、核的数量、池化策略、非线性的选择),为什么某些选择优于另一些选择?这些问题的答案不仅有利于提升我们对 CNN 的科学理解,而且还能提升它们的实用性。 此外,目前实现CNN 的方法需要大量训练数据,而且设计决策对结果表现有很大的影响。更深度的理论理解应该能减轻对数据驱动的设计的依赖。尽管已有实证研究调查了所实现的网络的运行方式,但到目前为止,这些结果很大程度上还局限在内部处理过程的可视化上,目的是为了理解 CNN 中不同层中发生的情况。 1.2 目标 针对上述情况,本报告将概述研究者提出的最突出的使用多层卷积架构的方法。要重点指出的是,本报告将通过概述不同的方法来讨论典型卷积网络的各种组件,并将介绍它们的设计决策所基于的生物学发现和/或合理的理论基础。此外,本报告还将概述通过可视化和实证研究来理解 CNN 的不同尝试。本报告的最终目标是阐释 CNN 架构中涉及的每一个处理层的作用,汇集我们当前对CNN 的理解以及说明仍待解决的问题。

1.3 报告提纲 本报告的结构如下:本章给出了回顾我们对卷积网络的理解的动机。第2 章将描述各种多层网络并给出计算机视觉应用中使用的最成功的架构。第3 章将更具体地关注典型卷积网络的每种构造模块,并将从生物学和理论两个角度讨论不同组件的设计。最后,第4 章将会讨论CNN 设计的当前趋势以及理解CNN 的工作,并且还将重点说明仍然存在的一些关键短板。 2 多层网络 总的来说,本章将简要概述计算机视觉领域中所用的最突出的多层架构。需要指出,尽管本章涵盖了文献中最重要的贡献,但却不会对这些架构进行全面概述,因为其它地方已经存在这样的概述了(比如 [17, 56, 90])。相反,本章的目的是为本报告的剩余部分设定讨论基础,以便我们详细展示和讨论当前对用于视觉信息处理的卷积网络的理解。 2.1 多层架构 在近来基于深度学习的网络取得成功之前,最先进的用于识别的计算机视觉系统依赖于两个分离但又互补步骤。第一步是通过一组人工设计的操作(比如与基本集的卷积、局部或全局编码方法)将输入数据变换成合适的形式。对输入的变换通常需要找到输入数据的一种紧凑和/或抽象的表征,同时还要根据当前任务注入一些不变量。这种变换的目标是以一种更容易被分类器分离的方式改变数据。其次,被变换的数据通常用于训练某些类型的分类器(比如支持向量机)来识别输入信号的内容。通常而言,任何分类器的表现都会受到所使用的变换方法的严重影响。 多层学习架构为这一问题带来了不同的前景,这种架构提出不仅要学习分类器,而且要从数据中直接学习所需的变换操作。这种形式的学习通常被称为「表征学习」,当应用在深度多层架构中时即被称为「深度学习」。

深度神经网络全面概述

深度神经网络全面概述从基本概念到实际模型和硬件基础 深度神经网络(DNN)所代表的人工智能技术被认为是这一次技术变革的基石(之一)。近日,由IEEE Fellow Joel Emer 领导的一个团队发布了一篇题为《深度神经网络的有效处理:教程和调研(Efficient Processing of Deep Neural Networks: A Tutorial and Survey)》的综述论文,从算法、模型、硬件和架构等多个角度对深度神经网络进行了较为全面的梳理和总结。鉴于该论文的篇幅较长,机器之心在此文中提炼了原论文的主干和部分重要内容。 目前,包括计算机视觉、语音识别和机器人在内的诸多人工智能应用已广泛使用了深度神经网络(deep neural networks,DNN)。DNN 在很多人工智能任务之中表现出了当前最佳的准确度,但同时也存在着计算复杂度高的问题。因此,那些能帮助DNN 高效处理并提升效率和吞吐量,同时又无损于表现准确度或不会增加硬件成本的技术是在人工智能系统之中广泛部署DNN 的关键。 论文地址:https://https://www.360docs.net/doc/4e12127857.html,/pdf/1703.09039.pdf 本文旨在提供一个关于实现DNN 的有效处理(efficient processing)的目标的最新进展的全面性教程和调查。特别地,本 文还给出了一个DNN 综述——讨论了支持DNN 的多种平台和架构,并强调了最新的有效处理的技术的关键趋势,这些技术或者只是通过改善硬件设计或者同时改善硬件设计和网络算法以降低DNN 计算成本。本文也会对帮助研究者和从业者快速上手DNN 设计的开发资源做一个总结,并凸显重要的基准指标和设计考量以评估数量快速增长的DNN 硬件设计,还包括学界和产业界共同推荐的算法联合设计。 读者将从本文中了解到以下概念:理解DNN 的关键设计考量;通过基准和对比指标评估不同的DNN 硬件实现;理解不同架构和平台之间的权衡;评估不同DNN 有效处理技术的设计有效性;理解最新的实现趋势和机遇。 一、导语 深度神经网络(DNN)目前是许多人工智能应用的基础[1]。由于DNN 在语音识别[2] 和图像识别[3] 上的突破性应用,使用DNN 的应用量有了爆炸性的增长。这些DNN 被部署到了从自动驾驶汽车[4]、癌症检测[5] 到复杂游戏[6] 等各种应用中。在这许多领域中,DNN 能够超越人类的准确率。而DNN 的出众表现源于它能使用统计学习方法从原始感官数据中提取高层特征,在大量的数据中获得输入空间的有效表征。这与之前使用手动提取特征或专家设计规则的方法不同。 然而DNN 获得出众准确率的代价是高计算复杂性成本。虽然通用计算引擎(尤其是GPU),已经成为许多DNN 处理的砥柱,但提供对DNN 计算更专门化的加速方法也越来越热门。本文的目标是提供对DNN、理解DNN 行为的各种工具、有效加速计算的各项技术的概述。 该论文的结构如下:

相关文档
最新文档