现在有个观点叫泛产品经理,这个观点本身是好的,核心说的是产品思维,但是在事情上我认为还是有一定误导性。产品经理在事情中要突出自己的核心代价与职业壁垒,如果无法构建良好的职业壁垒,就会面临中年危急带来的寻衅。
人工智能相对的技能内容是塑造职业壁垒的有力武器,并非哀求产品经理能够自己写代码开拓产品,而且在理解技能事理后,能够将业务快速高效的转化为可履行的产品问题,对付人工智能干系的产品更加主要。所有理解一定的技能事理,对产品经理而言是有益处的。本文讲述的图像处理的基本思路,希望大家能够对当前图像处理技能有一定理解。
卷积神经网络(Convolutional Neural Network, CNN)是一种前馈神经网络,是当今图像处理的主流技能。提及CNN卷积网络,不得不说2012 年Alex Krizhevsky 凭借它们赢得了那一年的 ImageNet 大赛(由斯坦福大学李飞飞发起的天下级人工智能大赛),AlexNet将图像分类偏差记录从 26% 降落到 15%,之后很多公司开始将深度学习作为的核心技能发展。Facebook、谷歌、亚马逊等有名公司都利用卷积网络进行图像识别,商品推送等事情。
CNN卷积神经网络是一个大家族,对图像而言紧张有以下4个关键技能运用。
CNN网络演习数据集是公开的,支持环球的开拓者进行下载演习模型数据集:
(1)MNIST:最受欢迎的深度学习数据集之一。手写数字数据集,包含一组60,000个示例的演习集和一个包含10,000个示例的测试集。http://deeplearning.net/tutorial/gettingstarted.html
(2)ImageNet:李飞飞创立的环球视觉识别寻衅赛数据集(ILSVRC)。http://image-net.org/index
(3)PASCAL:标准化的精良的数据集,数据集可以用于图像分类、目标检测、图像分割。http://host.robots.ox.ac.uk/pascal/VOC/
(4)MS-COCO:COCO是一个大型的、丰富的物体检测,分割和字幕数据集。http://cocodataset.org/
为什么要用CNN来处理图像呢?
缘故原由很大略,由于能在短韶光内提取图像特色。
一样平常来讲,普通神经网络将输入层和隐含层进行全连接(Full Connected),从而担保系统能够提取张图像的特色。从算力的角度来剖析,较小的图像从整幅图像中计算特色是可行的。比如提取一张28×28的小照片的特色,当前CPU还够用。
但是,如果提取大的图像(如 96×96 的图像),要利用这种普通神经网络全全连接方法来学习整幅图像上的特色,将变得非常耗时。须要设计个输入单元,如果要学习 100 个特色,那么就有个参数须要进走运算。
比较之下,96×96 的图像打算过程比28×28图像的处理过程慢100倍。大家都明白当前的相片动不动便是高清大图,普通神经网络按照全连接的办法无法估量何时才能处理完。
下面的内容是本节的重点部分,我们详细来讲述一下CNN网络的实现过程。
1. 图像的输入
我们首先要搞清楚一张照片是如何输入到神经网络中的。众所周知,打算机适宜处理的是矩阵运算,以是必须要把图片转换成矩阵后打算性能力认识。所有的彩色图像都由红绿蓝(RGB)叠加而成,成为图像的三个通道,一张图片在打算机中存储也是通过这三个矩阵完成的。
图4-23图的色彩通道
如图4-23所示,一张6464个像素大小的图片(例如白色可以表示成RGB(255,255,255),可以用3个6464大小的矩阵来代表这个图。上面指画三个5 4的矩阵来代表6464的全尺寸矩阵。RGB这三个矩阵称为为图像的3个通道,也作为神经网络的输入数据。
2. 卷积神经网络的组成
与其他神经网络相同,CNN网络同样也包含输入层、隐蔽层、输出层几大部分,卷积神经网络的紧张运算过程如图4-24所示。
图4-24卷积神经网络处理过程
卷积层(Convolutional layer):卷积层由多个卷积单元组成,每个卷积单元的参数都是通过反向传播算法优化得到的。卷积运算紧张为了提取图像的特色,随着卷积层的增加,多层网络可以提取更为繁芜的图像特色。
线性整流(Rectified Linear Units layer, ReLU layer):紧张指的是激活函数运算(Activation function)利用线性整流的ReLu函数(Rectified Linear Units, ReLU)。
池化层(Pooling layer):在卷积之后图像的维度特色依然很多,将特色矩阵分割成几个单个区块,取其最大值或均匀值,起到了降维的浸染。
全连接层(Fully-Connected layer):把所有局部特色以及各通道的特色矩阵结合变为向量代表,打算末了每一类的得分。
3. 打算过程
CNN网络的打算过程如图XXX,每个组成模块代表了不同的打算内容。
(1)数据规则化
彩色图像的输入常日先要分解为R(红)G(绿)B(蓝)三个通道,个中每个值介于0~255之间。
(2)卷积运算(Convolution)
前面讲到,由于普通的神经网络对付输入与隐层采取全连接的办法进行特色提取,在处理图像时,轻微大一些的图将会导致打算量巨大而变得十分缓慢。卷积运算正是为理解决这一问题,每个隐含单元只能连接输入单元的一部分,我们可以理解为是一种特色的提取方法。
首先我们来明确几个根本观点:深度(depth)、步长(stride)、补零(zero-padding)、卷积核(convolution kernel)。
深度(depth):深度指的是图的深度与它掌握输出单元的深度,也表示为连接同一块区域的神经元个数。
步幅(stride):用来描述卷积核移动的步长。
补零(zero-padding):通过对图片边缘补零来添补图片边缘,从而掌握输出单元的空间大小。
卷积核(convolution kernel):在输出图像中每一个像素是输入图像中一个小区域中像素的加权均匀的权值函数。卷积核可以有多个,卷积核参数可以通过偏差反向传播来进行演习。
如图4-25为步长=1的卷积打算过程,卷积核依次向右移动进行卷积运算得到相应结果。
图4-25 卷积运算过程
为图像打算可以对边缘进行补零,可见这个过程改变了图像的运算大小,如图4-26所示。
卷积运算的过程实在非常大略,过程如图4-27描述,可以概括为公式(4.3.6)。个中B代表卷积后的结果,K是卷积核,A为图像的输入矩阵。
图4-27 卷积运算过程
如图4-27所示,可见卷积核K为22的卷积核,详细运算过程如下。
全部图像卷积运算可以通过公式(4.3.6)进行。
(3)激活
CNN卷积神经网络在卷积后须要经由激活过程,当前常日利用的激活函数是Relu函数。Relu函数的紧张特点在之前的章节已经讲过。从函数的图像上来看,单侧抑制,相对宽阔的愉快边界,具有稀疏激活性的特点。
(4)池化(Pooling)
池化的目的是提取特色,减少向下一个阶段通报的数据量。池化操作相对付对每个深度切片是独立,池化规模一样平常为像素的 2*2,与卷积运算比较,池化层运算一样平常有以下几种:
最大池化(Max Pooling):取4个点数值的最大值。这是最常用的池化算法。均值池化(Mean Pooling):取4个点数值的均值。高斯池化(Gauss Pooling):按照高斯模糊的方法。如图4-28,描述了最大池化的打算方法。
图4-28 池化运算过程
(5)全连接(Fully-connected layer)
全连接层一样平常涌现末了几步,在卷积神经网络中起到“分类器”的浸染。如果说卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特色空间的话,全连接层则起到将学到的“分布式特色表示”映射到样本标记空间的浸染。全连接过程是对矩阵的展开过程,也可以理解为输出矩阵与一个11的卷积核进行卷积运算,末了展开为一个1n的向量。
在卷积神经网络中,全连接层一样平常利用Softmax函数来进行分类。Softmax函数适用于数据分类,用于担保每个分类概率总和为1。
卷积神经网络(CNN)的打算过程虽然讲解繁琐,但对付理解深刻理解神经网络算法非常有益。卷积神经网络经由近30年的发展拥有多条网络发展分支,并且持续高速发展之中。个中有网络层数加深的VGG16与VGG19等,有卷积模块增强的NIN网络等,从分类任务向目标检测任务过度的新型网络R-CNN等,图4-29展示了卷积神经网络的不同发展分支。
#专栏作家#
白白,大家都是产品经理专栏作家。"大众年夜众号:白白说话(xiaob-talk)。医药行业资深产品专家,卖力人工智能行业类产品综合架构与技能开拓。在行业云产品架构,药物设计AI赞助、医疗知识图谱等领域有深入研究。
本文原创发布于大家都是产品经理。未经容许,禁止转载。
题图来自Unsplash,基于 CC0 协议