当前位置:首页 > 芯闻号 > 充电吧
[导读]LeNet5的第一层卷积运算,输入图像大小为inH * inW,卷积核c1CNum个,输出feature map大小为c1H * c1W, 偏置个数、feature map个数与卷积核个数相等。输入图

LeNet5的第一层卷积运算,输入图像大小为inH * inW,卷积核c1CNum个,输出feature map大小为c1H * c1W, 偏置个数、feature map个数与卷积核个数相等。输入图像inmap:inH * inW,卷积核:c1conv: c1CNum * 5 * 5, 输出图像:c1map: c1CNum * c1H * c1W, 偏置c1bias:c1CNum


functioin ForwardC1:
    for ith convolution kernel:
        for hth row in feature map i:
            for coth col in feature map i row h:
                令curc1为c1map + i * c1H * c1W + h * c1W + co
                 令指针curc1指向位置的值为0
                 for cr in ranges 5:
                     for cc in ranges 5:
                         令curc1指向位置的值自加 (inmap[(h+cr)*inW + co +cc]乘以c1conv[i*5*5 + cr * 5 + cc])
                     endfor cc
                 endfor cr
                令curc1指向位置的值自加 (c1bias[i])
                将curc1指向的值输入到激活函数,输出赋给它自己
            endfor co
        endfor h
    endfor i
endfunction ForwardC1



S2层池化,输入图像c1map: c1CNum * c1H * c1W, 输出图像:s2map: s2Num * s2H * s2W,其中s2Num = c1CNum,池化权值: s2pooling: s2Num,偏置:s2bias: s2Num


function ForwardS2:
    for ith s2 feature map:
        for hth row in feature map i:
            for coth col in feature map i row h:
                令curs2为s2map + i * s2H * s2W + h * s2W + co
                令curs2指向的值 为以下四个值的均值乘以s2pooling[i] 加上s2bias[i]:
                    c1map[i, h * 2 * c1W, co * 2], c1map[i, h * 2 * c1W, co * 2+1], c1map[i, (h * 2 +1) * c1W, co * 2], c1map[i, (h * 2+1) * c1W, co * 2 + 1]
                将curs2指向的值输入到激活函数,输出赋给它自己
            endfo co
        endfor h
    endfor i
endfunction ForwardS2



C3层卷积:输入图像:s2map: s2Num * s2H * s2W,输出图像:c3map: c3CNum * c3H * c3W,卷积核:c3conv: c3CNum * 5*5,偏置:c3bias: c3CNum:


function ForwardC3:
    初始化一个数组s2MapSum: s2H * s2W,各元素为0
    for hth in ranges s2H:
        for coth in ranges s2W:
            for ith in ranges s2Num:
               令s2MapSum[h, co] 自加 s2map[i, h, co]
            endfor i
       endfor co
    endfor h
    for ith in ranges c3CNum:
        for hth in ranges c3H:
            for coth in ranges c3W:
                令curc3为c3map + i * c3H * c3W + h * c3W + co
                令curc3指向值为0
                for ch in ranges 5:
                    for cc in ranges 5:
                        curc3指向的值自加 (s2MapSum[h+ch, co + cc] 乘以 c3conv[ch, cc])
                    endfor cc
                endfor ch
                令curc3指向的值自加c3bias[i]然后输入激活函数,返回值赋给curc3指向的值
            endfor co
        endfor h
    endfor i
endfunction ForwardC3




S4池化层:输入图像:c3map: c3CNum * c3H * c3W,输出图像:s4map: s4Num * s4H * s4W,其中s4Num等于c3CNum,池化权值s4pooling: s4Num,偏置:s4bias: s4Num:


function ForwardS4:
    for ith in ranges s4Num:
        for hth in ranges s4H:
            for coth in ranges s4W:
                令s4map[i,h,co]的值为以下四个值的均值乘以权值s4pooling[i]加上偏置s4bias[i]:
                c3map[i, h*2, co*2], c3map[i, h*2, co*2 + 1], c3map[i, h*2+1, co*2], c3map[i, h*2+1, co*2+1]
                将s4map[i,h,co]的值输入到激活函数,将返回值赋给它自己
            endfor co
        endfor h
    endfor i
endfunction ForwardS4




C5卷积层:输入图像:s4map: s4Num * s4H * s4W, s4H = 5, s4W = 5,输出图像:c5map: c5CNum * c5H * c5W,  c5H = 1, c5W = 1,  卷积核:c5conv: c5CNum * 5 *5,偏置:c5bias: c5CNum:


function ForwardC5:
    初始化一个数组s4MapSum: s4H * s4W
    for h in ranges s4H:
        for co in ranges s4W:
            for i in ranges s4Num:
                s4MapSum[h,co] 自加 s4Num[i, h,co]
            endfor i
        endfor co
    endfor h
    for i in ranges c5CNum:
        for h in ranges c5H:
            for co in ranges c5W:
                令curc5为c5map + i * c5H * c5W + h * c5W + co
                令curc5指向的值为0
                for ch in ranges 5:
                    for cc in ranges 5:
                        curc5指向的值自加(s4MapSum[h + ch, co + cc] 乘以 c5conv[i, ch, cc])
                    endfor cc
                endfor ch
                curc5指向的值自加c5bias[i]然后输入到激活函数,返回值赋值给curc5指向的值
            endfor co
        endfor h
    endfor i
endfunction ForwardC5




全连接输出层:输入图像:c5map: c5CNum * c5H * c5W,输出图像:outmap: outNum, 全连接权值:outfullconn: c5CNum * outNum,偏置: outbias: outNum:


function ForwardOut:
    for i in ranges outNum:
        令curout为outmap + i
        令curout指向的值为0
        for ch in ranges c5CNum:
             curout指向的值自加(c5map[ch] 乘以outfullconn[ch, i])
        endfor ch
        令curout指向的值自加outbias[i]然后输入到激活函数,将返回值赋值给curout指向的值
    endfor i
endfunction ForwardOut



反向计算

输出反馈:


function BackwardOut:
    for i in ranges outNum:
		输出的第i个值的误差outdelt[i]等于第i个输出outmap[i]减去期望的第i个值label[i],然后乘以输出的激活函数的导数
		偏置的误差outbiasdelta[i]等于输出误差outdelt[i]
	endfor i
	
	for h in ranges c5CNum:
        for co in ranges outNum:
            fulldelta[h, co] 等于C5层第h个神经元的值乘以outdelt[co]
		endfor co
	endfor h
endfunction BackwardOut




C5层反馈:


function BackwardC5:
    for h in ranges c5CNum:
		令临时变量curerr为0
	    for co in ranges outNum:
		    每个输出神经元误差outdelt[co]乘以输出全连接权值fullconn[h,co],curerr自加此乘积
		endfor co
		神经元误差c5delta[h]为c5map[h]神经元激活函数导数乘以curerr
		偏置误差c5biasdelta[h]等于神经元误差c5delta[h]
		
		for ch in ranges s4H:
			for co in ranges s4W:
				第h个卷积核的第ch,co个算子误差为s4MapSum[ch, co]乘以C5层第h个神经元误差
			endfor co
		endfor ch
	endfor h
	
endfunction BackwardC5



S4层反馈:


function BackwardS4:
    初始化数组c5convSum :5*5
    for i in ranges c5CNum:
		for h in ranges c5H:
			for co in ranges c5W:
				c5convSum[h,co]自加第i个卷积核对应位置c5conv[i, h, co]乘以C5第h个神经元误差
			endfor co
		endfor h
	endfor i
	for i in ranges s4Num:
	    for h in ranges s4H:
			for co in ranges s4W:
				S4层神经元误差s4delta[i,h,co]等于其激活函数的导数乘以c5convSum[h,co]
			endfor co
		endfor h
		偏置误差为对应map的神经元误差均值
		池化权值误差等于(S4层神经元误差乘以C3层对应位置神经元均值)再求均值
	endfor i
endfunction BackwardS4



C3层反馈:


function BackwardC3:
	初始化数组s2MapSum:s2H * s2W
	for i in s2Num:
		for h in s2H:
			for co in s2W:
				s2MapSum[h,co]自加s2map[i,h,co]
			endfor co
		endfor h
	endfor i
	for i in ranges C3CNum:
		for h in ranges c3H:
			for co in ranges c3W:
				C3神经元误差c3delta[i,h,co]等于其激活函数导数乘以对应池化权值再乘以对应位置的S4神经元误差
			endfor co
		endfor h
		偏置误差为对应map的神经元误差均值
		
		for ch in ranges 5:
			for cc in ranges 5:
				令c3convdelta[i, ch, cc]为0
				for sh in c3H:
					for sc in c3W:
						c3convdelta[i, ch, cc]自加s2Map[ch + sh, cc + sc]乘以c3delta[i,sh, sc]
					endfor sc
				endfor sh
			endfor cc
		endfor ch
	endfor i
endfunction BackwardC3



S2层反馈:



function BackwardS2:
    初始化数组c3convSum: s2H * s2W
	for i in ranges c3CNum:
		for h in ranges c3H:
			for co in ranges c3W:
				for ch in ranges 5:
					for cc in ranges 5:
						c3convSum[h+ch, co+cc]自加c3conv[i,ch, cc]乘以C3第i个map中[h,co]处神经元的误差
					endfor cc
				endfor ch
			endfor co
		endfor h
	endfor i
	
	for i in ranges s2Num:
		for h in ranges s2H:
			for co in ranges s2W:
				对应i个map的[h,co]处神经元激活函数导数乘以c3convSum[h,co]得到对应位置S2的神经元误差
			endfor co
		endfor h
		令偏置误差为对应map的神经元误差均值
		池化权值误差为对应map i中,
		for h in ranges s2H:
			for co in ranges s2W:
				池化权值误差s2poolingdelta[i]自加S2神经元误差s2delta[i,h,co]乘以以下四个元素的均值:
					c1map[h*2, co*2], c1map[h*2, co*2+1], c1map[h*2+1, co*2], c1map[h*2+1, co*2+1]
			endfor co
		endfor h
	endfor i
endfunction BackwardS2



C1层反馈:



function BackwardC1:
	for i in ranges c1CNum:
		for h in ranges c1H:
			for co in ranges c1W:
				C1神经元误差为其激活函数导数乘以对应池化权值乘以对应S2神经元误差
			endfor co
		endfor h
		
		偏置为对应map神经元误差的均值
		for ch in ranges 5:
			for cc in ranges 5:
				for h in ranges c1H:
					for co in ranges c1W:
					    对应卷积核的误差c1convdelta[i, ch, cc]自加inmap[h+ch, co+cc]乘以c1delta[i, h, co]
					endfor co
				endfor h
			endfor cc
		endfor ch
				
	endfor i
endfunction BackwardC1




这里有几步是我没有理解LeNet5架构导致的错误,在研究了博客后,通过调试代码,才逐步了解。







本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

9月2日消息,不造车的华为或将催生出更大的独角兽公司,随着阿维塔和赛力斯的入局,华为引望愈发显得引人瞩目。

关键字: 阿维塔 塞力斯 华为

加利福尼亚州圣克拉拉县2024年8月30日 /美通社/ -- 数字化转型技术解决方案公司Trianz今天宣布,该公司与Amazon Web Services (AWS)签订了...

关键字: AWS AN BSP 数字化

伦敦2024年8月29日 /美通社/ -- 英国汽车技术公司SODA.Auto推出其旗舰产品SODA V,这是全球首款涵盖汽车工程师从创意到认证的所有需求的工具,可用于创建软件定义汽车。 SODA V工具的开发耗时1.5...

关键字: 汽车 人工智能 智能驱动 BSP

北京2024年8月28日 /美通社/ -- 越来越多用户希望企业业务能7×24不间断运行,同时企业却面临越来越多业务中断的风险,如企业系统复杂性的增加,频繁的功能更新和发布等。如何确保业务连续性,提升韧性,成...

关键字: 亚马逊 解密 控制平面 BSP

8月30日消息,据媒体报道,腾讯和网易近期正在缩减他们对日本游戏市场的投资。

关键字: 腾讯 编码器 CPU

8月28日消息,今天上午,2024中国国际大数据产业博览会开幕式在贵阳举行,华为董事、质量流程IT总裁陶景文发表了演讲。

关键字: 华为 12nm EDA 半导体

8月28日消息,在2024中国国际大数据产业博览会上,华为常务董事、华为云CEO张平安发表演讲称,数字世界的话语权最终是由生态的繁荣决定的。

关键字: 华为 12nm 手机 卫星通信

要点: 有效应对环境变化,经营业绩稳中有升 落实提质增效举措,毛利润率延续升势 战略布局成效显著,战新业务引领增长 以科技创新为引领,提升企业核心竞争力 坚持高质量发展策略,塑强核心竞争优势...

关键字: 通信 BSP 电信运营商 数字经济

北京2024年8月27日 /美通社/ -- 8月21日,由中央广播电视总台与中国电影电视技术学会联合牵头组建的NVI技术创新联盟在BIRTV2024超高清全产业链发展研讨会上宣布正式成立。 活动现场 NVI技术创新联...

关键字: VI 传输协议 音频 BSP

北京2024年8月27日 /美通社/ -- 在8月23日举办的2024年长三角生态绿色一体化发展示范区联合招商会上,软通动力信息技术(集团)股份有限公司(以下简称"软通动力")与长三角投资(上海)有限...

关键字: BSP 信息技术
关闭
关闭