人工神经网络第一次作业
扫描二维码
随时随地手机看文章
01 学习算法
一、题目内容
1、背景介绍
在第一章介绍了日本学者 “甘利俊一” 提出的统一公式,把对神经元输入连接权系数的修正 分成了三个独立成分的乘积:学习速率 , 学习信号 以及输入向量 。
▲ 图1.1 神经网络中神经元学习的统一公式当学习信号 取不同形式,可以得到神经元的三大类不同修正方式(无监督、有监督、死记忆)。下面给出神经元模型和训练样本数据,请通过编程实现上述表格中的五种算法并给出计算结果。通过这个作业练习,帮助大家熟悉神经元的各种学习算法。
2、神经元模型
下面给出神经元模型,根据不同的算法要求:
- 选择相应的传递函数种类(离散二值函数、连续 Sigmoid 函数):除了Perceptron算法选择二值函数外,其它都选择Sigmoid函数,
- 神经元权系数( )都初始化成 0。
3、样本数据
训练样本包括 6 个数据,它们的分布如下图所示:
▲ 图1.1.3 神经元训练数据【表1-2 样本数据】
序列 | X1 | X2 | 类别 |
---|---|---|---|
1 | -0.1 | 0.3 | 1 |
2 | 0.5 | 0.7 | -1 |
3 | -0.5 | 0.2 | 1 |
4 | -0.7 | 0.3 | 1 |
5 | 0.7 | 0.1 | -1 |
6 | 0.0 | 0.5 | 1 |
import sys,os,math,time import matplotlib.pyplot as plt from numpy import * xdim = [(-0.1,0.3), (0.5,0.7), (-0.5,0.2),(-0.7,0.3),(0.7,0.1),(0,0.5)] ldim = [1,-1,1,1,-1,1] print("序列", "X1", "X2", "类别") count = 0 for x,l in zip(xdim, ldim): count += 1 print("%d %3.1f %3.1f %d"%(count, x[0], x[1], l)) if l > 0: marker = 'o' color = 'blue' else: marker = '+' color = 'red' plt.scatter(x[0], x[1], marker=marker, c=color) plt.text(x[0]+0.05,x[1],'(%3.1f,%3.1f)'%(x[0],x[1])) plt.axis([-0.8, 0.8,-0.1, 1]) plt.xlabel("X1") plt.ylabel("X2") plt.grid(True) plt.tight_layout() plt.show()
二、作业要求
1、必做内容
1. 给出每个学习算法核心代码;
2. 给出经过一轮样本学习之后神经元的权系数数值结果(w1,w2,b);* 权系数初始化为 0;* 学习速率 ; * 训练样本按照 表格1-2 的顺序对神经元进行训练;
2、选做内容
1. 在坐标系中绘制出经过一轮训练之后,权系数(w1,w2)所在的空间位置;
2. 简单讨论一下不同算法对于神经元权系数的影响;
import sys,os,math,time import matplotlib.pyplot as plt from numpy import * xdim = [(-0.1,0.3), (0.5,0.7), (-0.5,0.2),(-0.7,0.3),(0.7,0.1),(0,0.5)] ddim = [1,-1,1,1,-1,1] def sigmoid(x): return 1/(1+exp(-x)) def hebbian(w,x,d): x1 = [1,x[0],x[1]] net = sum([ww*xx for ww,xx in zip(w, x1)]) o = sigmoid(net) w1 = [ww+o*xx for ww,xx in zip(w,x1)] return w1 def perceptron(w,x,d): x1 = [1,x[0],x[1]] net = sum([ww*xx for ww,xx in zip(w, x1)]) o = 1 if net >= 0 else -1 w1 = [ww+(d-o)*xx for ww,xx in zip(w,x1)] return w1 def delta(w,x,d): x1 = [1,x[0],x[1]] net = sum([ww*xx for ww,xx in zip(w, x1)]) o = sigmoid(net) o1 = o*(1-o) w1 = [ww+(d-o)*o1*xx for ww,xx in zip(w,x1)] return w1 def widrawhoff(w,x,d): x1 = [1,x[0],x[1]] net = sum([ww*xx for ww,xx in zip(w, x1)]) o = sigmoid(net) w1 = [ww+(d-o)*xx for ww,xx in zip(w,x1)] return w1 def correlation(w,x,d): x1 = [1,x[0],x[1]] w1 = [ww+d*xx for ww,xx in zip(w,x1)] return w1 wb = [0,0,0] # [b, w1, w2] for x,d in zip(xdim, ddim): wb = correlation(wb,x,d) print(wb)
02 感知机
一、感知机算法求解分类问题
1、样本数据
利用单个神经元求解下面分类问题。数据具有两种表示形式:一种是二进制(0,1)表示形式,另一种是双极性(-1,1)表示形式。
▲ 图2.1.1 分类数据及其在三维坐标中的位置2、作业要求
- 绘制出网络结构图,并给出算法核心代码;
- 对比不同学习速率对于训练收敛的影响;
- 对比不同数据表达式方式(二进制、双极性)对于收敛的影响。
二、感知机识别字母
1、样本数据
如下是三个字母 C,H,L 的 5×5 的点阵图。
▲ 图2.2.1 C,H,L字母的点阵图给它们添加噪声,形成带有噪声的样本,噪声样本与正确样本之间的海明距离(Hamming Distance)为1,即两个二值向量之间不相同元素的个数为1,下面是三个字母的噪声样本的示例:
▲ 图2.2.2 与三个字母Hamming距离为1的噪声样本带有噪声的样本可以在原有正确样本的基础上,随机选择一个元素,将其从原来的0或者1,改变成1,或者0。因此字母C,H,L各自有25个与其Hamming距离为1的带有噪声的样本。
按照这种方式还可以构造出带有两个噪声点的数据集合,也就是随机在字符点阵图上选择两个点,将其数据进行修改,带有两个噪声的样本有 个。
2、作业基本要求
- 建立由三个神经元组成的简单感知机网络,完成上述三个字母的识别训练;
- 测试训练之后的网络在带有一个噪声点的数据集合上的识别效果;
3、选做内容
- 测试上述感知机网络在两个噪声点的数据集合上的识别效果;
- 对比以下两种情况训练的感知机的性能。
- 第一种情况:只使用没有噪声的三个字母进行训练;
- 第二种情况:使用没有噪声和有一个噪声点的样本进行训练;
- 对比不同的学习速率对于训练过程的影响。
对比上面两种训练情况在两个噪声点数据集合上的识别效果。
03 Adaline网络
□ 这是选择题目。
一、题目内容
1、背景介绍
自适应线性神经元 ADALINE(Adatpive Linear Neuron)是由 Bernard Widrow 与 Ted Hoff 在 1959年提出的算法。关于他们提出算法前后的故事,大家可以参照网文:The ADALINE - Theory and Implementation of the First Neural Network Trained With Gradient Descent[2] 进行了解。
下面也是根据上述网文中所介绍的两种鸟类(猫头鹰与信天翁)数据集合,产生相应的分类数据集合。大家使用 ADALINE 算法完成它们的分类器算法。
▲ 图3.1.1 猫头鹰与信天翁2、样本数据
(1)数据参数
根据Wikipedia 中关于 信天翁 Wandering albatross[3] 和 猫头鹰( Great horned owl[4] )的相关数据,这两种鸟类的题中和翼展长度如下表所示。
【表1-3 两种鸟类的体型数据】
种类 | 体重(kg) | 翼展(m) |
---|---|---|
信天翁 | 9 | 3 |
猫头鹰 | 1.2 | 1.2 |
使用计算机产生两个鸟类体型随机数据数据,下表给出了每一类数据产生的参数:
【表1-4 两类鸟类数据产生参数】
鸟类 | 体重平均值 | 体重方差 | 翼展平均值 | 翼展方差 | 个数 | 分类 |
---|---|---|---|---|---|---|
信天翁 | 9000 | 800 | 300 | 20 | 100 | 1 |
猫头鹰 | 1000 | 200 | 100 | 15 | 100 | -1 |
(2)Python示例代码
下面给出了产生随机样本数据的 Python 示例代码。大家可以参照这些代码,使用自己熟悉的 编程语言来实现。
def species_generator(mu1, sigma1, mu2, sigma2, n_samples, target, seed): '''creates [n_samples, 2] array Parameters ---------- mu1, sigma1: int, shape = [n_samples, 2] mean feature-1, standar-dev feature-1 mu2, sigma2: int, shape = [n_samples, 2] mean feature-2, standar-dev feature-2 n_samples: int, shape= [n_samples, 1] number of sample cases target: int, shape = [1] target value seed: int random seed for reproducibility Return ------ X: ndim-array, shape = [n_samples, 2] matrix of feature vectors y: 1d-vector, shape = [n_samples, 1] target vector ------ X''' rand = np.random.RandomState(seed) f1 = rand.normal(mu1, sigma1, n_samples) f2 = rand.normal(mu2, sigma2, n_samples) X = np.array([f1, f2]) X = X.transpose() y = np.full((n_samples), target) return X, y▲ 图3.1.2 产生两类数据的分布
二、作业要求
1. 构造一个 ADALINE 神经元,完成上述两类鸟类的分类。由于需要进行分类,在对 ADALINE 的输出在经过一个符号函数(sgn)便可以完成结果的分类;
2. 利用上述数据对 ADALINE 进行训练。观察记录训练误差变化的曲线。
3. 讨论不同的学习速率对于训练结果的影响,看是否存在一个数值,当学习速率超过这个数值之后,神经元训练过程不再收敛。