类脑科学实验(三)——Hebb学习

版权声明:南木的博客 https://blog.csdn.net/Godsolve/article/details/90522000

实验背景

由赫布提出的Hebb学习规则是一个无监督学习规则,这种学习的结果是使网络能够提取训练集的统计特性,从而把输入信息按照它们的相似性程度划分为若干类。
这一点与人类观察和认识世界的过程非常吻合,人类观察和认识世界在相当程度上就是在根据事物的统计特征进行分类。
Hebb学习规则只根据神经元连接间的激活水平改变权值,因此这种方法又称为相关学习或并联学习。
巴普洛夫实验是一个典型的Hebb学习模型,其具体内容是每次给狗送食物以前响起铃声,这样经过一段时间以后,铃声一响,狗就开始分泌唾液。

实验目的

  • 加深对Hebb学习模型的理解,能够使用Hebb学习模型解决简单问题

实验内容

  • 根据Hebb学习模型的相关知识,使用Python语言实现一个简单Hebb学习模型。

实验原理

Hebb算法最简单可以描述为:
如果一个处理单元从另一处理单元接收输入激励信号,而且如果两者都处于高激励电平,那么处理单元之间的加权就应当增强。用数学来表示,就是两节点的连接权将根据两节点的激励电平的乘积来改变,

Δ ( W i j ) = W i j ( n + 1 ) W i j ( n )   \Delta(Wij) =Wij(n+1)-Wij(n)\,
= η y i x i   =\eta*yi*xi\,
其中 W i j ( n ) Wij(n) 表示第(n+1)次调解前,从节点 j 到节点i的连接权值; W i j ( n + 1 ) Wij(n+1) 是第(n+1)次调解后,从节点 j 到节点 i 的连接权值; η \eta 为学习速率参考; x j xj 为节点 j 的输出,并输入到节点 i ; y i yi 为节点i的输出。

对于Hebb学习规则,学习信号简单地等于神经元的输出
r = f ( W i T X ) r = f(Wi^TX)
权向量的增量变成
Δ W i = η f ( W i T X ) X ΔWi= ηf(Wi^TX)X
这个学习规则在学习之前要求在 Wi = 0附近的小随机值上对权重进行初始化。
这个规则说明了如果输出和输入的叉积是正的,则权增加,否则减小。

实验要求

  • 设计6*5数字点阵。有数字部分用1表示,空白部分用-1表示,将数字0-2的矩阵设计好存储到列表中。
  • 创建网络。
  • 数字识别测试。将训练数据加入噪声作为测试数据,输入到创建并训练好的网络中,网络的输出是与该数字点阵最为接近的目标向量。

实验步骤

  1. 定义权重
    在这里插入图片描述

  2. 定义训练方法
    在这里插入图片描述

  3. 绘制数字图像数组

  4. 定义随机加噪方法
    在这里插入图片描述
    对数组中的每一个数字,都有百分之二十的概率随机变为1或-1

  5. 定义绘图方法
    在这里插入图片描述

  6. 输出结果
    在这里插入图片描述
    在这里插入图片描述


微信公众号

同时也欢迎各位关注我的微信公众号 南木的下午茶

在这里插入图片描述


实验代码

import numpy as np
from neupy import algorithms
import random

class Hebb(object):
    def __init__(self):
         self.weights = np.zeros((30,30))
            
    def train(self, input_vector, iter_, rate):
        for i in range(iter_):
            for vec in input_vector:
                vec = np.matrix(vec)
		#这里可以使用广义hebb算法中的权重更新算法
                self.weights = self.weights + rate * vec.getT().dot(vec)
        return self.weights
    
    def predict(self, input_vector):
         return self.weights.dot(np.matrix(input_vector).getT())
        
zero = [
    -1, 1, 1, 1, -1,
    1, -1, -1, -1, 1,
    1, -1, -1, -1, 1,
    1, -1, -1, -1, 1,
    1, -1, -1, -1, 1,
    -1, 1, 1, 1, -1
    ]

one = [
    -1, 1, 1, -1, -1,
    -1, -1, 1, -1, -1,
    -1, -1, 1, -1, -1,
    -1, -1, 1, -1, -1,
    -1, -1, 1, -1, -1,
    -1, -1, 1, -1, -1
    ]

two = [
    1, -1, 1, -1, -1,
    -1, -1, -1, 1, -1,
    -1, -1, -1, 1, -1,
    -1, 1, 1, -1, -1,
    1, -1, -1, -1, -1,
    1, 1, 1, 1, 1,
    ]

def addnoise(Data):
    for x in range(0,30) :
        if random.randint(0, 10) > 8:
            Data[x] = -1
        if random.randint(0, 10) < 2:
            Data[x] = 1
    return Data

hebb  = Hebb()
w=hebb.train([zero, one, two], 600, 0.2)
#pre = hebb.predict(half_zero)
print(pre.reshape((6,5)))

def draw_bin_image(image_matrix):
    for row in image_matrix.tolist():
        print('| ' + ' '.join(' *'[int(val)] for val in row))

def acti_fun(x):
    for i in range(x.size):
        if x[i] > 0:
            x[i] =1
        else:
            x[i] =0
    return x

ran_zero = addnoise(zero)
print("对数字0进行随机添加噪声")
draw_bin_image(acti_fun(np.array(ran_zero)).reshape((6,5)))
print("\n")
#result = dhnet.predict(ran_zero)
print("对数字0进行计算绘制")
pre = hebb.predict(ran_zero)
draw_bin_image(acti_fun(pre).reshape((6,5)))
print("\n")

ran_one = addnoise(one)
print("对数字1进行随机添加噪声")
draw_bin_image(acti_fun(np.array(ran_one)).reshape((6,5)))
print("\n")
#result = dhnet.predict(ran_zero)
print("对数字1进行计算绘制")
pre = hebb.predict(ran_one)
draw_bin_image(acti_fun(pre).reshape((6,5)))
print("\n")

ran_two = addnoise(two)
print("对数字2进行随机添加噪声")
draw_bin_image(acti_fun(np.array(ran_two)).reshape((6,5)))
print("\n")
#result = dhnet.predict(ran_zero)
print("对数字2进行计算绘制")
pre = hebb.predict(ran_two)
draw_bin_image(acti_fun(pre).reshape((6,5)))
print("\n")

#draw_bin_image(acti_fun(np.array(half_zero)).reshape((6,5)))

#draw_bin_image(acti_fun(pre).reshape((6,5)))

猜你喜欢

转载自blog.csdn.net/Godsolve/article/details/90522000