的综述:认知心理学地主要模型和理论观点(一).doc
《评论:认知心理学的主要模型和理论观点》(一).doc)会员共享,可以在线阅读。更多相关“评论:认知心理学的主要模型和理论”)观点(< @一).doc(9页珍藏版)”,请到寻历图书馆搜索。
1、词概述:联结认知心理学的主要模型和理论观点(一)1、概述和历史认知心理学到目前为止,有两种研究方向,一种一个是信息处理取向,一个是联结主义取向,前者是计算机隐喻,将人脑比作计算机,认为人脑实际上是一个信息处理装置和一个符号处理系统,类似于计算机信息处理的一般特征:符号、离散、序列处理、非自组织和局部表示。后者是类比人脑神经网络,利用各种形式的神经元网络模型来模拟结构和功能真正的大脑,它是一个人工神经网络。与信息处理的认知心理学相比,联结主义的神经网络模型有一些不同。 nt特性:亚符号、连续、并行处理、自组织和分布式表示。认知心理学出现于1940年代,一般认为是194
2、3 岁的心理学家 McLozzi 和数学家 Pitts 发表了论文 The Logical Calculus of Thought Contained in the Nervous System 作为联结主义研究的开端。他们提出了形式神经元的概念和最初的神经网络模型 M-P 模型,从加拿大心理学家 Hebb 的学习定律和心理学家 Rumelhart 的模拟视觉感知的感知器模型开始。引发了联结主义认知心理学网络模型研究的第一次高潮。但受限于当时的条件,他们提出的模型很难解决更复杂的问题。模型的学习算法和规则非常不成熟,处理能力极其有限,很难在理论上取得突破。 Sky和Pepat对感知机能力和应用前景的批评,以及信息处理方向的研究在这个时候有了很大的突破,因此对联结神经网络模型的研究热情迅速降温,研究进入了
3、长时间的抑郁期。直到 1980 年代初,当信息处理的认知心理学发展起来时,才发现基于符号处理的系统不能很好地处理那些定义不明确的问题,难以处理模糊、不完整的符号表示和复杂的信息。同时,这个系统不具备学习能力,无法通过经验总结知识。人们意识到,要充分理解人类的认知问题,仅仅研究X型信息处理是不够的。联结主义的研究在相关学科的发展下取得了全面进展。 Rosenblatt、Hinton和Anderson提出的新的网络模型引起了人们的关注,再次激起了人们对网络研究的热情。 . 1982年,美国学者Hopfield提出回归网络,其能量函数与每个神经元的活动和连接权重成正比。
4、 为0。该模型成功地解决了许多高复杂度的计算问题,从而开始将联结主义研究推向高潮。 1986 年是联结主义研究史上最繁荣的一年,Rumelhart 和 McClelland 编辑出版了《联结主义认知心理学的圣经并行分布处理:认知结构的微观探索》,提出了基于反向传播学习的多层网络模型算法,这个模型是未来许多神经网络模型的基础和原型。可以说,该书为联结网络模型的研究奠定了基础。此后的联结主义研究一般是不断改进模型,或者提出新的、更复杂的模型来解决基于共同假设的高级认知问题。 2、主要模型2.1 形成神经元群视联结主义认知心理学研究的综述:认知心理学地主要模型和理论观点(一).doc,其中很大一部分是对各种人工神经网络模型的研究,这些模型不仅模拟人脑的运行特别
5、性与功能也代表了研究人员持有的联结主义认知心理学的基本观点。在各种神经网络模型中,无论它们是如何构造的或具有不同的逻辑功能,它们的基本结构单元基本相同,基本理论思想是相同的。因为它是对人脑神经网络的模拟,所以人工神经网络不可能以生物形式复制数十亿个神经元。形式神经元的概念,它具有生物神经元的一般操作特性,但并不完全相同。一旦形式神经元的概念被提出,它就成为所有人工神经网络的基本单元。对于形式神经元,它具有类似于生物神经元的阈值活动状态。当输入的信息强度高于预定阈值时,会“兴奋”,其数学值为1,无
6、所以“不兴奋,赋值0。同理,形式神经元和生物神经元具有多输入单输出结构,即单个神经元的活动状态取决于多个输入信息. 总加权强度是否高于阈值. 输入信息可以是兴奋的也可以是抑制的, 每个输入信息有不同的权重, 正负权重可以代表激发或抑制. 权重的实际含义是一对神经元连接的强度,这个连接强度就是生物神经元中的突触连接强度,可以用突触前细胞释放的介质量来表示,这种权重设计意味着对于输入的神经元而言,不同的输入单元有不同的它们活动的确定程度,这也意味着调整输入信息的权重可以改变网络的连接模式,而这个权重连接化模式实际上代表了信息的某些维度。形式神经元是特定的。一般来说,有六个基本功能特征: 1
7、输入设备,接收信息; 2集成装置,集成输入信息; 3 传输装置,传输和整合信息; 4、 输出设备,向其他神经元发送信息; 5.计算设备,转换信息类型; 6 刻画设备,刻画内部信息的进度。单个神经元与其他神经元组合形成某一层次的神经网络,而更大的神经网络模型由多个层次的网络构建而成,每一层次的神经元不仅与本层次的神经元相连。 ,并且还以加权方式与其他层的神经元连接。这样形成的神经网络具有极其复杂和强大的功能。当然,在不同的具体模型中,这些层内连接和层间连接都是这样排列的。 2.2 M-P 模型 McCluchy 和 Pitts 的 M-P 模型是联结主义研究中第一个人工神经网络模型。
8、是一个二元阈值逻辑单元,即all-or-none,高于阈值那么兴奋,或者不那么兴奋。他们的研究关注模型是否可以模拟一个逻辑系统,试图通过相互连接的神经元的激活操作来获得命题逻辑。他们的研究构建了一个简单的神经网络,由两个输入单元和一个具有可调阈值的输出单元组成。目的是测试这两个二进制阈值逻辑单元是否可以计算两个命题的16个逻辑函数。事实证明,这个简单的网络只能处理 16 个逻辑函数中的 14 个,即 XOR 函数,即“A 不是 B 及其否定形式,无法由具有单个操作单元和两个输入单元的网络处理”。 Odd 和 Pitts 认为,如果可以连接两个输入单元,使得一个单元的状态可以控制另一个单元的状态,则可以解决 XOR 问题。单个二进制阈值逻辑单元无法解决 XOR 函数说明了这种简单性。
9、网络处理能力有限,或者说异或问题需要更复杂的网络来解决,后来在参与隐藏单元层的多层网络结构模型中体现出来。在该模型运行时,处理单元的活动取决于三个参数和输入单元的活动。这三个参数分别是两个输入单元的权重和运算单元的阈值。三个参数的差异形成了不同的网络。重量模式方程。而这样的方程只有7个,每个方程能解1个逻辑函数及其反式,所以只能处理两个命题的14个逻辑函数。 2.3 感知器模型 Rosenblatt 的感知器模型是引起联结主义早期高潮的重要模型。它是一种基于视觉感知的神经网络模型,试图模拟人类视觉感知的真实过程。完成学习和识别的设备。该模型的指导思想与信息处理的模式识别理论大相径庭。他
10、认为,真实视觉感知中的模式识别并不存在模板匹配理论中描述的输入模式与存储模式之间的搜索匹配过程。真正的模式识别是通过输入信息激活现有模式而获得的。更现实的情况是输入的信息可能会激活多个模式认知心理学,激活量最大的会进入更高的处理。不同之处可能在于前者有一个有意识的搜索和匹配过程,而后者更多的是一种无意识的联系。感知器是一种视觉大脑模型,具有感知层S单元、关联层A单元和响应层R单元的三层结构。 S单元直接接收来自环境的输入,相当于视网膜,S单元层和A单元层之间的连接权重是固定的。一个 S 单元可以将信息输入到单个 A 单元或多个 A 单元。 A单元层连接到R单元层,而S单元层不连接到R单元层。 A和R单元的连接权值可以根据学习得到
11、 进行更改。每个 R 单元的活动由与其相连的所有 A 单元的加权活动强度决定。如果加权强度高于R单元的预设阈值,则R单元被激发,否则不被激发。由于感知器中A单元和R单元的连接权重可以随着学习不断调整,理论上感知器可以学习将感知模式分为几类。在最简单的二分类任务中,当期望输出与实际输出不匹配而分类失败时,网络会尝试调整相应的连接权重以获得期望输出。它的失败后调整权重的方式或书本学习算法是这样的:如果期望输出为 1的综述:认知心理学地主要模型和理论观点(一).doc,实际输出为 0,那么所有激活的具有这个 R-unit 的 A-unit 将与增加的权重相连接,如果期望输出为0 输出为0,实际输出为1,则所有激活的A 单元到该R 单元的连接权重将消失。直到预期输出与实际输出一致
12、,学习停止。尽管 Rosenblatt 证明了感知器收敛理论,即在足够的实践下,感知器可以调整权重模式以解决特定的线性分类问题,但这种收敛仅适用于两层感知器,并认为权重调整与实际输出与期望输出之间的误差。对于三层感知器来说,学习的局限性是不可预知的,因为如果输入结果引起的调整模式与原始模式完全相反,则可能会出现调整模式的反复振荡,使得学习无法完成。此外,与 M-P 模型一样,感知器也无法解决 XOR 问题。这表明需要更完整和复杂的模型来模拟人脑的基本操作特征。 2.4 三层前馈网络模型 三层前馈网络模型是一种具有隐藏单元层的多层网络模型,比较典型,其训练方法和学习规则是一样的
13、 由 Rumelhart 和 McClelland 在并行分布处理:认知结构的微观探索中提出。尽管其他多层网络模型在结构上存在较大差异,但在原理上与三层前馈网络模型是一致的。层网络模型的基本属性。三层前馈网络模型由输入层、隐藏单元层和输出层组成。输入层和输出层只与隐藏单元层相连,互不相连。与感知器不同的是,输入层和隐藏单元层不相互连接。连接权重是可以改变的,因此具有两层可调节连接权重的网络将大大增加其处理能力。层到层的连接可以是兴奋性的或抑制性的,而层到层的连接被指定为抑制性的或非抑制性的。与上述模型类似,隐藏单元层和输出层单元的活动取决于与它的连接。
14、上层多个单元的加权连接强度。与一般的神经网络类似,三层前馈网络模型也需要经过训练和学习,以获得可以解决特殊问题的连接权重模式。在该模型中认知心理学,训练方法采用了 Rumelhart 和 McClelland 提出的反向传播算法。反向传播算法的基本思想是通过样本得到实际输出和期望输出之间的误差梯度,调整权重使误差的均方误差最小,权重变化的方向是使误差的均方误差最小的方向。初始误差进行反向传播,使隐藏单元层与输出单元的连接权重,以及输入单元层与隐藏单元的连接权重朝着使误差均方减小的方向调整为最大程度。然后新的链接权重得到新的输出,同样是实际输出和预期输出之间的误差梯度。反复重复这个过程会使误差收敛到最小,甚至为零。虽然反向传播算法有一个清晰简单的
15、它具有明显易懂的优点,但也存在泛化能力差、训练时间长等问题。后续研究对反向传播算法做了很多修改,使网络的学习速度加快,网络的振动减少。另外,反向传播算法的一个重要作用就是解决上述在感知机和M-P网络中无法解决的异或问题,但是未经改进的反向传播算法的迭代次数和训练时间仍然太多。网络逐渐形成所需的权重连接模式的关键在于这种权重模式的调整方式,或者说网络的学习规则。在这里,三层前馈网络模型采用类似于 Hebbian 规范的规则。 Hebbian 学习规则是由加拿大心理学家 Hebbe 在其著作《行为的组织:一种神经心理学理论》中提出的。他认为,如果A中的神经元引起B中的神经元的兴奋,然后反复使A激活B,就会出现意外的生理现象
16、 的变化,使 A 更有效地激活 B。这实际上暗示了一个重要的思想,即当两个神经元被激发并相互连接时,它们的连接权重会增加,进而,连接权重与两个神经元的活动成正比。但是赫布规范对于复杂的网络是如此不适用,因为它只能描述两个相互激发和激活的连接的连接。因此,在三层前馈网络模型中,Rumelhart 和 McClelland 认为目标输出与实际输出之间的误差是权重变化的更好参数项,因此变化后的 Hebbian 规范与规范相同。权重变化等于学习率、输入活动值以及目标输出与实际输出之间的误差的乘积。事实证明,通过这样的学习规则和训练算法,具有隐藏单元层的三层前馈网络模型可以解决包括 XOR 问题在内的许多问题,例如奇偶校验、对称性和 T-C 问题。在改进的反向传播算法的支持下,网络可以更快地达到期望的输出。但是这种已经拥有强大处理能力的网络仍然无法
评论前必须登录!
注册