神经网络中的每个节点接受输入值,并将输入值传递给下一层,输入节点会将输入属性值直接传递给下一层(隐层或输出层)。在神经网络中,隐层和输出层节点的输入和输出之间具有函数关系,这个函数称为激励函数。常见的激励函数有:线性激励函数、阈值或阶跃激励函数、S形激励函数、双曲正切激励函数和高斯激励函数等。
它是一种运算模型,由大量神经元和相互的连接组成,每个神经元代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重(weight),用于模拟记忆。
基于176个网页-相关网页
【Key words】 fuzzy pattern recognition model; neural network; stimulation function; forecast model.;
基于8个网页-相关网页
如今业界不推荐使用“神经元”这个词,而改用更准确的“单元”。 激励函数(Acitivation Function) 激励函数读取加权数据(输入数据和权重进行矩阵乘法),输出数据的非线性变换。
基于6个网页-相关网页
The convergence performances of many algorithms are compared from three aspects: activation function, weight modification methods, and target function.
从激励函数、权值修正方法、目标函数三方面对多个改进算法进行收敛性能的比较。
参考来源 - 计算智能方法研究及其集成应用This paper introduces the Quantum Neural Networks model based on multilevel activation function and its algorithm briefly. On this basis, an application of Quantum Neural Networks for fault diagnosis of the motors rotors is presented.
本文介绍了基于多层激励函数的量子神经网络模型及其算法,并将量子神经网络模型应用于电机转子故障诊断中, 比较了BP神经网络和量子神经网络(QNN)的故障识别精度。
参考来源 - 量子神经网络在电机转子故障辨识中的应用研究·2,447,543篇论文数据,部分数据来源于NoteExpress
用周期函数,有限项傅立叶级数,作为激励函数来获取训练样本。
A periodic function, finite Fourier series, is used to activate the actuator for obtaining training samples.
使用了高斯函数作为神经网络的激励函数,并以最小二乘准则对字符进行识别。
Gauss function is used as neural network's inspirit function, and least square rule is used to recognize the character.
在对神经网络的激励函数的三个假设下,研究了具有离散时滞的神经网络的稳定性。
We analyze global stability of a class of neural networks with discrete delays under three assumptions of activation functions.
应用推荐