利用RBF神经网络做预测

利用RBF神经网络做预测,第1张

在命令栏敲nntool,按提示 *** 作,将样本提交进去。

还有比较简单的是用广义RBF网络,直接用grnn函数就能实现,基本形式是y=grnn(P,T,spread),你可以用help grnn看具体用法。GRNN的预测精度是不错的。

广义RBF网络:从输入层到隐藏层相当于是把低维空间的数据映射到高维空间,输入层细胞个数为样本的维度,所以隐藏层细胞个数一定要比输入层细胞个数多。从隐藏层到输出层是对高维空间的数据进行线性分类的过程,可以采用单层感知器常用的那些学习规则,参见神经网络基础和感知器。

注意广义RBF网络只要求隐藏层神经元个数大于输入层神经元个数,并没有要求等于输入样本个数,实际上它比样本数目要少得多。因为在标准RBF网络中,当样本数目很大时,就需要很多基函数,权值矩阵就会很大,计算复杂且容易产生病态问题。另外广RBF网与传统RBF网相比,还有以下不同:

1径向基函数的中心不再限制在输入数据点上,而由训练算法确定。

2各径向基函数的扩展常数不再统一,而由训练算法确定。

3输出函数的线性变换中包含阈值参数,用于补偿基函数在样本集上的平均值与目标值之间的差别。

因此广义RBF网络的设计包括:

1结构设计--隐藏层含有几个节点合适

2参数设计--各基函数的数据中心及扩展常数、输出节点的权值。

1、反距离加权插值法。首先是由气象学家和地质工作者提出的。计算的权值随结点到观测点距离的增加而下降。

配给的权重是一个分数,所有权重总和等于10。该法综合了泰森多边形的邻近点法和多元回归法的长处,通过权 重调整空间插值结构;缺点是在格网区域内要产生围绕观测点的“牛眼”,给电法与磁法数据解释带来 不便,因此,实际应用较少。

2、最小曲率法。广泛应用于地球科学。该法的特点是在尽可能严格地尊重数据的同时,生成尽可能圆滑的曲面。使用最小曲率法时要涉及到两个参数:最大残差参数和最大循环次数参数,而且最小曲率法要求至少有四 个点。实际应用中该法用于平滑估值,绘出的等值线主要用于定性研究。

3、自然邻点插值法。其基本原理是对于一组泰森多边形,当在数据集中加入一个新的数据点(目标) 时,就会修改这些泰 森多边形,而使用邻点的权重平均值将决定待插点的权重,待插点的权重和目标泰森多边形的边长成比 例。

同时,自然邻点插值法在数据点凸起的位置并不外推等值线(如泰森多边形的轮廓线)。自然邻点插值 型函数满足在插值节点等于1、单位分解性和线性完备性等插值型函数的基本性质。

4、径向基函数插值法。它是多个数据插值方法的组合,其基函数是由单个变量的函数构成的。所有径向基函数插值法都是准确的插值器,它们都能尽量适应的数据;若要生成一个更圆滑的曲面,对所有这些方法都可以引入一 个圆滑系数。

基函数中的复二次函数方法在水文测量、大地测量、地质及采矿、地球物理等领域都得到了广泛应用,效果良好。在数据点数量不太大的情况下,计算也不太复杂, 适合于电法数据生成等值线。

5、三角网/线性插值法。使用最佳的Delaunay三角形,连接数据点间的连线形成三角形。每一个三角形定义了一个覆盖该三角形内网格节点的面,三角形的倾斜和标高由定义这个三角形的三个原始数据点确定。

给定三角形内的全部节点都要受到该三角形的表面的限制。该法将在网格范围内均匀分配数据,地图上稀疏的区域将会形成截然不同的三角面。方法法适合于地层模型和断层的表示,也适合于大比例尺的磁法数据处理。

RBF神经网络使用局部指数衰减的非线性函数(高斯函数就是一种典型的函数)对非线性输入输出映射进行局部逼近。多层感知器(如BP网络)的隐节点采用输入模式与权向量的内积作为激活函数的自变量,而激活函数则采用Sigmoid函数或硬限幅函数,因此多层感知器是对非线性映射的全局逼近。RBF网最显著的特点是隐节点错用输入模式与中心向量的距离(如欧氏距离)作为函数的自变量,并使用径向基函数(如Gaussian函数)作为激活函数。径向基函数关于N维空间的一个中心点具有径向对称性,而且神经元的输入离该中心点越远,神经元的激活程度就越低。隐节点的这个特性常被称为“局部特性”。

可以按照时间的维度来理解:

过去:描述

现在;解释

未来:预测、控制

而总的目标是提高人类生活质量。

描述面临客观性的挑战

而解释又区分了秉性变量和情境变量,前者对内、后者对外。

预测可以用可证伪来理解,它也面临这个挑战。

控制特别提到了文化情境对它的态度

欢迎分享,转载请注明来源:内存溢出

原文地址:https://www.54852.com/langs/13492510.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2025-09-01
下一篇2025-09-01

发表评论

登录后才能评论

评论列表(0条)

    保存