基于matlab或C#的神经网络编程

matlab本来就有神经网络工具箱/toolbox/nnet/

神经网络模型代码_神经网络模型代码分析神经网络模型代码_神经网络模型代码分析


神经网络模型代码_神经网络模型代码分析


神经网络模型代码_神经网络模型代码分析


这是一个程序:

P = [1.24 1.36 1.38 1.38 1.38 1.4 1.48 1.54 1.56 1.14 1.18 1.2 1.26 1.28 1.3;

1.72 1.74 1.64 1.82 1.9 1.7 1.82 1.82 2.08 1.78 1.96 1.86 2.0 2.0 1.96];

%输出

T = [1 1 1 1 1 1 1 1 1 0 0 0 0 0 0];

%测试样本

p = [1.24, 1.28, 1.4; 1.8, 1.84, 2.04];

net=newff(minmax(P),[5,1],{'logsig','purelin'},'traingdx');

net.trainParam.show=50;

net.trainParam.lr=0.1;

net.trainParam.lr_inc=1.05;

net.trainParam.epochs=300;

net.trainParam.goal=0.01;

%net.trainParam.mu_dec=0.1;

%net.trainParam.mu_inc=7;

[net,tr]=train(net,P,T);

A=sim(net,P);

a=sim(net,p);

神经网络代码如何更换数据来源

1.注意细节

注意细节,一定要注意细节,代码是一个逻辑性极强的活儿,只有当每行代码逻辑都成立时,才能生效,否则就是报错,而且一定要从报错信息中找出些什么!

在这里插入描述

我在使用某个训练好的模型进行预测时,发现f1值特别的,但代码都是完好的啊,怎么就有问题呢?后来经过查找才知道原来是shell脚本中的加载模型的那行参数没有生效,如下图所示:

在这里插入描述

就导致预测效果极。

其实这个问题也在上面的日志中体现出来了: run1.sh: 15: --init_chechpoint: not found,但是我却鲁莽地直接忽视了这个报错,却去查找代码的问题,简直可笑!

2 类设计

训练集,验证集,测试集三者的任务都是不同的,你是否想好它们的数据集是否共用同一个Dataset?还是为不同的数据集提供一个实现?

2.1 训练集

需要label,用于计算损失

2.2 验证集

需要label,可视化后的损失情况

如果是一个NER问题,则需要原文本信息,因为需要可视化后抽取出来的具体是什么数据。

…2.3 测试集

没有label

如果是一个NER问题,那么仍然需要原文本信息

经过上面这些分析,就可以知道这些数据集包含的数据项是不完全相同的。

3 方法设计

是将一个方法设计的复杂,还是共用同一个方法?

这也是需要回答的问题

不要在模型中计算loss,而应该在train()函数中计算loss。但无论如何,请确保在evaluate的时候,模型的logtis是可以被传递回来的。

通常在验证模型时,也需要打出loss 和 f1 值,因为你需要查看验证集loss的情况,f1值那是更自然的需求了。

把参数全写成配置参数,这样launch.json 和shell 脚本就不会因为参数而冲突了

参数调整后,要跑整个模型时,请用shell脚本运行,而不是在vscode中用调试窗口跑。因为这样无法方便你对其它的代码调试,从而耽误进度。

求一个4,8,1的bp神经网络模型的matlab代码?

代码如下:直接运行就是了。

P=P=[-1, -2, 3, 1; -1, 1, 5, -3; -2, 3, 4, 6; 1, 2, 3, 4 ];%初始训练值 % 创建一个新的前向神经网络

net=newff(minmax(P),[8,1],{'tansig','purelin'},'traingdm')

% 当前输入层权值和阈值

inputWeights=net.IW{1,1}

inputbias=net.b{1}

% 当前网络层权值和阈值

layerWeights=net.LW{2,1}

layerbias=net.b{2}

% 设置训练参数

net.trainParam.show = 50;

net.trainParam.lr = 0.05;

net.trainParam.mc = 0.9;

net.trainParam.epochs = 1000;

net.trainParam.goal = 1e-3;

% 调用 TRAINGDM 算法训练 BP 网络

[net,tr]=train(net,P,T);

% 对 BP 网络进行仿真

A = sim(net,P) %后结果

% 计算仿真误

E = T - A

MSE=mse(E)

matlab神经网络工具箱训练出来的函数,怎么输出得到函数代码段

你的意思就是想训练好网络后,然后提取出网络的具体表达式吧?

你首先要知道自己的网络设置,例如我的网络是1个输入,1个输出,3个隐的神经网络,隐层传递函数为tansig,而输出层为purelin,那么函数表达式就是:

y=W1tansig(w11x1+b1)+W2tansig(w12x2+b2)+W3tansig(w13x3+b3)+B.

你对着拓扑图看一下就明白的了.

借助matlab神经网络工具箱,在matlab训练好网络,再通过以下代码获得公式里的阈值和权值,

w = net.iw{1,1} %第1层(输入层)到第2层(隐层)的权值

b = net.b{1} %第2层(隐层)的阈值

W = net.lw{2,1} %第2层(输入层)到第3层(输出层)的权值

B = net.b{2} %第3层(输出层)的阈值

获取权值阈值后代回表达式中就可以了.

不过楼主要注意,网络是否用是归一化,若果有归一化,还要反归一化才是真正的表达式.

至于表达式怎么得来的,和具体怎么代值进去,和网络的训练,相信在这里是讲不清的.

楼主可以到 <<神经网络之家>> 去看下面几张文章:

----讲模型怎么得来的

<一个简单的神经网络例子> -------讲在matlab里怎么训练网络

<提取神经网络数学表达式>------ 讲怎么提取数学表达式.

另外还有个视频,可以看到具体的过程:

纯手打的,看官觉得精彩顺便点个!赞!.thx

举个例子就知道了

clear;

%输入数据矩阵

p1=zeros(1,1000);

p2=zeros(1,1000);

%填充数据

for i=1:1000

p1(i)=rand;

p2(i)=rand;

end

%输入层有两个,样本数为1000

p=[p1;p2];

%目标(输出)数据矩阵,待拟合的关系为简单的三角函数

t = cos(pip1)+sin(pip2);

%对训练集中的输入数据矩阵和目标数据矩阵进行归一化处理

[pn, inputStr] = mapminmax(p);

[tn, outputStr] = mapminmax(t);

%建立BP神经网络

net = newff(pn, tn, [200,10]);

%每10轮回显示一次结果

net.trainParam.show = 10;

%训练次数

net.trainParam.epochs = 5000;

%网络的学习速率

net.trainParam.lr = 0.05;

%训练网络所要达到的目标误

net.trainParam.goal = 10^(-8);

%网络误如果连续6次迭代都没变化,则matlab会默认终止训练。为了让程序继续运行,用以下命令取消这条设置

net.divideFcn = '';

%开始训练网络

net = train(net, pn, tn);

%训练完网络后要求网络的权值w和阈值b

%获取网络权值、阈值

netiw = net.iw;

netlw = net.lw;

netb = net.b;

w1 = net.iw{1,1}; %输入层到隐层1的权值

b1 = net.b{1} ; %输入层到隐层1的阈值

w2 = net.lw{2,1}; %隐层1到隐层2的权值

b2 = net.b{2} ; %隐层1到隐层2的阈值

w3 = net.lw{3,2}; %隐层2到输出层的权值

b3 = net.b{3} ;%隐层2到输出层的阈值

%在默认的训练函数下,拟合公式为,y=w3tansig(w2tansig(w1in+b1)+b2)+b3;

%用公式计算测试数据[x1;x2]的输出,输入要归一化,输出反归一化

in = mapminmax('apply',[x1;x2],inputStr);

y=w3tansig(w2tansig(w1in+b1)+b2)+b3;

y1=mapminmax('rrse',y,outputStr);

%用bp神经网络验证计算结果

out = sim(net,in);

out1=mapminmax('rrse',out,outputStr);

bp神经网络预测代码

在matlab中,样本是以列的方式排列的,即一列对应一个样本。如果你的样本无误的话,就是一个输入8输出2的神经网络。作图直接用plot函数。

参考附件的代码,这是一个电力负荷预测例子,也是matlab编程。

BP(Back Propagation)神经网络是是一种按误逆传播算法训练的多层前馈网络,是目前应用广泛的神经网络模型之一。BP网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。它的学习规则是使用速下降法,通过反向传播来不断调整网络的权值和阈值,使网络的误平方和小。BP神经网络模型拓扑结构包括输入层(input)、隐层(hidden layer)和输出层(output layer)。

求一个bp神经网络预测模型的MATLAB程序

BP神经网络预测的步骤:

1、输入和输出数据。

2、创建网络。fitnet()

3、划分训练,测试和验证数据的比例。net.divideParam.trainRatio; net.divideParam.valRatio;net.divideParam.testRatio

4、训练网络。 train()

5、根据图表判断拟合好坏。ploterrcorr();parcorr();plotresponse()

6、预测往后数据。net()

7、画出预测图。plot()

执行下列命令

BP_prediction

得到结果:

[ 2016, 14749.003045557066798210144042969]

[ 2017, 15092.8472151886671781539699219]

[ 2018, 15382.150005970150232315063476562]

[ 2019, 15398.85769711434841156005859375]

[ 2020, 154.935150090605020523071289062]