Нейронные сети и нейроконтроллеры. Бураков М.В. - 96 стр.

UptoLike

Составители: 

96
Данные считываются командой
>> load data.txt;
>> P=data(1:9,1);
>> T=data(1:9,2);
Следующая команда выполняет нормализацию обучающих дан-
ных:
>> [pn,minp,maxp,tn,mint,maxt] = premnmx(P',T')
pn =
1.0000 –0.7500 –0.5000 –0.2500 0 0.2500 0.5000 0.7500 1.0000
minp = –10
maxp = 10
tn =
0 0.7070 1.0000 –0.7070 0 0.7070 1.0000 0.7070 0
mint = –10
maxt = 10
Пример 3.15. Сначала с помощью функции premnmx выполним
масштабирование обучающей последовательности к диапазону [–1
1], затем создадим и обучим ИНС ПР, выполним ее моделирование
и восстановление выхода с помощью функции postmnmx:
>> P = [–0.92 0.73 –0.47 0.74 0.29; –0.08 0.86 –0.67 –0.52 0.93];
>> t = [–0.08 3.40 –0.82 0.69 3.10];
>> [pn,minp,maxp,tn,mint,maxt] = premnmx(P,t);
>> net = newff(minmax(pn),[5 1],{'tansig' 'purelin'},'trainlm');
>> net = train(net,pn,tn); grid on
>> an = sim(net,pn)
an = –0.6493 1.0000 –1.0000 –0.2844 0.8578
>> a = postmnmx(an,mint,maxt)
a = –0.0800 3.4000 –0.8200 0.6900 3.1000
Аналогично используется функция prestd, которая выполняет
масштабирование обучающей последовательности по нормальному
закону распределения с параметрами [0 1], а восстановление выхо-
да происходит с помощью функции poststd.
Вопросы для самопроверки
1.Каковы свойства искусственных нейронных сетей прямого
распространения?
2.В чем сходство ИНС ПР и комбинационных логических схем?