ВУЗ:
Составители:
4
Можно попытаться улучшить качество аппроксимации за счет подбора
величины отклонения, но в условиях примера приемлемый результат легко
достигается при использовании сети с радиальными базисными элементами
типа newrbe:
>> a=newrbe(х,у);
>>Yl = sim(a,[-0.9 -0.7 -0.3 0.4 0.8]) % Опрос НС
Y1 =
0.8100 0.4900 0.0900 0.1600 0.6400
Нетрудно видеть, что применение сети типа newrb приводит здесь не
просто к интерполяции заданных обучающей выборкой значений, а действи-
тельно к точному восстановлению заданной зависимости — по крайней мере,
для использованных точек контрольной последовательности.
Созданную сеть можно сохранить для последующего использования
набором в командной строке команды save ('а'); при этом будет создан файл
a.mat, то есть файл с именем НС и расширением mat. В последующих сеан-
сах работы эту сеть можно загрузить, используя функцию load (' а'). Естест-
венно, допустимы все другие формы записи операторов save и load.
Рассмотрим теперь задачу восстановления некоторой, вообще говоря,
неизвестной зависимости по имеющимся экспериментальным данным с ис-
пользованием линейной НС.
Пусть экспериментальная информация задана значениями
х = [1.0 1.5 3.0 -1.2], у = [0.5 1.1 3.0 -1.0].
Создадим векторы входа и целей:
>> х = [1.0 1.5 3.0 -1.2];
>> у = [0.5 1.1 3.0 -1.0];
Теперь создадим линейную нейронную сеть:
>> b=newlind(х,у); % Создание линейной НС с именем b
Проведем опрос сети для значения входа, равного 3.0 (этому, согласно
экспе¬риментальным данным, соответствует целевое значение 3.0):
>> y1 = sim(b, 3.0) % Опрос сети
y1 =
2.7003
Погрешность восстановления по данным обучающей выборки в данном
случае - 10%. Отметим, что в условиях как первого, так и второго примера
дать какую-либо оценку предельной величине погрешности аппроксимации
Можно попытаться улучшить качество аппроксимации за счет подбора величины отклонения, но в условиях примера приемлемый результат легко достигается при использовании сети с радиальными базисными элементами типа newrbe: >> a=newrbe(х,у); >>Yl = sim(a,[-0.9 -0.7 -0.3 0.4 0.8]) % Опрос НС Y1 = 0.8100 0.4900 0.0900 0.1600 0.6400 Нетрудно видеть, что применение сети типа newrb приводит здесь не просто к интерполяции заданных обучающей выборкой значений, а действи- тельно к точному восстановлению заданной зависимости — по крайней мере, для использованных точек контрольной последовательности. Созданную сеть можно сохранить для последующего использования набором в командной строке команды save ('а'); при этом будет создан файл a.mat, то есть файл с именем НС и расширением mat. В последующих сеан- сах работы эту сеть можно загрузить, используя функцию load (' а'). Естест- венно, допустимы все другие формы записи операторов save и load. Рассмотрим теперь задачу восстановления некоторой, вообще говоря, неизвестной зависимости по имеющимся экспериментальным данным с ис- пользованием линейной НС. Пусть экспериментальная информация задана значениями х = [1.0 1.5 3.0 -1.2], у = [0.5 1.1 3.0 -1.0]. Создадим векторы входа и целей: >> х = [1.0 1.5 3.0 -1.2]; >> у = [0.5 1.1 3.0 -1.0]; Теперь создадим линейную нейронную сеть: >> b=newlind(х,у); % Создание линейной НС с именем b Проведем опрос сети для значения входа, равного 3.0 (этому, согласно экспе¬риментальным данным, соответствует целевое значение 3.0): >> y1 = sim(b, 3.0) % Опрос сети y1 = 2.7003 Погрешность восстановления по данным обучающей выборки в данном случае - 10%. Отметим, что в условиях как первого, так и второго примера дать какую-либо оценку предельной величине погрешности аппроксимации 4
Страницы
- « первая
- ‹ предыдущая
- …
- 2
- 3
- 4
- 5
- 6
- …
- следующая ›
- последняя »