Моделирование нейронных сетей в Matlab. Федотов А.В. - 4 стр.

UptoLike

Составители: 

4
Можно попытаться улучшить качество аппроксимации за счет подбора
величины отклонения, но в условиях примера приемлемый результат легко
достигается при использовании сети с радиальными базисными элементами
типа newrbe:
>> a=newrbe(х,у);
>>Yl = sim(a,[-0.9 -0.7 -0.3 0.4 0.8]) % Опрос НС
Y1 =
0.8100 0.4900 0.0900 0.1600 0.6400
Нетрудно видеть, что применение сети типа newrb приводит здесь не
просто к интерполяции заданных обучающей выборкой значений, а действи-
тельно к точному восстановлению заданной зависимости по крайней мере,
для использованных точек контрольной последовательности.
Созданную сеть можно сохранить для последующего использования
набором в командной строке команды save ('а'); при этом будет создан файл
a.mat, то есть файл с именем НС и расширением mat. В последующих сеан-
сах работы эту сеть можно загрузить, используя функцию load (' а'). Естест-
венно, допустимы все другие формы записи операторов save и load.
Рассмотрим теперь задачу восстановления некоторой, вообще говоря,
неизвестной зависимости по имеющимся экспериментальным данным с ис-
пользованием линейной НС.
Пусть экспериментальная информация задана значениями
х = [1.0 1.5 3.0 -1.2], у = [0.5 1.1 3.0 -1.0].
Создадим векторы входа и целей:
>> х = [1.0 1.5 3.0 -1.2];
>> у = [0.5 1.1 3.0 -1.0];
Теперь создадим линейную нейронную сеть:
>> b=newlind(х,у); % Создание линейной НС с именем b
Проведем опрос сети для значения входа, равного 3.0 (этому, согласно
экспе¬риментальным данным, соответствует целевое значение 3.0):
>> y1 = sim(b, 3.0) % Опрос сети
y1 =
2.7003
Погрешность восстановления по данным обучающей выборки в данном
случае - 10%. Отметим, что в условиях как первого, так и второго примера
дать какую-либо оценку предельной величине погрешности аппроксимации
      Можно попытаться улучшить качество аппроксимации за счет подбора
величины отклонения, но в условиях примера приемлемый результат легко
достигается при использовании сети с радиальными базисными элементами
типа newrbe:

     >> a=newrbe(х,у);
     >>Yl = sim(a,[-0.9 -0.7 -0.3 0.4 0.8]) % Опрос НС
     Y1 =
          0.8100 0.4900 0.0900 0.1600 0.6400

      Нетрудно видеть, что применение сети типа newrb приводит здесь не
просто к интерполяции заданных обучающей выборкой значений, а действи-
тельно к точному восстановлению заданной зависимости — по крайней мере,
для использованных точек контрольной последовательности.
      Созданную сеть можно сохранить для последующего использования
набором в командной строке команды save ('а'); при этом будет создан файл
a.mat, то есть файл с именем НС и расширением mat. В последующих сеан-
сах работы эту сеть можно загрузить, используя функцию load (' а'). Естест-
венно, допустимы все другие формы записи операторов save и load.
      Рассмотрим теперь задачу восстановления некоторой, вообще говоря,
неизвестной зависимости по имеющимся экспериментальным данным с ис-
пользованием линейной НС.
      Пусть экспериментальная информация задана значениями

     х = [1.0 1.5 3.0 -1.2], у = [0.5 1.1 3.0 -1.0].

     Создадим векторы входа и целей:

     >> х = [1.0 1.5 3.0 -1.2];
     >> у = [0.5 1.1 3.0 -1.0];

     Теперь создадим линейную нейронную сеть:

     >> b=newlind(х,у); % Создание линейной НС с именем b

     Проведем опрос сети для значения входа, равного 3.0 (этому, согласно
экспе¬риментальным данным, соответствует целевое значение 3.0):

      >> y1 = sim(b, 3.0) % Опрос сети
      y1 =
           2.7003
      Погрешность восстановления по данным обучающей выборки в данном
случае - 10%. Отметим, что в условиях как первого, так и второго примера
дать какую-либо оценку предельной величине погрешности аппроксимации
                                            4