ВУЗ:
Составители:
Рубрика:
50
N
w
/N
y
<C
d
<N
w
/N
y
⋅log(N
w
/N
y
) (30)
где N
w
– число подстраиваемых весов,
N
y
– число нейронов в выходном слое.
Следует отметить, что данное выражение получено с учетом некоторых
ограничений. Во-первых, число входов N
x
и нейронов в скрытом слое N
h
долж-
но удовлетворять неравенству N
x
+N
h
>N
y
. Во-вторых, N
w
/N
y
>1000. Однако вы-
шеприведенная оценка выполнялась для сетей с активационными функциями
нейронов в виде порога, а емкость сетей с гладкими активационными функция-
ми, например – (15), обычно больше. Кроме того, фигурирующее в названии
емкости прилагательное "детерминистский" означает, что полученная оценка
емкости подходит абсолютно для всех возможных входных образов, которые
могут быть представлены N
x
входами. В действительности распределение вход-
ных образов, как правило, обладает некоторой регулярностью, что позволяет
НС проводить обобщение и, таким образом, увеличивать реальную емкость.
Так как распределение образов, в общем случае, заранее не известно, мы можем
говорить о такой емкости только предположительно, но обычно она раза в два
превышает емкость детерминистскую.
В продолжение разговора о емкости НС логично затронуть вопрос о тре-
буемой мощности выходного слоя сети, выполняющего окончательную клас-
сификацию образов. Дело в том, что для разделения множества входных обра-
зов, например, по двум классам достаточно всего одного выхода. При этом ка-
ждый логический уровень – "1" и "0" – будет обозначать отдельный класс. На
двух выходах можно закодировать уже 4 класса и так далее. Однако результаты
работы сети, организованной таким образом, можно сказать – "под завязку", –
не очень надежны. Для повышения достоверности классификации желательно
ввести избыточность путем выделения каждому классу одного нейрона в вы-
ходном слое или, что еще лучше, нескольких, каждый из которых обучается
определять
принадлежность образа к классу со своей степенью достоверности,
например: высокой, средней и низкой. Такие НС позволяют проводить класси-
фикацию входных образов, объединенных в нечеткие (размытые или пересе-
Nw/NyNy. Во-вторых, Nw/Ny>1000. Однако вы- шеприведенная оценка выполнялась для сетей с активационными функциями нейронов в виде порога, а емкость сетей с гладкими активационными функция- ми, например – (15), обычно больше. Кроме того, фигурирующее в названии емкости прилагательное "детерминистский" означает, что полученная оценка емкости подходит абсолютно для всех возможных входных образов, которые могут быть представлены Nx входами. В действительности распределение вход- ных образов, как правило, обладает некоторой регулярностью, что позволяет НС проводить обобщение и, таким образом, увеличивать реальную емкость. Так как распределение образов, в общем случае, заранее не известно, мы можем говорить о такой емкости только предположительно, но обычно она раза в два превышает емкость детерминистскую. В продолжение разговора о емкости НС логично затронуть вопрос о тре- буемой мощности выходного слоя сети, выполняющего окончательную клас- сификацию образов. Дело в том, что для разделения множества входных обра- зов, например, по двум классам достаточно всего одного выхода. При этом ка- ждый логический уровень – "1" и "0" – будет обозначать отдельный класс. На двух выходах можно закодировать уже 4 класса и так далее. Однако результаты работы сети, организованной таким образом, можно сказать – "под завязку", – не очень надежны. Для повышения достоверности классификации желательно ввести избыточность путем выделения каждому классу одного нейрона в вы- ходном слое или, что еще лучше, нескольких, каждый из которых обучается определять принадлежность образа к классу со своей степенью достоверности, например: высокой, средней и низкой. Такие НС позволяют проводить класси- фикацию входных образов, объединенных в нечеткие (размытые или пересе- 50
Страницы
- « первая
- ‹ предыдущая
- …
- 48
- 49
- 50
- 51
- 52
- …
- следующая ›
- последняя »
