Методы искусственного интеллекта для машинного перевода текстов. Роганов В.Р - 50 стр.

UptoLike

50
N
w
/N
y
<C
d
<N
w
/N
y
log(N
w
/N
y
) (30)
где N
w
число подстраиваемых весов,
N
y
число нейронов в выходном слое.
Следует отметить, что данное выражение получено с учетом некоторых
ограничений. Во-первых, число входов N
x
и нейронов в скрытом слое N
h
долж-
но удовлетворять неравенству N
x
+N
h
>N
y
. Во-вторых, N
w
/N
y
>1000. Однако вы-
шеприведенная оценка выполнялась для сетей с активационными функциями
нейронов в виде порога, а емкость сетей с гладкими активационными функция-
ми, например – (15), обычно больше. Кроме того, фигурирующее в названии
емкости прилагательное "детерминистский" означает, что полученная оценка
емкости подходит абсолютно для всех возможных входных образов, которые
могут быть представлены N
x
входами. В действительности распределение вход-
ных образов, как правило, обладает некоторой регулярностью, что позволяет
НС проводить обобщение и, таким образом, увеличивать реальную емкость.
Так как распределение образов, в общем случае, заранее не известно, мы можем
говорить о такой емкости только предположительно, но обычно она раза в два
превышает емкость детерминистскую.
В продолжение разговора о емкости НС логично затронуть вопрос о тре-
буемой мощности выходного слоя сети, выполняющего окончательную клас-
сификацию образов. Дело в том, что для разделения множества входных обра-
зов, например, по двум классам достаточно всего одного выхода. При этом ка-
ждый логический уровень – "1" и "0" – будет обозначать отдельный класс. На
двух выходах можно закодировать уже 4 класса и так далее. Однако результаты
работы сети, организованной таким образом, можно сказать – "под завязку", –
не очень надежны. Для повышения достоверности классификации желательно
ввести избыточность путем выделения каждому классу одного нейрона в вы-
ходном слое или, что еще лучше, нескольких, каждый из которых обучается
определять
принадлежность образа к классу со своей степенью достоверности,
например: высокой, средней и низкой. Такие НС позволяют проводить класси-
фикацию входных образов, объединенных в нечеткие (размытые или пересе-
                        Nw/NyNy. Во-вторых, Nw/Ny>1000. Однако вы-
шеприведенная оценка выполнялась для сетей с активационными функциями
нейронов в виде порога, а емкость сетей с гладкими активационными функция-
ми, например – (15), обычно больше. Кроме того, фигурирующее в названии
емкости прилагательное "детерминистский" означает, что полученная оценка
емкости подходит абсолютно для всех возможных входных образов, которые
могут быть представлены Nx входами. В действительности распределение вход-
ных образов, как правило, обладает некоторой регулярностью, что позволяет
НС проводить обобщение и, таким образом, увеличивать реальную емкость.
Так как распределение образов, в общем случае, заранее не известно, мы можем
говорить о такой емкости только предположительно, но обычно она раза в два
превышает емкость детерминистскую.
    В продолжение разговора о емкости НС логично затронуть вопрос о тре-
буемой мощности выходного слоя сети, выполняющего окончательную клас-
сификацию образов. Дело в том, что для разделения множества входных обра-
зов, например, по двум классам достаточно всего одного выхода. При этом ка-
ждый логический уровень – "1" и "0" – будет обозначать отдельный класс. На
двух выходах можно закодировать уже 4 класса и так далее. Однако результаты
работы сети, организованной таким образом, можно сказать – "под завязку", –
не очень надежны. Для повышения достоверности классификации желательно
ввести избыточность путем выделения каждому классу одного нейрона в вы-
ходном слое или, что еще лучше, нескольких, каждый из которых обучается
определять принадлежность образа к классу со своей степенью достоверности,
например: высокой, средней и низкой. Такие НС позволяют проводить класси-
фикацию входных образов, объединенных в нечеткие (размытые или пересе-

                                                                          50