ВУЗ:
Составители:
39
ментов L является показателем ее обученности и характеризуется по-
грешностью обучения
()
L
Ew
r
, способность распознавания данных под-
множества G показывает ее возможности обобщения знаний и описыва-
ется погрешностью обобщения
()
G
Ew
r
. Для верификации качества обу-
чения НС в составе L выделяется определенное подмножество кон-
трольных данных V.
При обучении НС оказывается, что количество весов T
w
сети (число
степеней свободы) и число обучающих выборок р тесно связаны. Напри-
мер, если бы целью обучения НС было только запоминание
()
k
x
r
, тогда дос-
таточно было бы p = T
w
, однако такая сеть не будет обладать свойством
обобщения и сможет только восстанавливать данные. Для обретения
обобщающих свойств НС необходимо выполнение p > T
w
, чтобы веса сети
адаптировались не к уникальным выборкам, а к их статистически усред-
ненным совокупностям. Наглядная графическая иллюстрация способности
НС к обобщению показана на рисунке 3.4 на примере аппроксимации од-
номерной функции двухслойной НС. Видно, как при избыточном числе
нейронов и весов проявляется эффект гиперразмерности НС, когда мини-
мизация
()
L
Ew
r
на относительно малом числе обучающих выборок спрово-
цировала случайный характер значений многих весов, что при переходе к
тестовым сигналам обусловило значительное отклонение фактических
значений y
i
от ожидаемых d
i
(рис. 3.4, а). Уменьшение количества скрытых
нейронов до оптимального значения (рис. 3.4, б) обеспечило и малую по-
грешность обучения, и высокую степень обобщения (малую
()
G
Ew
r
). Даль-
нейшее уменьшение К привело к потере НС способности восстанавливать
обучающие данные (рис. 3.4, в).
R
V
L
G
Рис. 3.3. Разделение множества данных R на обучающее L, контрольное V
и тестовое G подмножества
ментов L является показателем ее обученности и характеризуется по-
�
грешностью обучения EL ( w) , способность распознавания данных под-
множества G показывает ее возможности обобщения знаний и описыва-
�
ется погрешностью обобщения EG ( w) . Для верификации качества обу-
чения НС в составе L выделяется определенное подмножество кон-
трольных данных V.
R
G
L
V
Рис. 3.3. Разделение множества данных R на обучающее L, контрольное V
и тестовое G подмножества
При обучении НС оказывается, что количество весов Tw сети (число
степеней свободы) и число обучающих выборок р тесно связаны. Напри-
�
мер, если бы целью обучения НС было только запоминание x ( k ) , тогда дос-
таточно было бы p = Tw, однако такая сеть не будет обладать свойством
обобщения и сможет только восстанавливать данные. Для обретения
обобщающих свойств НС необходимо выполнение p > Tw, чтобы веса сети
адаптировались не к уникальным выборкам, а к их статистически усред-
ненным совокупностям. Наглядная графическая иллюстрация способности
НС к обобщению показана на рисунке 3.4 на примере аппроксимации од-
номерной функции двухслойной НС. Видно, как при избыточном числе
нейронов и весов проявляется эффект гиперразмерности НС, когда мини-
�
мизация EL ( w) на относительно малом числе обучающих выборок спрово-
цировала случайный характер значений многих весов, что при переходе к
тестовым сигналам обусловило значительное отклонение фактических
значений yi от ожидаемых di (рис. 3.4, а). Уменьшение количества скрытых
нейронов до оптимального значения (рис. 3.4, б) обеспечило и малую по-
�
грешность обучения, и высокую степень обобщения (малую EG ( w) ). Даль-
нейшее уменьшение К привело к потере НС способности восстанавливать
обучающие данные (рис. 3.4, в).
39
Страницы
- « первая
- ‹ предыдущая
- …
- 37
- 38
- 39
- 40
- 41
- …
- следующая ›
- последняя »
