Интеллектуальные информационные системы. Дубровин А.Д. - 131 стр.

UptoLike

Составители: 

166
где
y
ki
- c
игнал
,
поступивший
от
k-
го
S-
элемента
к
i-
му
А
-
элементу
.
Сигнал
y
ki
может
быть
непрерывным
,
но
чаще
всего
он
принимает
только
два
значения
: 0
или
1.
Сигналы
от
S-
элементов
подаются
на
входы
А
-
элементов
с
постоянными
весами
,
равными
единице
,
но
каждый
А
-
элемент
связан
только
с
группой
случайно
выбранных
S-
элементов
.
Предположим
,
что
требуется
обучить
перцептрон
,
в
котором
имеется
только
два
R-
элемента
,
идентификации
двух
образов
V1
и
V2.
Один
из
таких
элементов
(R1)
будет
предназначен
для
распознавания
образа
V1,
а
другой
(R2)
для
распознавания
образа
V2.
Такой
перцептрон
будет
обучен
(
то
есть
будет
надежно
идентифицировать
образы
V1
и
V2),
если
уровень
сигнала
на
выходе
R1
превышает
уровень
сигнала
на
выходе
R2,
когда
распознается
объект
образа
V1,
и
наоборот
,
если
распознается
объект
образа
V2.
Разделение
объектов
на
два
образа
можно
провести
и
с
помощью
только
одного
R-
элемента
.
Тогда
можно
не
измерять
уровни
сигнала
,
а
менять
его
полярность
.
В
этом
случае
объекту
образа
V1
может
,
например
,
соответствовать
положительная
реакция
R-
элемента
,
а
объектам
образа
V2 —
отрицательная
(
или
наоборот
).
Перцептрон
обучается
путем
подачи
на
его
вход
обучающей
выборки
,
представляющей
собой
последовательность
изображений
объектов
,
принадлежащих
образам
V1
и
V2.
В
процессе
обучения
будут
происходить
изменения
веса
vi
А
-
элементов
.
В
частности
,
если
при
обучении
применяется
система
коррекции
ошибок
распознавания
,
то
она
реагирует
прежде
всего
на
факт
правильно
или
неправильно
распознал
перцептрон
конкретный
объект
(
его
принадлежность
к
одному
из
двух
образов
).
Если
объект
распознан
правильно
,
то
веса
связей
всех
«
сработавших
»
А
-
элементов
,
ведущих
к
R-
элементу
,
выдавшему
правильное
решение
,
увеличиваются
,
а
веса
«
несработавших
»
А
-
элементов
остаются
неизменными
.
Можно
оставлять
неизменными
и
веса
сработавших
А
-
элементов
,
но
тогда
надо
уменьшать
веса
несработавших
.
В
некоторых
случаях
веса
сработавших
связей
увеличивают
,
а
несработавших
уменьшают
.
После
достижения
требуемой
надежности
распознавания
на
обучающей
выборке
обучение
прекращается
и
перцептрон
может
самостоятельно
(
без
учителя
)
идентифицировать
новые
объекты
данного
образа
.
Если
перцептрон
действует
по
описанной
схеме
и
в
нем
допускаются
лишь
связи
,
идущие
от
бинарных
S-
элементов
к
A-
элементам
и
от
A-
элементов
к
единственному
R-
элементу
,
то
такой
перцептрон
принято
называть
элементарным
α
αα
α
-перцептроном
.
В
теории
ИНС
доказано
несколько
теорем
,
определяющие
основные
свойства
перцептрона
.
Приведем
неформальное
толкование
двух
из
них
,
являющихся
основными
.
Теорема 1
доказывает
,
что
для
любой
обучающей
последовательности
всегда
можно
подобрать
такой
конечный
набор
А
-
элементов
,
с
помощью
которого
будет
осуществлено
разделение
обучающей
последовательности
линейной
функцией
(6.1.1).
R v x
j j i j i
i
n
= +
=
Θ
1
Теорема 2 доказывает
,
что
если
для
обучающей
последовательности
можно
найти
конечный
набор
А
-
элементов
,
обеспечивающий
ее
разделение
линейной
функцией
вида
(6.1.1),
то
такое
решение
будет
достигнуто
за
конечный
промежуток
времени
.
Эти
теоремы
имеют
практическое
значение
.
Оно
заключается
в
том
,
что
ими
доказывается
практическая
реализуемость
обучения
перцептрона
на
любой
обучающей
выборке
.
Обычно
в
теории
ИНС
исследуются
свойства
бесконечного перцептрона
-
с
бесконечным
числом
А
-
элементов
и
всевозможными
связями
их
с
S-
элементами
.
В
таких
перцептронах
распознание
любого
образа
всегда
осуществимо
,
а
значит
оно
осуществимо
и
для
α-
перцептронов
с
коррекцией
ошибок
.
Анализ
возможностей
применения
однослойных
перцептронов
показал
,
что
разделить
пространство
образов
на
области
,
относящиеся
к
различным
понятиям
,
с
помощью
линейных
разделяющих
функций
,
как
правило
,
не
удается
.
Для
этого
необходимо
создавать
              где y ki - cигнал, поступивший от k-го S-элемента к i-му А-элементу.
     Сигнал y ki может быть непрерывным, но чаще всего он принимает только два
значения: 0 или 1. Сигналы от S-элементов подаются на входы А-элементов с постоянными
весами, равными единице, но каждый А-элемент связан только с группой случайно
выбранных S-элементов.
     Предположим, что требуется обучить перцептрон, в котором имеется только два R-
элемента, идентификации двух образов V1 и V2. Один из таких элементов (R1) будет
предназначен для распознавания образа V1, а другой (R2) — для распознавания образа V2.
Такой перцептрон будет обучен (то есть будет надежно идентифицировать образы V1 и
V2), если уровень сигнала на выходе R1 превышает уровень сигнала на выходе R2, когда
распознается объект образа V1, и наоборот, если распознается объект образа V2.
Разделение объектов на два образа можно провести и с помощью только одного R-
элемента. Тогда можно не измерять уровни сигнала, а менять его полярность. В этом случае
объекту образа V1 может, например, соответствовать положительная реакция R-элемента, а
объектам образа V2 — отрицательная (или наоборот).
     Перцептрон обучается путем подачи на его вход обучающей выборки,
представляющей собой последовательность изображений объектов, принадлежащих
образам V1 и V2. В процессе обучения будут происходить изменения веса vi А-элементов.
В частности, если при обучении применяется система коррекции ошибок распознавания, то
она реагирует прежде всего на факт – правильно или неправильно распознал перцептрон
конкретный объект (его принадлежность к одному из двух образов). Если объект распознан
правильно, то веса связей всех «сработавших» А-элементов, ведущих к R-элементу,
выдавшему правильное решение, увеличиваются, а веса «несработавших» А-элементов
остаются неизменными. Можно оставлять неизменными и веса сработавших А-элементов,
но тогда надо уменьшать веса несработавших. В некоторых случаях веса сработавших
связей увеличивают, а несработавших — уменьшают. После достижения требуемой
надежности распознавания на обучающей выборке обучение прекращается и перцептрон
может самостоятельно (без учителя) идентифицировать новые объекты данного образа.
     Если перцептрон действует по описанной схеме и в нем допускаются лишь связи,
идущие от бинарных S-элементов к A-элементам и от A-элементов к единственному R-
элементу, то такой перцептрон принято называть элементарным α-перцептроном.
     В теории ИНС доказано несколько теорем, определяющие основные свойства
перцептрона. Приведем неформальное толкование двух из них, являющихся основными.
Теорема 1 доказывает, что для любой обучающей последовательности всегда можно
подобрать такой конечный набор А-элементов, с помощью которого будет осуществлено
разделение обучающей последовательности линейной функцией (6.1.1).
             n
R j = Θ j + ∑ vi j xi
            i =1
Теорема 2 доказывает, что если для обучающей последовательности можно найти
конечный набор А-элементов, обеспечивающий ее разделение линейной функцией вида
(6.1.1), то такое решение будет достигнуто за конечный промежуток времени.
      Эти теоремы имеют практическое значение. Оно заключается в том , что ими
доказывается практическая реализуемость обучения перцептрона на любой обучающей
выборке.
     Обычно в теории ИНС исследуются свойства бесконечного перцептрона - с
бесконечным числом А-элементов и всевозможными связями их с S-элементами. В таких
перцептронах распознание любого образа всегда осуществимо, а значит оно осуществимо и
для α-перцептронов с коррекцией ошибок.
     Анализ возможностей применения однослойных перцептронов показал, что разделить
пространство образов на области, относящиеся к различным понятиям, с помощью
линейных разделяющих функций, как правило, не удается. Для этого необходимо создавать

                                                                                     166