Методы и алгоритмы принятия решений в управлении учебным процессом в условиях неопределенности. Найханова Л.В - 20 стр.

UptoLike

20
конкатенацию битовых представлений признаков альтернативы: a
i1
a
i2
a
im
Первая эвристика предполагает, что на начальном этапе существует несколько
альтернатив. Тогда после кодирования альтернатив с целью увеличения мощности
множества А можно перейти к алгоритмам кроссовера и затем мутации. Множество
альтернатив согласно терминологии искусственных нейронных сетей называются особями.
Кроссоверу подвергаются n особей с заданной вероятностью P
c
. Случайным образом n
строк разбиваются на n/2 пары. Для каждой пары с вероятностью P
c
может применяться
кроссовер. Соответственно с вероятностью 1-P
c
кроссовер не происходит, и неизмененные
особи переходят на стадию мутации. Если кроссовер происходит, полученные потомки
заменяют собой родителей и переходят к мутации.
Одноточечный кроссовер работает следующим образом. Сначала случайным образом
выбирается одна из l-1 точек разрыва. (Точка разрыва - участок между соседними битами в
строке.) Обе родительские структуры разрываются на два сегмента по этой точке. Затем
соответствующие сегменты различных родителей склеиваются и получаются два генотипа
потомков.
После того, как закончится стадия кроссовера, выполняются операторы мутации. В
каждой строке, которая подвергается мутации, каждый бит с вероятностью P
m
изменяется на
противоположный. Популяция, полученная после мутации, записывается поверх старой и
этим цикл одного поколения завершается. Последующие поколения обрабатываются таким
же образом: отбор, кроссовер и мутация.
Для работы алгоритма отбора необходимо определить функцию приспособленности,
которая в общем случае может совпадать с целевой функцией.
Для выбора родительской пары можно использовать следующие методы селекции:
случайный выбор пар; по принципу «дальнего родства»; по принципу «близкого родства».
В первом методе селекции оба родителя выбираются случайным образом. Во втором
первый родитель выбирается случайным образом, в качестве второго родителя берется особь
наиболее отдаленная (функция приспособленности сильно отличается от функции
приспособленности первого родителя). В третьем методе родителями становятся пары с
близкими и высокими функциями приспособленности, но разные по структуре. Выбор
случайных и сильно отличающихся пар повышает генетическое разнообразие в популяции.
Нейрон состоит из двух основных элементов: адаптивного сумматора, нелинейного
преобразователя (функция активации). На вход искусственных нейронных сетей подается
сигнал (на один нейрон подается n сигналов): значение нейрона и его весовой коэффициент.
Адаптивный сумматор нейрона перемножает значение нейрона и его весовой коэффициент и
складывает все перемноженные значения. Функция активации работает на выход, т.е. выход
нейрона. Она может иметь, например, сигмоидальный характер или вид пороговой функции
(0 или 1; 1 и -1).
Нейросетевые методы применяются тогда, когда исходное число альтернатив невелико
и из них нужно сгенерировать большое число альтернатив. Это возможно, когда значения
структурных элементов альтернативы (нейрона) могут принимать значения из области
допустимого интервала. Если набор структурных элементов однозначно определяет
альтернативу, то этот метод использовать нельзя.
Уточнение набора альтернатив. В некоторых задачах не требуется сокращение или
увеличение мощности первичного множества альтернативнеобходимо только их
уточнение. В этом случае лучше всего использовать методы экспертного опроса.
Однако в связи с тем, что при управлении учебным процессом решаются задачи
распределения, то для генерации множества альтернатив-распределений необходимо
разработать специальный метод генерации таких альтернатив, основанный на одном из
вышеизложенных эвристических алгоритмов.
конкатенацию битовых представлений признаков альтернативы: ai1 ⋅ ai2 ⋅ … ⋅ aim⋅
      Первая эвристика предполагает, что на начальном этапе существует несколько
альтернатив. Тогда после кодирования альтернатив с целью увеличения мощности
множества А можно перейти к алгоритмам кроссовера и затем мутации. Множество
альтернатив согласно терминологии искусственных нейронных сетей называются особями.
      Кроссоверу подвергаются n особей с заданной вероятностью Pc. Случайным образом n
строк разбиваются на n/2 пары. Для каждой пары с вероятностью Pc может применяться
кроссовер. Соответственно с вероятностью 1-Pc кроссовер не происходит, и неизмененные
особи переходят на стадию мутации. Если кроссовер происходит, полученные потомки
заменяют собой родителей и переходят к мутации.
      Одноточечный кроссовер работает следующим образом. Сначала случайным образом
выбирается одна из l-1 точек разрыва. (Точка разрыва - участок между соседними битами в
строке.) Обе родительские структуры разрываются на два сегмента по этой точке. Затем
соответствующие сегменты различных родителей склеиваются и получаются два генотипа
потомков.
      После того, как закончится стадия кроссовера, выполняются операторы мутации. В
каждой строке, которая подвергается мутации, каждый бит с вероятностью Pm изменяется на
противоположный. Популяция, полученная после мутации, записывается поверх старой и
этим цикл одного поколения завершается. Последующие поколения обрабатываются таким
же образом: отбор, кроссовер и мутация.
      Для работы алгоритма отбора необходимо определить функцию приспособленности,
которая в общем случае может совпадать с целевой функцией.
      Для выбора родительской пары можно использовать следующие методы селекции:
случайный выбор пар; по принципу «дальнего родства»; по принципу «близкого родства».
      В первом методе селекции оба родителя выбираются случайным образом. Во втором –
первый родитель выбирается случайным образом, в качестве второго родителя берется особь
наиболее отдаленная (функция приспособленности сильно отличается от функции
приспособленности первого родителя). В третьем методе родителями становятся пары с
близкими и высокими функциями приспособленности, но разные по структуре. Выбор
случайных и сильно отличающихся пар повышает генетическое разнообразие в популяции.
      Нейрон состоит из двух основных элементов: адаптивного сумматора, нелинейного
преобразователя (функция активации). На вход искусственных нейронных сетей подается
сигнал (на один нейрон подается n сигналов): значение нейрона и его весовой коэффициент.
Адаптивный сумматор нейрона перемножает значение нейрона и его весовой коэффициент и
складывает все перемноженные значения. Функция активации работает на выход, т.е. выход
нейрона. Она может иметь, например, сигмоидальный характер или вид пороговой функции
(0 или 1; 1 и -1).
      Нейросетевые методы применяются тогда, когда исходное число альтернатив невелико
и из них нужно сгенерировать большое число альтернатив. Это возможно, когда значения
структурных элементов альтернативы (нейрона) могут принимать значения из области
допустимого интервала. Если набор структурных элементов однозначно определяет
альтернативу, то этот метод использовать нельзя.
      Уточнение набора альтернатив. В некоторых задачах не требуется сокращение или
увеличение мощности первичного множества альтернатив – необходимо только их
уточнение. В этом случае лучше всего использовать методы экспертного опроса.
      Однако в связи с тем, что при управлении учебным процессом решаются задачи
распределения, то для генерации множества альтернатив-распределений необходимо
разработать специальный метод генерации таких альтернатив, основанный на одном из
вышеизложенных эвристических алгоритмов.




                                          20