Прикладные интеллектуальные системы, основанные на мягких вычислениях. Ярушкина Н.Г. - 13 стр.

UptoLike

Составители: 

Рубрика: 

13
Глава 1. ФУНДАМЕНТАЛЬНЫЕ ЗАДАЧИ ВЫЧИСЛИТЕЛЬНОГО
ИНТЕЛЛЕКТА
1.1. Фундаментальные и технологические причины конвергенции
нейроинформатики и искусственного интеллекта
В современной нейроинформатике соотношение фундаментальных и тех-
нологических задач складывается в пользу технологических. Отметим, что
фундаментальные задачи: моделирование ощущений, восприятий, распознава-
ние образов, обучение и запоминание паттернов являются основными задачами
когнитивной науки. Технологические задачи связаны с повышением эффектив-
ности использования нейронных сетей в решении задач кластеризации, класси-
фикации образов и сцен, аппроксимации функций для процессов технической,
экономической, биологической природы. Достижения нейроинформатики в
решении технологических задач привели к созданию целого спектра разнооб-
разных нейронных сетей: сетей с прямым распространением сигнала, рекур-
рентных сетей, радиально базисных сетей. Созданы развитые архитектуры гиб-
ридных систем: нечетких нейронных сетей, нечетких нейронных сетей с гене-
тической настройкой параметров.
Ситуация в нейроинформатике требует вернуться к фундаменталь-
ным когнитивным задачам и выяснить, позволяют ли новые классы ней-
ронных и гибридных систем решать новые когнитивные задачи.
Объектом анализа будут служить нечеткие нейронные сети с генетиче-
ской оптимизацией параметров, так как они обладают комплексной структурой
и сложными алгоритмами обучения, интегрирующими структурные части раз-
личных нейронных сетей. Следовательно, именно гибридные системы, как
можно предположить, должны обладать сильным когнитивным потенциалом.
Далее будем называть именно их гибридными системами. Гибридные системы
включают в себя слои радиально базисных нейронов, логических нейронов,
традиционных пороговых суммирующих нейронов. Алгоритм их обучения
обычно комбинирует соревновательное обучение (по алгоритму победителя),
генетическую оптимизацию параметров и классический метод обратного рас-
пространения ошибки [1].