СОДЕРЖАНИЕ
1. ОБЩИЕ ПОЛОЖЕНИЯ
1.1. Определение.
1.2 Параллели из биологии.
1.2.1. Подробности из физиологии
1.3. Исторический аспект.
1.4. Искусственные нейронные сети сегодня.
1.5. Перспективы на будущее.
2. ПЕРЦЕПТРОН.
2.1. Общие положения.
2.2. Появление перцептрона
2.3. Определения, данные Ф. Розенблаттом
2.4. Определения, данные М. Минским.
2.5. Описание элементарного перцептрона.
2.6. Алгоритмы обучения
2.6.1. Дельта поавило и правила Хэбба
2.7. Возможности модели
2.8. Традиционные заблуждения
2.9. Функциональные заблуждения
2.10. Ограничения перцептрона, описанные Минским
2.11. Ограничения, связанные с возможностью прогнозирования
2.12. Эффективность запоминания
3.1. Исуственный нейрон – Базовый принцип
3.2. Активационные функции
4. Разновидности моделей нейронов
4.1. Перцептрон
4.2. Сигмоидальный нейрон
4.3. Нейрон типа “адалайн”
4.4. Паде-нейрон
4.5. Нейрон с квадратичным сумматором
4.6. Сигма-Пи нейроны
4.7. Модель нейрона Хебба
4.8. Стохастическая модель нейрона
4.9. Кубические модели нейронов
4.9.1. Запись активации в замкнутой форме
4.9.2. Обучение кубических нейронов
4.10. Радиальный нейрон
5. Виды нейронных сетей и способы организации их функционирования
5.1. Функционирование сетей
5.2. Настройка нейронных сетей для решения задач
5.3. Константа Липшица сигмоидальной сети6.0. Обучение искусственных нейронных сетей
6. Обучение искусственных нейронных сетей
6.1. Градиентные алгоритмы обучения сети
6.2. Обучение с учителем
6.3. Обучение без учите
6.4. Методики обучения сетей Хэбба
6.5. Смешанное обучение
6.6. Обучение методом соревнования
6.7. Метод обучения Уидроу—Хоффа
6.8. Метод статистического обучения
6.9. Самоорганизация
7. Методы глобальной оптимизации
7.1. Алгоритмы имитации отжига
7.2. Генетические алгоритмы
7.3. Метод виртуальных частиц
74. Четыре типа устойчивости
8. Методы инициализации весов
9 Однонаправленные многослойные сети сигмоидального типа
9_1 Подходы к обучению многослойного персептрона
9_2 Возможности обобщения
10 Процедура обратного распространения
10.1. Используемые модели
10.2 Обучающий алгоритм обратного распространения
10.2.1 Проход вперед.
10.2.2 Подстройка весов выходного слоя
10.2.3 Подстройка весов скрытого слоя
10.2.4 Добавление смещения
10.2.5 Импульс
10_3 Трудности, связанные с обратным распространением
11 работа_с Обр_Распр
11_1 Переобучение
11_2 Отбор данных
12 Радиальные нейросети
12_1 Математические основы радиальных сетей
12_2 Радиальная нейронная сеть
13 Стохастичкие методы обучения нейронных сетей
13_1 Имитация отжига
13_2 Больцмановское обучение
13_3 Обучение Коши
13_3_1 Обратное распространение и обучение Коши
13_3_2 Трудности с алгоритмом обучения Коши
13_4 Метод искусственной теплоемкости
13_5 Преодоление сетевого паралича комбинированным методом обучения0
13_6 Экспериментальные результаты
14 Рекуррентные сети
14_1 Математические основы
14_2 Бинарные сети
14_3 Сеть Хопфилда
14_3_1 Емкость сети Хопфлда
14_3_2 Распознавание образов сетями Хопфилда
14_3_2_1 Математическое обоснование
14_3_2_2 Пример1
14_3_2_3 Пример2
14_3_2_4 Пример3
14_3_3 Обучение сети Хопфилда по правилу Хебба
14_3_4 Обучение сети Хопфилда методом проекций
14_3_5 Непрерывные сети Хопфилда
14_3_6 Устойчивость
14_4 Сеть Хэмминга
15 Обобщения модели Хопфилда
15_1 Матрица Хебба с ортогонализацией образов
15_2 Отказ от симметрии синапсов
15_3 Алгоритмы разобучения
15_4 Сети Хопфилда и машина Больцмана
15_5. Статистические сети Хопфилда
15_6 Обучение обобщенных сетй
16 Двунаправленная ассоциативная память
16_1 Ассоциативная память
16_2 Работа ДАП
16_3 Кодировка ассоциаций
16_4 Емкость памяти
16_5 Непрерывная ДАП
16_6 Адаптивная ДАП
16_7 Конкурирующая ДАП
СОДЕРЖАНИЕ
1. ОБЩИЕ ПОЛОЖЕНИЯ
1.1. Определение.
1.2 Параллели из биологии.
1.2.1. Подробности из физиологии
1.3. Исторический аспект.
1.4. Искусственные нейронные сети сегодня.
1.5. Перспективы на будущее.
2. ПЕРЦЕПТРОН.
2.1. Общие положения.
2.2. Появление перцептрона
2.3. Определения, данные Ф. Розенблаттом
2.4. Определения, данные М. Минским.
2.5. Описание элементарного перцептрона.
2.6. Алгоритмы обучения
2.6.1. Дельта поавило и правила Хэбба
2.7. Возможности модели
2.8. Традиционные заблуждения
2.9. Функциональные заблуждения
2.10. Ограничения перцептрона, описанные Минским
2.11. Ограничения, связанные с возможностью прогнозирования
2.12. Эффективность запоминания
3.1. Исуственный нейрон – Базовый принцип
3.2. Активационные функции
4. Разновидности моделей нейронов
4.1. Перцептрон
4.2. Сигмоидальный нейрон
4.3. Нейрон типа “адалайн”
4.4. Паде-нейрон
4.5. Нейрон с квадратичным сумматором
4.6. Сигма-Пи нейроны
4.7. Модель нейрона Хебба
4.8. Стохастическая модель нейрона
4.9. Кубические модели нейронов
4.9.1. Запись активации в замкнутой форме
4.9.2. Обучение кубических нейронов
4.10. Радиальный нейрон
5. Виды нейронных сетей и способы организации их функционирования
5.1. Функционирование сетей
5.2. Настройка нейронных сетей для решения задач
5.3. Константа Липшица сигмоидальной сети6.0. Обучение искусственных нейронных сетей
6. Обучение искусственных нейронных сетей
6.1. Градиентные алгоритмы обучения сети
6.2. Обучение с учителем
6.3. Обучение без учите
6.4. Методики обучения сетей Хэбба
6.5. Смешанное обучение
6.6. Обучение методом соревнования
6.7. Метод обучения Уидроу—Хоффа
6.8. Метод статистического обучения
6.9. Самоорганизация
7. Методы глобальной оптимизации
7.1. Алгоритмы имитации отжига
7.2. Генетические алгоритмы
7.3. Метод виртуальных частиц
74. Четыре типа устойчивости
8. Методы инициализации весов
9 Однонаправленные многослойные сети сигмоидального типа
9_1 Подходы к обучению многослойного персептрона
9_2 Возможности обобщения
10 Процедура обратного распространения
10.1. Используемые модели
10.2 Обучающий алгоритм обратного распространения
10.2.1 Проход вперед.
10.2.2 Подстройка весов выходного слоя
10.2.3 Подстройка весов скрытого слоя
10.2.4 Добавление смещения
10.2.5 Импульс
10_3 Трудности, связанные с обратным распространением
11 работа_с Обр_Распр
11_1 Переобучение
11_2 Отбор данных
12 Радиальные нейросети
12_1 Математические основы радиальных сетей
12_2 Радиальная нейронная сеть
13 Стохастичкие методы обучения нейронных сетей
13_1 Имитация отжига
13_2 Больцмановское обучение
13_3 Обучение Коши
13_3_1 Обратное распространение и обучение Коши
13_3_2 Трудности с алгоритмом обучения Коши
13_4 Метод искусственной теплоемкости
13_5 Преодоление сетевого паралича комбинированным методом обучения0
13_6 Экспериментальные результаты
14 Рекуррентные сети
14_1 Математические основы
14_2 Бинарные сети
14_3 Сеть Хопфилда
14_3_1 Емкость сети Хопфлда
14_3_2 Распознавание образов сетями Хопфилда
14_3_2_1 Математическое обоснование
14_3_2_2 Пример1
14_3_2_3 Пример2
14_3_2_4 Пример3
14_3_3 Обучение сети Хопфилда по правилу Хебба
14_3_4 Обучение сети Хопфилда методом проекций
14_3_5 Непрерывные сети Хопфилда
14_3_6 Устойчивость
14_4 Сеть Хэмминга
15 Обобщения модели Хопфилда
15_1 Матрица Хебба с ортогонализацией образов
15_2 Отказ от симметрии синапсов
15_3 Алгоритмы разобучения
15_4 Сети Хопфилда и машина Больцмана
15_5. Статистические сети Хопфилда
15_6 Обучение обобщенных сетй
16 Двунаправленная ассоциативная память
16_1 Ассоциативная память
16_2 Работа ДАП
16_3 Кодировка ассоциаций
16_4 Емкость памяти
16_5 Непрерывная ДАП
16_6 Адаптивная ДАП
16_7 Конкурирующая ДАП
СОДЕРЖАНИЕ
1. ОБЩИЕ ПОЛОЖЕНИЯ
1.1. Определение.
1.2 Параллели из биологии.
1.2.1. Подробности из физиологии
1.3. Исторический аспект.
1.4. Искусственные нейронные сети сегодня.
1.5. Перспективы на будущее.
2. ПЕРЦЕПТРОН.
2.1. Общие положения.
2.2. Появление перцептрона
2.3. Определения, данные Ф. Розенблаттом
2.4. Определения, данные М. Минским.
2.5. Описание элементарного перцептрона.
2.6. Алгоритмы обучения
2.6.1. Дельта поавило и правила Хэбба
2.7. Возможности модели
2.8. Традиционные заблуждения
2.9. Функциональные заблуждения
2.10. Ограничения перцептрона, описанные Минским
2.11. Ограничения, связанные с возможностью прогнозирования
2.12. Эффективность запоминания
3.1. Исуственный нейрон – Базовый принцип
3.2. Активационные функции
4. Разновидности моделей нейронов
4.1. Перцептрон
4.2. Сигмоидальный нейрон
4.3. Нейрон типа “адалайн”
4.4. Паде-нейрон
4.5. Нейрон с квадратичным сумматором
4.6. Сигма-Пи нейроны
4.7. Модель нейрона Хебба
4.8. Стохастическая модель нейрона
4.9. Кубические модели нейронов
4.9.1. Запись активации в замкнутой форме
4.9.2. Обучение кубических нейронов
4.10. Радиальный нейрон
5. Виды нейронных сетей и способы организации их функционирования
5.1. Функционирование сетей
5.2. Настройка нейронных сетей для решения задач
5.3. Константа Липшица сигмоидальной сети6.0. Обучение искусственных нейронных сетей
6. Обучение искусственных нейронных сетей
6.1. Градиентные алгоритмы обучения сети
6.2. Обучение с учителем
6.3. Обучение без учите
6.4. Методики обучения сетей Хэбба
6.5. Смешанное обучение
6.6. Обучение методом соревнования
6.7. Метод обучения Уидроу—Хоффа
6.8. Метод статистического обучения
6.9. Самоорганизация
7. Методы глобальной оптимизации
7.1. Алгоритмы имитации отжига
7.2. Генетические алгоритмы
7.3. Метод виртуальных частиц
74. Четыре типа устойчивости
8. Методы инициализации весов
9 Однонаправленные многослойные сети сигмоидального типа
9_1 Подходы к обучению многослойного персептрона
9_2 Возможности обобщения
10 Процедура обратного распространения
10.1. Используемые модели
10.2 Обучающий алгоритм обратного распространения
10.2.1 Проход вперед.
10.2.2 Подстройка весов выходного слоя
10.2.3 Подстройка весов скрытого слоя
10.2.4 Добавление смещения
10.2.5 Импульс
10_3 Трудности, связанные с обратным распространением
11 работа_с Обр_Распр
11_1 Переобучение
11_2 Отбор данных
12 Радиальные нейросети
12_1 Математические основы радиальных сетей
12_2 Радиальная нейронная сеть
13 Стохастичкие методы обучения нейронных сетей
13_1 Имитация отжига
13_2 Больцмановское обучение
13_3 Обучение Коши
13_3_1 Обратное распространение и обучение Коши
13_3_2 Трудности с алгоритмом обучения Коши
13_4 Метод искусственной теплоемкости
13_5 Преодоление сетевого паралича комбинированным методом обучения0
13_6 Экспериментальные результаты
14 Рекуррентные сети
14_1 Математические основы
14_2 Бинарные сети
14_3 Сеть Хопфилда
14_3_1 Емкость сети Хопфлда
14_3_2 Распознавание образов сетями Хопфилда
14_3_2_1 Математическое обоснование
14_3_2_2 Пример1
14_3_2_3 Пример2
14_3_2_4 Пример3
14_3_3 Обучение сети Хопфилда по правилу Хебба
14_3_4 Обучение сети Хопфилда методом проекций
14_3_5 Непрерывные сети Хопфилда
14_3_6 Устойчивость
14_4 Сеть Хэмминга
15 Обобщения модели Хопфилда
15_1 Матрица Хебба с ортогонализацией образов
15_2 Отказ от симметрии синапсов
15_3 Алгоритмы разобучения
15_4 Сети Хопфилда и машина Больцмана
15_5. Статистические сети Хопфилда
15_6 Обучение обобщенных сетй
16 Двунаправленная ассоциативная память
16_1 Ассоциативная память
16_2 Работа ДАП
16_3 Кодировка ассоциаций
16_4 Емкость памяти
16_5 Непрерывная ДАП
16_6 Адаптивная ДАП
16_7 Конкурирующая ДАП
|