Среда, 08.05.2024, 17:03
Приветствую Вас Гость | RSS

Мой сайт

Меню сайта
Наш опрос
Оцените мой сайт
Всего ответов: 0
Статистика

Онлайн всего: 1
Гостей: 1
Пользователей: 0

2.7. Возможности перцептрона

<ПЕРЦЕПТРОН

<РАНЕЕ>    HOME>

2.7. Возможности перцептрона

        Исследования перцептронов показали, что перцептроны способны обучаться. Справедлива теорема о сходимости перцептрона, согласно которой независимо от начальных значений коэффициентов и порядка показа образцов при обучении перцептрон за конечное число шагов научится различать два класса объектов, если только существует такая классификация.

 

        Важно при этом уметь различать представляемость и обучаемость. Понятие представляемости относится к способности персептрона (или другой сети) моделировать определенную функцию. Обучаемость же требует существования систематической процедуры настройки весов сети для реализации этой функции.

 

        Для иллюстрации проблемы представляемости, допустим, что у нас есть множество карт, помеченных цифрами от 0 до 9. Допустим также, что мы обладаем гипотетической машиной, способной отличать карты с нечетным номером от карт с четным номером и зажигающей индикатор на своей панели при предъявлении карты с нечетным номером. Представима ли такая машина персептроном? То есть, возможно ли сконструировать персептрон и настроить его веса (неважно, каким образом) так, чтобы он обладал такой же разделяющей способностью? Если это достижимо, то говорят, что персептрон способен представлять желаемую машину.

  

        Как будет осуществлено конструирование этой машины, при этом не имеет значения. Возможно, будет использована супер-ЭВМ и подготовленные заранее эталоны, представленные в алгебраической форме. И потребуется перебор миллиона вариантов. Но описание системы будет получено, и она может быть выполнена «в железе», или программно. И заработает сразу, без настройки.

 

        Обучение же представляет настройку параметров некой стандартной системы, обладающей некоторыми, заранее известными характеристиками, после которой он сможет моделировать заданную функцию (обладать необходимыми разделяющими способностями).

 

        Возможности представления однослойных персептронов весьма ограниченны. Имеется много простых машин, которые не могут быть представлены персептроном, независимо от того, как настраиваются его веса.

 

        Доказательство теоремы обучения персептрона показало, что персептрон способен научиться всему, что он способен представлять.

 

        Первые успехи исследований перцептронов и других нейросетей вызвал взрыв активности и энтузиазма. М. Минский, Ф. Розенблатт, Б. Уидроу и другие разработали множество разновидностей искусственных нейронных сетей. Ключ к интеллекту, казалось, найден, и для воспроизведения человеческого мозга нужно  лишь создать искусственную нейросеть достаточно большой сети.

 

        Иллюзия вскоре рассеялась - возможности перцептронов оказались довольно ограниченными. Серьезный математический анализ  перцептронов был проведен М.Минским и С. Пейпертом. Впоследствии, работа Вассермана, вызвала новый всплеск активности в области искусственных нейронных сетей, началось их применение для решения практически задач, но это уже не связывалось с построением моделей мозга. К сожалению, некоторыенеточности в его работе привели к ряду недоразумений.

 

        Например, Вассерманом была предложена классификация искусственных нейроных сетей на основе подсчета числа обучаемых слоев связей, а не по числу структурных элементов сети. Но такая классификация проблематична. Классический перцептрон сам автор называет трёхслойным, однако у него два слоя взвешивающих сумматоров с порогом, а классификация по числу обучаемых слоев предполагала называть его однослойным. К сожалению, это сказалось не только на терминологии, но и на неверном представлении о перцептроне как простейшем пороговом элементе. Совершенно не учитывалась роль первого, необучаемого слоя.

 

        Структура, состоящая из нескольких соединенных слоев пороговых элементов, называется многослойным перцептроном. Термин появляется у Розенблатта, но его не стоит идентифицировать с современными сетями, обучающимися с помощью алгоритма обратного распространения. Это достаточно разные модели нейросетей, но которые во многом эквивалентны друг другу в общем случае, и специфичны для разного рода задач.

 

<ДАЛЕЕ>

 

Вход на сайт
Поиск
Календарь
«  Май 2024  »
ПнВтСрЧтПтСбВс
  12345
6789101112
13141516171819
20212223242526
2728293031