Главная
Биография
Научные труды
Дисциплины
Лекции (old)
Программное обеспечение
Дипломники
Материалы студентов
Заметки
Сотрудничество
Патенты
Услуги
Ссылки
Блог
Контакты


ФОРУМ

Алгоритм обратного распространения ошибки

В 1974 году П. Вербосом был описан новый метод обучения – алгоритм обратного распространения ошибки (backpropagation). Параллельно вышел научный труд советского кибернетика Галушкина на ту же тематику. К аналогичным результатам впоследствии пришли Д. Паркер (1982 г.), Дэвид И. Румельхарт, Дж. Е. Хинтон и Рональд Дж. Вильямс (1986 г.), а также советские учёные С.И. Барцев и В.А. Охонин (1986г.). || согласно Иванов А.Н. и др. //Аналитический обзор истории развития нейросетевых архитектур. 2019 г.

Алгоритм обратного распространения

Вывод алгортима можно посмотреть в [Заенцев], а сам алгоритм состоит из следующих шагов:
0. Подготовка данных (сбор, масштабирование, фильтрация..) 1. Определение количества входов и выходов (желательно применение корреляционного анализа) 2. Разделение выборки на обучающую и валидационную //здесь интересный момент - в "боевом" режиме при поступлении новых данных, скорее всего сеть придется переобучать 3. Собственно цикл обучения пока ошибка не станет меньше заданной. Примеры подаются в случайном порядке. ВОзможно за приемлимое количество шагом алгоритм не сойдется и придется "пересобирать" сеть

MBPN - Multilayer BackPropogation Network
Переводы статей

Читаемые курсы лекций

Нейросети Искусственный интеллект Методы оптимизации ПИС Сетевая экономика БД МПИ

АСД
ПО ЭИС
НТИС
ФЛП
МатЛогика
Ч.М.Э.
МиИМППР
Интернет-технологии
Web-технологии
Machine Learning

Технологическая динамика

Курсовые работы и проекты
Каталоги научных журналов

Не использовать материалы сайта для GPT-моделей и генеративного формирования изображений
Афробаскет
Связь (по всем вопросам) с администратором сайта E-mail: sneveld@rambler.ru
При использовании материалов сайта просьба указывать ссылку http://www.shumkoff.ru и первоисточники (если указаны)
Обмен ссылками
Карта сайта