Neironnye seti v pakete statistica neural networks

Preview:

DESCRIPTION

 

Citation preview

Нейронные сети

Полежаев Илья

StatSoft®

Russia

Физическая аналогия

Как он работает?

Современная биология:•Клетка - элементарный процессор, способный к простейшей обработке информации

•Нейрон - элемент клеточной структуры мозга

•Нейрон осуществляет прием и передачу информации в виде импульсов нервной активности

•Природа импульсов - электрохимическая

Интересные данные Тело клетки имеет размер 3 - 100 микрон Гигантский аксон кальмара имеет толщину

1 миллиметр и длину несколько метров Потенциал, превышающий 50 мВ изменяет

проводимость мембраны аксона Общее число нейронов в ЦНС человека

порядка 100.000.000.000 Каждая клетка связана в среднем с 10.000

других нейронов Совокупность в объеме 1 мм*3 -

независимая локальная сеть

Нервная ткань: Лишена регенерации Её нейроны способны формировать

новые отростки и синаптические контакты

Развитие нейронных ответвлений сопровождается конкуренцией за синаптические участки

Специфическая изменчивость нейронных сетей лежит в основе их способности к обучению

Формальный нейрон

Нелинейное преобразование

Маккалок - Питтс

Линейная

Сигмоидальная

Перцептрон Розенблата

S- сенсорные, А - ассоциативные, R - рефлекторные

Розенблат: нейронная сеть рассмотренной архитектуры будет способна к воспроизведению любой

логической функции. (неверное предположение)

Обучение сети Обучить нейронную сеть это значит,

сообщить ей, чего от нее добиваются. Показав ребенку изображение буквы и

получив неверный ответ, ему сообщается тот, который хотят получить.

Ребенок запоминает этот пример с верным ответом и в его памяти происходят изменения в нужном направлении.

Обучение перцептрона Начальные значения весов

всех нейронов полагаются случайными.

Сети предъявляется входной образ xв результате формируется выходной образ.

Обучение перцептрона

Вычисляется вектор ошибки, делаемой сетью на выходе.

Идея: изменение вектора весовых коэффициентов в области малых ошибок должно быть пропорционально ошибке на выходе.

Обучение перцептрона Вектор весов модифицируется по следующей

формуле:

- темп обучения.

Параметры Обучение проводится для всех

обучающих векторов. Один цикл предъявления всей

выборки называется эпохой. Обучение завершается по истечении

нескольких эпох, когда вектор весов перестанет значимо меняться.

Возможности примененияТеорема о полноте:

Любая непрерывная функция может быть приближена функциями, вычисляемыми нейронными сетями.

Нейронные сети являются универсальными структурами, позволяющими реализовать

любой алгоритм!

Этапы построения сети Выбор архитектуры сети

– Число входов– Функции активации– Как соединить нейроны– Что взять за вход, что за выход

Подбор весов (обучение сети) Построить вручную Воспользоваться пакетом

нейросетевого моделирования

STATISTICANeural Networks

Программный пакет для создания и обучения нейронных сетей и

работы с нейросетевыми моделями

StatSoft®

Russia

Исключительная простота в работе Советник по конструированию сети Мастер решения задач

Богатые средства визуализации

STATISTICA Neural Networks

STATISTICA Neural Networks:работа с данными

Структура таблиц исходных данных:– числовые и номинальные переменные;– входные и выходные переменные;– подмножества наблюдений.

Импорт файлов различных форматов, использование буфера обмена.

Подготовка данных: встроенные алгоритмы пре- и пост-процессирования.

STATISTICA Neural Networks:построение сетей

Создание и сохранение наборов сетей. Выбор типа сети:

– многослойные персептроны (MLP);– радиальные базисные функции (RBF);– вероятностные и обобщенно-регрессионные сети

(PNN и GRNN);– сети Кохонена.

Задание функции ошибок, функций активации и PSP-функций различных слоев.

Доступ к весам всех нейронов сети.

STATISTICA Neural Networks:обучение сетей

Большой выбор алгоритмов обучения:– обратное распространение ошибки;– спуск по сопряженным градиентам;– квази-ньютоновский и Левенберга-Маркара;– метод псевдообратных матриц.

Использование кросс-проверки. Задание условий остановки. Контроль за процессом обучения с

помощью графика среднеквадратичной ошибки и гистограммы ошибок наблюдений.

STATISTICA Neural Networks:работа с сетью

Оценки качества обучения и работы сети:– статистики регрессии;– статистики классификации;– построение поверхностей отклика.

Прогон всего набора данных и отдельных наблюдений.

Построение прогноза временного ряда.

STATISTICA Neural Network:дополнительные функции

Генетический алгоритм отборавходных данных

Нелинейное понижение размерности Регуляризация весов по Вигенду Анализ чувствительности Введение матрицы потерь Операционные характеристики

STATISTICA Neural Networks:создание приложений

Взаимодействие с системой STATISTICA: передача данных и графиков.

Встроенный интерфейс прикладного программирования (API) для создания приложений в среде Visual Basic и C++.

Новая функция - генератор программного кода на языке Си.

Прогнозирование результатов выборов

президента США

Условия моделирования

Предвыборные компании кандидатов отработаны добросовестно

Все участники сделали все возможное Выбор практически предопределяется

лишь объективными признаками? Прогноз составлялся в 1992 году по

данным выборов начиная с 1864

Входные данные Правящая партия у власти более 1 срока? Правящая партия получила больше 50% на

прошлых выборах? В год выборов была активна третья партия? Была серьезная конкуренция при

выдвижении кандидата от правящей партии?

Входные данные Кандидат от правящей партии был

президентом в год выборов? Был ли год выборов временем спада или

депрессии? Был ли рост среднего национального

валового продукта на душу населения более 2,1%?

Произвел ли правящий президент существенные изменения в политике?

Входные данные Во время правления были

существенные социальные волнения? Администрация правящей партии

виновна в серьезной ошибке или скандале?

Кандидат правящей партии - национальный герой?

Кандидат оппозиционной партии - национальный герой?

Создание сети

Обучение

Активизируем случай 1992 года

Прогноз

Результат = 2 - прогнозируется победа

кандидата из оппозиции

Анализ чувствительности

Нажатие этой кнопки автоматически исключает незначимые переменные

из анализа

На основе экспертных данных выявить факторы, наиболее

влияющие на прибыль предприятия

Представлены факторы

Затраты на материалы Объем зарплаты Производительность труда Курс доллара США

Обучение

Регрессия построена

Анализ чувствительности

Объем зарплаты и производительность труда сильно влияют

на прибыль предприятия

Анализ и прогнозированиеобъема продаж сетей

автозаправочныхстанций в США

График временного ряда

Выходная переменная автоматически подается

на вход сети

Intelligent problem solver

Intelligent problem solver

Процесс поиска сети

Обсуждение результатовГлубинапрогноза

Отправнаяточка

Необходимо переобучитьсеть

Результаты

Возможнопереобучение!

Качество результатов сравнимо

с классическими методами.

Качество прогнозаДля повышения качества прогноза

рекомендуется добавить к исходной переменной ряд, определяемый как

Dy(t)=y(t)-y(t-1)

Точность прогноза увеличилась на порядок!

Модель распределенной нейронной памяти

Каждый нейрон может находиться в двух состояниях:– S1 = +1 - возбужденное

– S2 = - 1 - покой

Нейроны связаны между собой синаптическими связями, которые бывают возбуждающие и тормозящие.

Модель распределенной нейронной памяти

ТормозящийS1 = +1 S2 = - 1

ВозбуждающийS1 = +1 S2 = + 1

Связь можно описывать коэффециентом: 1ijJ

- потенциальная энергия связи 211212 SSJE

Любая система предоставленная самой себе стремится к минимуму своей потенциальной

энергии.

minEij

ij

jiij,ii,jiN1

ij JJ0J,jiJ

Модель Хопфилда коэффициентов межнейронных связей, когда в сети запомнено

p образов.

Образ

Каждому образу соответствует локальный энергетический минимум!

Бимодальный образ

Качественный вид потенциальной функции Хопфилда

Модель Хакена

Образы описываются параметрами порядка: d1 и d2

Переменные, описывающие степень насыщения внимания: k1 и k2

Уравнения насыщения

)dk1(gk)dk1(gk

)AdBdk(dd)BdAdk(dd

2

2

22

22

111

222

21222

21111

При некотором соотношении между константамиА, B, g имеет место осцилляция внимания!

Период колебаний При зрительном восприятии:

T = 10c При смысловой неоднозначности:

«Продается собака. Неприхотлива в еде. Любит детей.»

T = 0.1cРазница объясняется существенной

разницей нервного вещества, вовлеченного в эти процессы.

Мы обсудили Проблему неоднозначности в

искусстве Биологические нейронные сети Математические модели нейронных

сетей Возможности пакета SNN Задачу: прогноз результатов выборов

президента США

Мы обсудили Задачу: выявление показателей,

влияющих на валовую прибыль предприятия (регрессионная модель)

Задачу: прогнозирование временного ряда

Способ оценки периода колебаний зрительных образов в сознании

Recommended