Нейрон. Нейроинформатика
Скачать 262.14 Kb.
|
НЕЙРОИНФОРМАТИКАНейрон Математический нейрон Мак-Каллока – Питтса Персептрон Розенблатта Многослойный персептрон Задачи, решаемые с помощью нейросетей Невербальность и "шестое чувство" нейросетей Методы обучения нейросетей Подготовка входных параметров Рекуррентные сети 1. НейронНейронные сети и нейрокомпьютеры – это одно из направлений компьютерной индустрии, в основе которого лежит идея создания искусственных интеллектуальных устройств по образу и подобию человеческого мозга.Нейроны человеческого мозгаАксон Дендриты Синапсы простейший нейрон может иметь до 10 000 дендритов человеческий мозг содержит примерно 1011 нейронов каждый нейрон связан с 103-104 другими нейронами мозг человека содержит 1014-1015 взаимосвязей 2. Математический нейрон Мак-Каллока – Питтса1943 г. Уоррен Мак-Каллок и Вальтер Питтс выдвинули гипотезу математического нейрона математический нейрон имеет несколько входов и один выход через входы (j) математический нейрон принимает входные сигналы (xj) входные сигналы умножаются на весовой коэффициент (wj) и суммируются выходной сигнал нейрона у является нелинейная функция f(S), которая называется активационной Активационная функцияа) функция единого скачка ( – порог чувствительности нейрона); б) линейный порог (гистерезис); в) и г) сигмоид (логистическая функция). S y 0 1 S y 0 1 а) б) S y 0 1 y 1 в) г) S 0 Математические нейроны, реализующие логические функцииматематический нейрон изображают кружочком возбуждающий вход – стрелкой тормозящий вход – маленьким кружочком рядом может записываться число, показывающее значение порога x1 x2 y = 2 "И" x1 x2 y = 1 "ИЛИ" x y = 0 "НЕТ" 3. Персептрон РозенблаттаИдея Мак-Каллока – Питтса была реализована Фрэнком Розенблаттом:1958 г. в виде компьютерной программы 1960 г. в виде электронного устройства, моделирующего человеческий глаз Итерационный алгоритм корректировки весовых коэффициентовШаг 1. Подать входной образ и вычислить выход персептрона у Шаг 2, а. Если выход правильный, то перейти на шаг 1 Шаг 2, б. Если выход неправильный и равен нулю, то увеличить веса активных входов, например: wj(t + 1) = wj(t) + хjШаг 2, в. Если выход неправильный и равен единице, то уменьшить веса активных входов, например:wj(t + 1) = wj(t) - хjШаг 3. Перейти на шаг 1 или завершить процесс обучения.4. Многослойный персептронМ. Минский и С. Пайперт в своей книге "Персептроны" строго математически доказали, что однослойные персептроны в принципе не способны решать многие простые задачи Многие понимали, что надо усложнять структуру персептронов Двухслойный персептрон, реализующий функцию "Исключающее ИЛИ"№ 1 № 2 № 3 w = 0,5 w = 0,5 w = 1 w = 1 w = - 0,5 w = - 0,5 x1 y1 x2 Алгоритм обратного распространения ошибкиШаг 1. Инициализация синаптических весов и смещений Шаг 2. Представление из обучающей выборки входного вектора Xq = (х1, х2, ..., xN)q и соответствующего ему выходного вектора Dq = (d1, d2, …, dM)q Шаг 3. Прямой проход Шаг 4. Обратный проход Шаг 5. Повторение шагов 2–4 необходимое число раз на 5 шаге алгоритма вычисляется среднеквадратичная ошибка, усредненная по всем обучающим примерам: также вычисляется максимальная разность между желаемым и фактическим выходами персептрона: итерационный процесс заканчивается после того, как погрешность , достигнет заданной величины, либо при достижении предельного числа эпох обучения. если есть математическая модель какого-то процесса, то изучая влияние входных параметров на выходные, можно решить задачу оптимизации моделируемого процесса если математическая модель является нестационарной, то её можно использовать для решения задач прогнозирования если математическая модель работает в реальном режиме времени, то результаты математического моделирования могут быть оперативно переданы оператору, управляющему объектом, или могут быть непосредственно введены в приборы, что позволяет решать задачи управления моделируемым объектом или процессом нейронные сети могут решать задачи распознавания и классификации образов, причем под образами понимаются зрительные изображения, символы, тексты, запахи, звуки, шумы Как и человеческий мозг, нейросеть способна выводить закономерности, делать догадки, открывать законы природы. Но, так же, как и человек, нейросеть не способна к чёткой формулировке алгоритма, позволившего сделать то или иное умозаключение. Известны случаи, когда нейросети демонстрируют феномен, называемый в жизни шестым чувством. Они с успехом извлекают знания из анализа информации, из которой, казалось бы, эти знания извлечь невозможно. Методы обучения нейросетейдетерминистскиестохастическиеподстройка весов представляет собой жёсткую последовательность действий подстройка весов производится на основе действий, подчиняющихся некоторому случайному процессу основная проблема обучения персептронов состоит в том, что поверхность функции ошибок обычно имеет очень сложную форму со множеством локальных минимумов. актуальным является развитие методов глобальной оптимизации, которые позволяют найти глобальный минимум многоэкстремальной целевой функции Генетический алгоритмпредложен Дж. Холландом в 1970-х годах имитирует природный оптимизационный процесс, происходящий при эволюции живых организмов основные идеи теории Чарльза Дарвина: естественный отбор и генетическое наследование мутация – изменение генов Операция скрещивания, применяемая в генетических алгоритмахa1 a2 Хромосома отца b1 b2 Хромосома матери a1 b2 Хромосома 1-го потомка b1 a2 Хромосома 2-го потомка Подготовка входных параметровуспех создания нейронной сети во многом зависит от удачного подбора обучающих примеров следует учитывать, что не все параметры предметной области влияют на выходной вектор Y незначимые параметры не следует включать в список параметров входного вектора X на первом этапе в вектор X включают как можно больше параметров Определение незначимых параметрованализа значений весовых коэффициентов входных нейронов. Если у какого-либо входного нейрона синаптические веса значительно меньше, чем у других нейронов, то этот входной нейрон скорее всего соответствует незначимому параметру вектора X возмущения значений входных параметров и анализа реакции сети на эти возмущения. Если сеть не реагирует или слабо реагирует на изменения значения какого-либо входного параметра, то этот параметр не является значимым Рекуррентные сетиz-1 z-1 x1 x2 y1 y2 x1 x2 y1(t) y2(t) y1(t+1) y2(t+1) z-1 z-1 z-1 z-1 z-1 x(t) y(t) N-1 P … … |