Главная страница
Навигация по странице:

  • 1.5. Список литературы 1. Амамия, М. Архитектура ЭВМ и ИИ / М. Амамия, Ю. Танака. – М. : Мир, 1993. 32

  • кр. Ю. Ю. Громов, О. Г. Иванова, В. В. Алексеев, М. П. Беляев, Д. П. Швец, аи. Елисеев интеллектуальные информационные системы и технологии


    Скачать 2.03 Mb.
    НазваниеЮ. Ю. Громов, О. Г. Иванова, В. В. Алексеев, М. П. Беляев, Д. П. Швец, аи. Елисеев интеллектуальные информационные системы и технологии
    Дата17.02.2023
    Размер2.03 Mb.
    Формат файлаpdf
    Имя файлаgromov2-a.pdf
    ТипДокументы
    #941483
    страница4 из 20
    1   2   3   4   5   6   7   8   9   ...   20
    1.4. Контрольные вопросы и задания
    1. Охарактеризуйте основные направления исследований, проводимые в области искусственного интеллекта.
    2. Приведите известные вам примеры применения интеллектуальных систем в различных проблемных областях.
    3. Перечислите признаки характерные для интеллектуальных информационных систем.
    4. Назовите основные функции, присущие ИИС и способы их реализации.
    5. Сформулируйте основные отличия систем искусственного интеллекта от обычных программных средств.
    6. Дайте краткую характеристику систем с интеллектуальным интерфейсом, экспертных систем, самообучающихся систем и адаптивных информационных систем.
    7. Перечислите основные типы систем с интеллектуальным интерфейсом и дайте им краткую характеристику.

    31
    8. Перечислите основные типы ЭС и дайте им краткую характеристику. Перечислите основные типы самообучающихся информационных систем и дайте им краткую характеристику.
    10. Перечислите основные типы адаптивных информационных систем и дайте им краткую характеристику.
    11. Перечислите и охарактеризуйте основные компоненты статических экспертных систем.
    12. Поясните отличие динамических экспертных систем от статических. Охарактеризуйте экспертную систему последующим параметрам типу приложения, стадии существования, масштабу, типу проблемной среды, типу решаемой задачи.
    14. Расскажите о подходах, применяемых к построению экспертных систем.
    15. Назовите типы задач, которые решаются с применением ЭС. Приведите примеры.
    16. Назовите специалистов, которые привлекаются для разработки экспертных систем, и поясните их функции.
    17. Назовите парадигмы программирования и дайте их краткую характеристику.
    18. Назовите типичные модели представления знаний в экспертных системах.
    19. Расскажите об основных характеристиках инструментальных средств, предназначенных для разработки интеллектуальных информационных систем.
    20. Назовите известные вам языки программирования и соответствующие им парадигмы программирования.
    21. Перечислите этапы промышленной технологии создания интеллектуальных систем.
    22. Опишите основные технологические этапы разработки экспертных систем идентификацию, концептуализацию, формализацию, выполнение, тестирование, опытную эксплуатацию.
    23. Расскажите о механизмах вывода в экспертных системах.
    24. Расскажите, что вызнаете о языке CLIPS.
    25. Приведите пример конкретной экспертной системы, используя для её характеристики признаки, которые приведены в данной главе.
    1.5. Список литературы
    1. Амамия, М. Архитектура ЭВМ и ИИ / М. Амамия, Ю. Танака. – М. : Мир, 1993.

    32
    2. Андрейчиков, А.В. Компьютерная поддержка изобретательства (методы, системы, примеры, применения) / А.В. Андрейчиков, ОН. Андрейчикова. – М. : Машиностроение, 1998.
    3. Буров, К. Обнаружение знаний в хранилищах данных / К. Буров Открытые системы. – 1999. – № 5, 6.
    4. Гаврилова, ТА. Базы знаний интеллектуальных систем / ТА. Гаврилова, В.Ф. Хорошевский. – СПб. : Питер, 2000.
    5. Зарипов, Р. Машинный поиск вариантов при моделировании творческого процесса / Р. Зарипов. – М. : Наука, 1983.
    6. Искусственный интеллект Справочник. В х кн. Кн. 1: Системы общения и экспертные системы / под ред. ЭВ. Попова. – М. : Радио и связь, 1990.
    7. Поспелов, ГС. Искусственный интеллект – основа новой информационной технологии / ГС. Поспелов. – М. : Наука, 1988.
    8. Искусственный интеллект Справочник. В х кн. Кн. 3: Программные и аппаратные средства / под ред. В.А. Захарова, В.Ф. Хоро- шевского. – М. : Радио и связь, 1990.
    9. Ларичев, О.И. Системы, основанные на экспертных знаниях история, современное состояние и некоторые перспективы / О.И. Ла- ричев // Седьмая национальная конференция по искусственному интеллекту с международным участием : сб. науч. тр. – М. : Изд-во физи- ко-математической литературы, 2000.
    10. Масалович, АИ. От нейрона к компьютеру / АИ. Масало- вич // Журнал доктора Добба. – 1992. – № 1.
    11. Статические и динамические экспертные системы : учеб. пособие ЭВ. Попов, И.Б. Фоминых, Е.Б. Кисель, М.Д. Шапот. – М. : Финансы и статистика, 1996.
    12. Тельное, Ю.Ф. Интеллектуальные информационные системы в экономике : учеб.пособие / Ю.Ф. Тельное. – М. : СИНТЕГ, 1998.
    13. Финн, В.К. Правдоподобные рассуждения в интеллектуальных системах типа ДСМ / В.К. Финн // Итоги науки и техники. Сер. Информатика. Т. 15. Интеллектуальные информационные системы М. : ВИНИТИ, 1991.
    14. Цуриков, В.М. Проект Изобретающая машина – интеллектуальная среда поддержки инженерной деятельности / В.М. Цуриков // Журнал ТРИЗ. – 1991.– № 21.
    15. Элти, Дж. Экспертные системы концепции и примеры / Дж. Элти, М. Кумбс ; перс англ. – М. : Финансы и статистика, 1987.
    16. Bouchet, С. SHELLY: An integrated workbench for KBS devel- opment / С. Bouchet, С. Brunet, A. Anjewierden // Proc. of 9th Int. Work- shop Expert Syst. and their Appl. – France, Avignon, 1989. – No. 1.

    33
    17. Durkin, J. Expert Systems: a view of the field / J. Durkin // IEEE
    Expert. – 1996. – No. 2.
    18. Motta, E. Methodological foundations of KEATS, the knowledge
    Engineer's Assistant / E. Motta, Т. Rajan, J. Dominigue, M. Eisenstadt //
    Knowledge Acquisition. – 1991. – No. 3.
    19. VITAL: A methodology-based workbench for KBS life cycle
    Support // ESPRIT – II Project 5365, 1990.
    2. НЕЙРОННЫЕ СЕТИ Особенностью интеллектуальных систем является способность решать слабоструктурированные и плохо формализованные задачи. Эта способность основана на применении различных методов моделирования рассуждений для обработки символьной информации. Традиционным подходом к построению механизмов рассуждения является использование дедуктивного логического вывода на правилах (rule- based reasoning), который применяется в экспертных системах продукционного и логического типа (см. главу 1). При таком подходе необходимо заранее сформулировать весь набор закономерностей, описывающих предметную область. Альтернативный подход основан на концепции обучения по примерам (case-based reasoning). В этом случае при построении интеллектуальной системы не требуется заранее знать обо всех закономерностях исследуемой области, но необходимо располагать достаточным количеством примеров для настройки разрабатываемой адаптивной системы, которая после обучения будет способна получать требуемые результаты с определённой степенью достоверности. В качестве таких адаптивных систем применяются искусственные нейронные сети.
    2.1. Модель искусственного нейрона Искусственная нейронная сеть (ИНС) – это упрощённая модель биологического мозга, точнее нервной ткани [2, 5, 9, 12]. Естественная нервная клетка (нейрон) состоит из тела (сомы, содержащего ядро, и отростков – дендритов, по которым в нейрон поступают входные сигналы. Один из отростков, ветвящийся на конце, служит для передачи выходных сигналов данного нейрона другим нервным клеткам. Он называется аксоном. Соединение аксона с дендритом другого нейрона называется синапсом. Нейрон возбуждается и передаёт сигнал через аксон, если число пришедших по дендритам возбуждающих сигналов больше, чем число тормозящих.

    34 Сеть ИНС представляет собой совокупность простых вычислительных элементов – искусственных нейронов, каждый из которых обладает определённым количеством входов (дендритов) и единственным выходом (аксоном, разветвления которого подходят к синапсам, связывающим его с другими нейронами. На входы нейрона поступает информация извне или от других нейронов. Каждый нейрон характеризуется функцией преобразования входных сигналов в выходной функция возбуждения нейрона. Нейроны в сети могут иметь одинаковые или разные функции возбуждения. Сигналы, поступающие на вход нейрона, неравнозначны в том смысле, что информация из одного источника может быть более важной, чем из другого. Приоритеты входов задаются с помощью вектора весовых коэффициентов, моделирующих синаптическую силу биологических нейронов. Модель искусственного нейрона (рис. 2.1) представляет собой дискретно-непрерывный преобразователь информации. Информация, поступающая на вход нейрона, суммируется с учётом весовых коэффициентов, сигналов х, i = 1, .., n, где n – размерность пространства входных сигналов. Потенциал нейрона определяется по формуле Рис. 2.1. Схема кибернетической модели нейрона

    =
    =
    n
    i
    i
    i
    x
    w
    P
    1
    х
    1
    х
    2
    х
    i
    х
    n
    w
    n
    w
    j
    w
    i
    w
    1
    f
    (P)
    Y = f
    (P)

    35
    a) б) в) Рис. 2.2. Функции переноса искусственных нейронов а – линейная б – ступенчатая в – сигмоидальная Взвешенная сумма поступивших сигналов (потенциал) преобразуется с помощью передаточной функции f Р) в выходной сигнал нейрона, который передается другим нейронам сети, те. Y = f Р. Вид передаточной (активационной) функции является важнейшей характеристикой нейрона. В общем случае эта функция может быть ступенчатой (пороговой, линейной или нелинейной (рис. 2.2). Пороговая функция пропускает информацию только в том случае, если алгебраическая сумма входных сигналов превышает некоторую постоянную величину Р, например
    



    <


    =
    если
    ,
    1
    ;
    если
    ,
    1
    *
    *
    P
    P
    P
    P
    Y
    Пороговая функция не обеспечивает достаточной гибкости ИНС при обучении. Если значение вычисленного потенциала не достигает заданного порога, то выходной сигнал не формируется, и нейрон не срабатывает. Это приводит к снижению интенсивности выходного сигнала нейрона и, как следствие, к формированию невысокого значения потенциала взвешенных входов в следующем слое нейронов. Линейная функция Y = kP дифференцируема и легко вычисляется, что в ряде случаев позволяет уменьшить ошибки выходных сигналов в сети, так как передаточная функция сети также является линейной. Однако она не универсальна и не обеспечивает решения многих задач.
    Определённым компромиссом между линейной и ступенчатой функциями является сигмоидальная функция переноса
    (
    )
    kp
    e
    Y

    +
    =
    1
    /
    1
    , которая удачно моделирует передаточную характеристику биологического нейрона (рис. 2.2, в) Коэффициент k определяет крутизну нелинейной функции чем больше k, тем ближе сигмоидальная функция к
    Y
    Y
    Y
    P
    P
    P
    –1 0,5 1

    36 пороговой чем меньше k, тем она ближе к линейной. Подобно ступенчатой функции она позволяет выделять в пространстве признаков множества сложной формы, в том числе невыпуклые и несвязные. При этом сигмоидальная функция, в отличие от ступенчатой, не имеет разрывов. Она дифференцируема, как и линейная функция, и это качество можно использовать при поиске экстремума в пространстве параметров ИНС. Тип функции переноса выбирается с учётом конкретной задачи, решаемой с применением нейронных сетей. Например, в задачах аппроксимации и классификации предпочтение отдают логистической
    (сигмоидальной) кривой. Нейронная сеть представляет собой совокупность искусственных нейронов, организованных слоями. При этом выходы нейронов одного слоя соединяются с входами нейронов другого. В зависимости от топологии соединений нейронов ИНС подразделяются на одноуровневые и многоуровневые, с обратными связями и без них. Связи между слоями могут иметь различную структуру. В однолинейных сетях каждый нейрон (узел) нижнего слоя связан с одним нейроном верхнего слоя. Если каждый нейрон нижнего слоя со- единён с несколькими нейронами следующего слоя, то получается пирамидальная сеть. Воронкообразная схема соединений предполагает связь каждого узла верхнего слоя со всеми узлами нижнего уровня. Существуют также древовидные и рекуррентные сети, содержащие обратные связи с произвольной структурой межнейронных соединений. Чтобы построить ИНС для решения конкретной задачи, нужно выбрать тип соединения нейронов, определить вид передаточных функций элементов и подобрать весовые коэффициенты межнейрон- ных связей [1, 2, 5 – 7, 12]. При всём многообразии возможных конфигураций ИНС на практике получили распространение лишь некоторые из них. Классические модели нейронных сетей рассмотрены ниже.
    2.2. Модели нейронных сетей Теоретические основы нейроматематики были заложены вначале х гг. Попытки построить машины, способные к разумному поведению, были в значительной мере вдохновлены идеями отца кибернетики Норберта Винера, который писал в своей знаменитой работе Кибернетика или управление и связь в животном и машине, что все машины, претендующие на разумность, должны обладать способностью преследовать определённые цели и приспосабливаться, те. обучаться. Идеи Винера были применены Дж. Маккалохом и У. Питтсом, которые разработали собственную теорию деятельности головного

    37 мозга [3], основанную на предположении, что функционирование компьютера и мозга сходно. К главным результатам их работы относятся следующие модель нейрона в виде простейшего процессорного элемента, который вычисляет значение переходной функции от скалярного произведения вектора входных сигналов и вектора весовых коэффициентов конструкция нейронной сети для выполнения логических и арифметических операций предположение о том, что нейронная сеть способна обучаться, распознавать образы, обобщать полученную информацию. В формализме Дж. Маккалоха и У. Питтса нейроны имеют пороговую функцию перехода из состояния в состояние. Каждый нейрон в сети определяет взвешенную сумму состояний всех других нейронов и сравниваете с порогом, чтобы определить своё собственное состояние. Аппаратная реализация ИНС на основе пороговых элементов, оперирующих двоичными числами, оказалась чрезвычайно трудной из-за высокой стоимости электронных элементов в то время. Самые совершенные системы тогда содержали лишь сотни нейронов, в то время как нервная система муравья содержит более 20 тыс.
    Серьёзное развитие нейрокибернетика получила в трудах американского нейрофизиолога Ф. Розенблата, который предложил свою модель нейронной сети в 1958 г. и продемонстрировал созданное на её основе электронное устройство, названное перцептроном [8]. Розенб- лат Ф. ввёл возможность модификации межнейронных связей, что сделало ИНС обучаемой. Первые перцептроны были способны распознавать некоторые буквы латинского алфавита. Впоследствии модель перцептрона была значительно усовершенствована, а наиболее удачным её применением стали задачи автоматической классификации. Алгоритм обучения перцептрона включает следующие шаги.
    1. Системе предъявляется эталонный образ.
    2. Если результат распознавания совпадает с заданным, весовые коэффициенты связей не изменяются.
    3. Если ИНС неправильно распознаёт результат, то весовым коэффициентам даётся приращение в сторону повышения качества распознавания. Теоретический анализ перцептрона, проведённый М. Минскими С. Пейпертом [4], показал его ограниченные возможности, поскольку не всегда существует такая комбинация весовых коэффициентов, при которой заданное множество образов будет распознаваться правильно. Причина этого недостатка состоит в том, что однослойный перцептрон реализует линейную поверхность, разделяющую пространство эталонов, вследствие чего происходит неверное распознавание образов в

    38 случаях, когда задача не является линейно сепарабельной. Для решения таких проблем предложены модели многослойных перцептронов, способные строить ломаную границу между распознаваемыми образами. Несмотря на то, что перцептрон Розенблата имел невысокие возможности обучения, разработка этой концепции привлекла внимание исследователей к проблеме ИНС и привела к созданию более разумных интеллектуальных систем. Многослойные сети. В многослойных сетях устанавливаются связи только между нейронами соседних слов, как показано на рис. 2.3. Каждый элемент может быть соединён модифицируемой связью с любым нейроном соседних словно между элементами одного слоя связей нет. Каждый нейрон может посылать выходной сигнал только в вышележащий слой и принимать входные сигналы только с нижерас- положенного слоя. Входные сигналы подаются на нижний слой, а выходной вектор сигналов определяется путём последовательного вычисления уровней активности элементов каждого слоя (снизу вверх) с Рис. 2.3. Схема многослойного перцептрона Вектор входных сигналов
    Входной слой
    Скрытый слой
    Скрытый слой
    Выходной слой
    Выходной вектор

    39 использованием уже известных значений активности элементов предшествующих слов. При распознавании образов входной вектор соответствует набору признаков, а выходной – распознаваемым образам. Скрытый слой (один или несколько) предназначен для отражения специфики знаний. В таких сетях обычно используются передаточные сигмоидальные функции. Структура нейронной сети определяется типом, например 25–10–5, те. двадцать пять узлов находится в первом слое, десять – вскрытом и пять – в выходном. Определение числа скрытых слови числа нейронов в каждом слое для конкретной задачи является неформальной проблемой, при решении которой можно использовать эвристическое правило число нейронов в следующем слоев два раза меньше, чем в предыдущем. Выше отмечалось, что простой перцептрон с одним слоем обучаемых связей формирует границы областей решений в виде гиперплоскостей. Двухслойный перцептрон может выполнять операцию логического И над полупространствами, образованными гиперплоскостями первого слоя весов. Это позволяет формировать любые выпуклые области в пространстве входных сигналов. С помощью трёхслой- ного перцептрона, используя логическое ИЛИ для комбинирования выпуклых областей, можно получить области решений произвольной формы и сложности, в том числе невыпуклые и несвязные. То, что многослойные перцептроны с достаточным множеством внутренних нейроподобных элементов и соответствующей матрицей связей в принципе способны осуществлять любое отображение вход–выход, отмечали ещё М. Минский и С. Пейперт, однако они сомневались, что для таких процедур можно открыть мощный аналог процедуры обучения простого перцептрона. В настоящее время в результате возрождения интереса к многослойным сетям предложено несколько таких процедур. Одной из них является алгоритм обратного распространения ошибки, который будет рассмотрен ниже. Рекуррентные сети. Они содержат обратные связи, благодаря которым становится возможным получение отличающихся значений выходов при одних и тех же входных данных. Наличие рекуррентных нейронов позволяет ИНС накапливать знания в процессе обучения. Рекуррентные сети (рис. 2.4) являются развитием модели Хоп- филда на основе применения новых алгоритмов обучения, исключающих попадание системы в локальные минимумы на поверхности энергетических состояний. Важной особенностью рекуррентных сетей является их способность предсказывать существование новых классов объектов.

    1   2   3   4   5   6   7   8   9   ...   20


    написать администратору сайта