Главная страница
Навигация по странице:

  • Рис. 25.6.

  • Рис. 25.7.

  • Шаг 5

  • Инструменты Oracle Data Mining и Deductor

  • Oracle Data Mining - функциональные возможности

  • Прогнозирующие модели Краткая характеристика алгоритмов классификации

  • Support Vector Machine . Регрессия

  • Поиск существенных атрибутов

  • Дескрипторные модели Алгоритмы кластеризации

  • Аналитическая платформа Deductor Состав и назначение

  • Поддержка процесса от разведочного анализа до отображения данных

  • Архитектура Deductor Studio

  • Последовательность действий

  • Рис. 26.4.

  • Рис. 26.5.

  • Описание аналитических алгоритмов

  • Рис. 26.6.

  • Предварительные знания


    Скачать 3.17 Mb.
    НазваниеПредварительные знания
    АнкорDataMining.pdf
    Дата02.03.2017
    Размер3.17 Mb.
    Формат файлаpdf
    Имя файлаDataMining.pdf
    ТипДокументы
    #3306
    страница31 из 34
    1   ...   26   27   28   29   30   31   32   33   34
    Шаг 1. Работу в Data Miner начнем с подменю "Добыча данных" в меню "Анализ" (
    рис.
    25.6
    ). Выбрав пункт "Добытчик данных - Мои процедуры" или "Добытчик данных - Все процедуры", мы запустим рабочую среду STATISTICA Data Mining.
    Рис. 25.6. Пункт "Добытчик данных"
    290

    Шаг 2. Для примера возьмем файл Boston2.sta из папки примеров STATISTICA. В следующем примере анализируются данные о жилищном строительстве в Бостоне. Цена участка под застройку классифицируется как Низкая - Low, Средняя - Medium или
    Высокая - High в зависимости от значения зависимой переменной Price. Имеется один категориальный предиктор - Cat1 и 12 порядковых предикторов - Ord1-Ord12. Весь набор данных, состоящий из 1012 наблюдений, содержится в файле примеров Boston2.sta. Выбор таблицы показан на рис. 25.7
    Рис. 25.7. Выбор таблицы для анализа
    Шаг 3. После выбора файла появится окно диалога "Выберите зависимые переменные и предикторы", показанное на рис. 25.8 291

    Рис. 25.8. Выбор зависимых переменных и предикторов
    Выбираем зависимые переменные (непрерывные и категориальные) и предикторы
    (непрерывные и категориальные), исходя из знаний о структуре данных, описанной выше.
    Нажимаем OK.
    Шаг 4. Запускаем "Диспетчер узлов" (нажимаем на кнопку в окне Data Miner). В данном диалоге, показанном на рис. 25.9
    , мы можем выбрать вид анализа или задать операцию преобразования данных.
    Рис. 25.9. "Диспетчер узлов"
    Диспетчер узлов включает в себя все доступные процедуры для добычи данных. Всего доступно около 260 методов фильтрации и очистки данных, методов анализа. По
    292
    умолчанию, процедуры помещены в папки и отсортированы в соответствии с типом анализа, который они выполняют. Однако пользователь имеет возможность создать собственную конфигурацию сортировки методов.
    Для того чтобы выбрать необходимый анализ, необходимо выделить его на правой панели и нажать кнопку "вставить". В нижней части диалога дается описание выбираемых методов.
    Выберем, для примера, Descriptive Statistics и Standard Classification Trees with Deployment
    (C And RT) . Окно Data Miner выглядит следующим образом.
    Рис. 25.10. Окно Data Miner с узлами выбранных анализов
    Источник данных в рабочей области Data Miner автоматически будет соединен с узлами выбранных анализов. Операции создания/удаления связей можно производить и вручную.
    Шаг 5. Теперь выполним проект. Все узлы, соединенные с источниками данных активными стрелками, будут проведены.
    293

    Рис. 25.11. Окно Data Miner после выполнения проекта
    Далее можно просмотреть результаты (в столбце отчетов). Подробные отчеты создаются по умолчанию для каждого вида анализа. Для рабочих книг результатов доступна полная функциональность системы STATISTICA.
    Шаг 6. На следующем шаге просматриваем результаты, редактируем параметры анализа.
    Кроме того, в диспетчере узлов STATISTICA Data Miner содержатся разнообразные процедуры для классификации и Дискриминантного анализа, Регрессионных моделей и
    Многомерного анализа, а также Обобщенные временные ряды и прогнозирование. Все эти инструменты можно использовать для проведения сложного анализа в автоматическом режиме, а также для оценивания качества модели.
    294

    Инструменты Oracle Data Mining и Deductor
    Oracle Data Mining
    В марте 1998 компания Oracle [112] объявила о совместной деятельности с 7 партнерами - поставщиками инструментов Data Mining. Далее последовало включение в Oracle8i средств поддержки алгоритмов Data mining. В июне 1999 года Oracle приобретает Darwin
    (Thinking Machines Corp.). В 2000-2001 годах выходят новые версии Darwin, Oracle Data
    Mining Suite. В июне 2001 года выходит Oracle9i Data Mining.
    Oracle Data Mining является опцией или модулем в Oracle Enterprise Edition (версия Oracle
    Database 10g). Опция Oracle Data Mining (ODM) предназначена для анализа данных методами, относящимися к технологии извлечения знаний, или Data Mining. В редакциях
    Personal Edition, Standard Edition, OneStandard Edition эта опция недоступна.
    ODM поддерживает все этапы технологии извлечения знаний, включая постановку задачи, подготовку данных, автоматическое построение моделей, анализ и тестирование результатов, использование моделей в реальных приложениях [113].
    Существенно, что модели строятся автоматически на основе анализа имеющихся данных об объектах, наблюдениях и ситуациях с помощью специальных алгоритмов. Основу опции ODM составляют процедуры, реализующие различные алгоритмы построения моделей классификации, регрессии, кластеризации.
    На этапе подготовки данных обеспечивается доступ к любым реляционным базам, текстовым файлам, файлам формата SAS. Дополнительные средства преобразования и очистки данных позволяют изменять вид представления, проводить нормализацию значений, выявлять неопределенные или отсутствующие значения. На основе подготовленных данных специальные процедуры автоматически строят модели для дальнейшего прогнозирования, классификации новых ситуаций, выявления аналогий.
    ODM поддерживает построение пяти различных типов моделей. Графические средства предоставляют широкие возможности для анализа полученных результатов, верификации моделей на тестовых наборах данных, оценки точности и устойчивости результатов.
    Уточненные и проверенные модели можно включать в существующие приложения путем генерации их описаний на С, C++, Java, а также разрабатывать новые специализированные приложения с помощью входящего в состав среды ODM средства разработки Software
    Development Kit (SDK).
    Важной особенностью системы ODM являются его технические характеристики: работа в архитектуре клиент-сервер, широкое использование техники параллельных вычислений, высокая степень масштабируемости при увеличении вычислительных ресурсов.
    Характеристики Oracle Data Mining [114]:

    Встроенные в Oracle Database алгоритмы извлечения знаний (DataMining Server).

    DM-инфраструктура вместо готовой инструментальной среды.

    API для разработки.
    295

    Встроенные алгоритмы извлечения знаний позволяют упростить процесс извлечения знаний, устраняют необходимость дополнительного перемещения и хранения данных.
    Обладают производительностью и масштабируемостью.
    Oracle Data Mining API. Использование Java API для разработки на Java основано на принципах JDM (стандарт для Data Mining).
    Версия Data Mining 10g поддерживает спектр алгоритмов, которые приведены в таблице
    26.1
    Таблица 26.1. Алгоритмы, реализованные в Oracle Data Mining
    Классификационные модели
    Na_ve Bayes, Adaptive Bayes Network
    Классификации и регрессионные модели Support Vector Machine
    Поиск существенных атрибутов
    Minimal Descriptor Length
    Кластеризация
    Enhanced K-means, O-cluster
    Поиск ассоциаций
    Apriory Algorithm
    Выделение признаков
    Non-Negative Matrix Factorization
    Особенность алгоритмов, реализованных в Oracle Data Mining, состоит в том, что все они работают непосредственно с реляционными базами данных и не требуют выгрузки и сохранения данных в специальных форматах. Кроме собственно алгоритмов, в опцию
    ODM входят средства подготовки данных, оценки результатов, применения моделей к новым наборам данных. Использовать все эти возможности можно как на программном уровне с помощью Java API или PL/SQL API, так и с помощью графической среды ODM
    Client, которая ориентирована на работу аналитиков, решающих задачи прогнозирования, выявления тенденций, сегментации и другие.
    Oracle Data Mining - функциональные возможности
    Функции - Oracle Data Mining строит прогнозирующие и дескрипторные модели.
    Прогнозирующие модели:

    классификация;

    регрессия;

    поиск существенных атрибутов.
    Дескрипторные модели:

    кластеризация;

    поиск ассоциаций;

    выделение признаков.
    296

    Прогнозирующие модели
    Краткая характеристика алгоритмов классификации
    Алгоритмы Naive Bayes (NB):

    Работает быстрее, чем ABN (по времени построения модели).

    Этот алгоритм лучше использовать для числа атрибутов < 200.

    Точность алгоритма меньше, чем в ABN.
    Adaptive Bayes Network (ABN):

    Этот алгоритм лучше для большого числа атрибутов.

    Наглядность модели (генерация правил).

    Более точные модели, чем в NB.

    Больше параметров настройки.
    Support Vector Machine.
    Регрессия
    Регрессия применяется для прогнозирования непрерывных величин. Простейшим случаем является линейная регрессия. Используется также метод Support Vector Machine.
    Поиск существенных атрибутов
    Основная задача - выявление атрибутов, наиболее важних для прогнозирования целевых значений. Используется для ускорения процесса построения классификационной модели.
    Используемый алгоритм - Minimum Descriptor Length (MDL).
    Дескрипторные модели
    Алгоритмы кластеризации
    Алгоритм Enhanced k-means Clustering
    В этом алгоритме число кластеров изначально задается пользователем. Кластеризация проводится только по числовым атрибутам, их число не должно быть слишком велико.
    Количество записей может быть каким угодно.
    Алгоритм O-Cluster
    Этот алгоритм, в отличие от предыдущего, автоматически определяет число кластеров. Он может работать как с числовыми, так и с категориальными атрибутами. Может работать с большим числом атрибутов, т.е. более 10, и с большим количеством записей, более 1000.
    297

    Аналитическая платформа Deductor
    Состав и назначение аналитической платформы Deductor (разработчик - компания
    BaseGroup Labs [115]). Deductor состоит из двух компонентов: аналитического приложения Deductor Studio и многомерного хранилища данных Deductor Warehouse [48] .
    Архитектура системы Deductor представлена на рис. 26.1
    Рис. 26.1. Архитектура системы Deductor
    Deductor Warehouse - многомерное хранилище данных, аккумулирующее всю необходимую для анализа предметной области информацию. Использование единого хранилища позволяет обеспечить непротиворечивость данных, их централизованное хранение и автоматически создает всю необходимую поддержку процесса анализа данных. Deductor Warehouse оптимизирован для решения именно аналитических задач, что положительно сказывается на скорости доступа к данным.
    Deductor Studio - это программа, предназначенная для анализа информации из различных источников данных. Она реализует функции импорта, обработки, визуализации и экспорта данных. Deductor Studio может функционировать и без хранилища данных, получая информацию из любых других источников, но наиболее оптимальным является их совместное использование.
    Поддержка процесса от разведочного анализа до отображения данных
    Deductor Studio позволяет пройти все этапы анализа данных. Схема на рис. 26.2 отображает процесс извлечения знаний из данных.
    298

    Рис. 26.2. Процесс извлечения знаний из данных в Deductor Studio
    Рассмотрим этот процесс более детально.
    На начальном этапе в программу загружаются или импортируются данные из какого-либо произвольного источника. Хранилище данных Deductor Warehouse является одним из источников данных. Поддерживаются также другие, сторонние источники:

    текстовый файл с разделителями;

    Microsoft Excel;

    Microsoft Access;

    Dbase;

    CSV-файлы;

    ADO-источники - позволяют получить информацию из любого ODBC-источника (Oracle, MS
    SQL, Sybase и прочее).
    Обычно в программу загружаются не все данные, а какая-то выборка, необходимая для дальнейшего анализа.
    После получения выборки можно получить подробную статистику по ней, посмотреть, как выглядят данные на диаграммах и гистограммах.
    После такого разведочного анализа можно принимать решения о необходимости предобработки данных. Например, если статистика показывает, что в выборке есть пустые значения (пропуски данных), можно применить фильтрацию для их устранения.
    Предобработанные данные далее подвергаются трансформации. Например, нечисловые данные преобразуются в числовые, что необходимо для некоторых алгоритмов.
    299

    Непрерывные данные могут быть разбиты на интервалы, то есть производится их дискретизация.
    К трансформированным данным применяются методы более глубокого анализа. На этом этапе выявляются скрытые зависимости и закономерности в данных, на основании которых строятся различные модели. Модель представляет собой шаблон, который содержит формализованные знания.
    Последний этап - интерпретация - предназначен, чтобы из формализованных знаний получить знания на языке предметной области.
    Архитектура Deductor Studio
    Вся работа по анализу данных в Deductor Studio базируется на выполнении следующих действий:

    импорт данных;

    обработка данных;

    визуализация;

    экспорт данных.
    На рис. 26.3
    показана схема функционирования Deductor Studio. Отправной точкой для анализа всегда является процедура импорта данных. Полученный набор данных может быть обработан любым из доступных способов.
    Рис. 26.3. Схема функционирования Deductor Studio
    300

    Результатом обработки также является набор данных, который, в свою очередь, опять может быть обработан. Импортированный набор данных, а также данные, полученные на каждом этапе обработки, могут быть экспортированы для последующего использования в других, например, в учетных системах. Поддерживаются следующие форматы:

    хранилище данных Deductor Warehouse ;

    Microsoft Excel;

    Microsoft Word;

    HTML;

    XML;

    Dbase;

    буфер обмена Windows;

    текстовой файл с разделителями.
    Результаты каждого действия можно отобразить различными способами:

    OLAP-кубы (кросс-таблица, кросс-диаграмма);

    плоская таблица;

    диаграмма, гистограмма;

    статистика;

    анализ по принципу "что-если";

    граф нейросети;

    дерево - иерархическая система правил;

    прочее.
    Способ возможных отображений зависит от выбранного метода обработки данных.
    Например, нейросеть содержит визуализатор "Граф нейросети", специфичный только для нее. Некоторые способы визуализации пригодны почти для всех методов обработки, например, в виде таблицы, диаграммы или гистограммы.
    Последовательность действий, которые необходимо провести для анализа данных, называется сценарием.
    Сценарий можно автоматически выполнять на любых данных. Типовой сценарий изображен на рис. 26.4 301

    Рис. 26.4. Типовой сценарий Deductor Studio
    Архитектура Deductor Warehouse
    Deductor Warehouse - многомерное хранилище данных, аккумулирующее всю необходимую для анализа предметной области информацию. Вся информация в хранилище содержится в структурах типа "звезда", где в центре расположены таблицы фактов, а "лучами" являются измерения. Пример такой структуры представлен на рис.
    26.5
    Рис. 26.5. Пример структуры типа "звезда"
    Такая архитектура хранилища наиболее адекватна задачам анализа данных.
    Каждая "звезда" называется процессом и описывает определенное действие.
    302

    В Deductor Warehouse может одновременно храниться множество процессов, имеющим общие измерения.
    Что представляет собой хранилище Deductor Warehouse ? Физически - это реляционная база данных, которая содержит таблицы для хранения информации и таблицы связей, обеспечивающие целостное хранение сведений. Поверх реляционной базы данных реализован специальный слой, который преобразует реляционное представление к многомерному. Многомерное представление используется потому, что оно намного лучше реляционного соответствует идеологии анализа данных. Благодаря этому слою пользователь оперирует многомерными понятиями, такими как "измерение" или "факт", а система автоматически производит все необходимые манипуляции, необходимые для работы с реляционной СУБД.
    Deductor Warehouse реализует универсальное многомерное хранение, т.е. может содержать множество процессов с различным количеством измерений и фактов.
    Настройка процессов, задание измерений, свойств и фактов задается при первой загрузке в хранилище данных. Вся работа с хранилищем осуществляется средствами Deductor
    Studio.
    Описание аналитических алгоритмов
    Кроме консолидации данных, работа по созданию законченного аналитического решения содержит несколько этапов.
    Очистка данных. На этом этапе проводится редактирование аномалий, заполнение пропусков, сглаживание, очистка от шумов, обнаружение дубликатов и противоречий.
    Трансформация данных. Производится замена пустых значений, квантование, табличная замена значений, преобразование к скользящему окну, изменение формата набора данных.
    Data Mining. Строятся модели с использованием нейронных сетей, деревьев решений, самоорганизующихся карт, ассоциативных правил.
    Интерпретация результатов.
    На рис. 26.6
    представлены алгоритмы, используемые в программе, сгруппированные по назначению.
    303

    Рис. 26.6. Алгоритмы, используемые в Deductor
    Группа 1. Очистка данных
    Редактирование аномалий
    Автоматическое редактирование аномальных значений осуществляется с применением методов робастной фильтрации, в основе которых лежит использование робастных статистических оценок, таких, например, как медиана. При этом можно задать эмпирически подобранный критерий того, что считать аномалией. Например, задание в качестве степени подавления аномальных данных значения "слабая" означает наиболее терпимое отношение к величине допустимых выбросов.
    Заполнение пропусков
    В программе предусмотрено два способа заполнения пропущенных данных.

    Аппроксимация - пропущенные данные восстанавливаются методом аппроксимации.

    Максимальное правдоподобие - алгоритм подставляет наиболее вероятные значения вместо пропущенных данных.
    Метод аппроксимации рекомендуется использовать в рядах, где данные упорядочены. В этом методе применяется последовательный рекуррентный фильтр второго порядка
    (фильтр Калмана). Входные данные последовательно подаются на вход фильтра, и если очередное значение ряда отсутствует, оно заменяется значением, которое экстраполируется фильтром.
    304

    Метод максимального правдоподобия рекомендуется применять на неупорядоченных данных. При использовании этого метода строится плотность распределения вероятностей, и отсутствующие данные заменяются значением, соответствующим ее максимуму.
    Сглаживание
    Для сглаживания рядов данных в программе используются два алгоритма.
    Первый способ сглаживания - это низкочастотная фильтрация с использованием быстрого преобразования Фурье. При этом задается верхнее значение полосы пропускаемых частот.
    При подавлении шумов на основе анализа распределения составляющих Фурье спектра на выход фильтра пропускаются спектральные составляющие, которые превышают некоторый порог, рассчитанный по эмпирическим формулам в соответствии с заданным критерием степени вычитания шума. Чем больше требуется сгладить данные, тем меньше должно быть значение полосы. Однако слишком узкая полоса может привести к потере полезной информации. Следует заметить, что этот алгоритм наиболее эффективен, если анализируемые данные есть сумма полезного сигнала и белого шума.
    Второй способ сглаживания - это вейвлет-преобразование. Если выбран данный метод, то необходимо задать глубину разложения и порядок вейвлета. "Масштаб" отсеиваемых деталей зависит от глубины разложения: чем больше эта величина, тем более "крупные" детали в исходных данных будут отброшены. При достаточно больших значениях параметра (порядка 7-9) выполняется не только очистка данных от шума, но и их сглаживание ("обрезаются" резкие выбросы). Использование слишком больших значений глубины разложения может привести к потере полезной информации из-за слишком высокой степени "огрубления" данных. Порядок вейвлета определяет гладкость восстановленного ряда данных: чем меньше значение параметра, тем ярче будут выражены "выбросы", и наоборот - при больших значения параметра "выбросы" будут сглажены.
    1   ...   26   27   28   29   30   31   32   33   34


    написать администратору сайта