Методы обработки ЭД. Методы обработки экспериментальных данных
Скачать 5.37 Mb.
|
Вопросы ?КЛАССИФИКАЦИЯ В РАСПОЗНАВАНИИ ОБРАЗОВСхема системы распознаванияОбъект Датчики Формирователь информативных признаков Класси- фикатор Решение Система распознавания образов состоит из нескольких подсистем: x 2 x 1 G 2 G 1 0 ) , ( 2 1 x x 0 ) , ( 2 1 x x 0 ) , ( 2 1 x x Обучающая выборка и решающее правило для случая двух информативных признаков x1, x2 и двух классов. Одномерный вариант Рассматриваем m классов (полную группу несовместных случайных событий) и один дискретный информативный признак X. По формуле Байеса вычисляем апостериорные вероятности для всех рассматриваемых классов: Выносим решение об истинности того класса (с номером ), для которого апостериорная вероятность максимальная: Многомерный вариант Для простоты считаем, что имеются два информативных признака X и Y. X принимает возможные значения x1,…,xn1, Y принимает возможные значения y1,…,yn2. По формуле Байеса вычисляем апостериорные вероятности для всех рассматриваемых классов: Выносим решение об истинности того класса (с номером ), для которого апостериорная вероятность максимальная: Одномерный вариант Многомерный вариант Одномерны вариант: Апостериорные вероятности классов по формуле Байеса : если то принимается решение о 1-м классе, иначе о 2-м классе. Вероятность ошибки классификации при двух классах: Идеи классификацииСлучай 1. Известны полностью условные плотности распределения вероятности для признаков: Двумерный случай Одномерный случай Идеи классификацииСлучай 2. Условные плотности распределения вероятности для признаков известны не полностью, а с точностью до параметров: Неизвестные параметры θ1 и θ2 доопределяются с помощью одного из методов математической статистики, например с помощью метода максимального правдоподобия, на основе обучающей выборки. Дальнейшая классификация проводится, как и в случае 1. По обучающей выборке доопределяются и априорные вероятности: Идеи классификацииСлучай 3. Условные плотности распределения вероятности неизвестны, но известна обучающая выборка. Здесь возможны два варианта. Вариант 1. Восстанавливается решающая функция. Вариант 2. По обучающей выборке восстанавливаются условные плотности Идеи классификацииСлучай 4. Число классов неизвестно и нет обучающей выборки. Вернее, нет учителя, который мог бы измерения признаков разбить на группы, соответствующие своим классам. Это самая сложная и распространенная на практике ситуация. Приходится строить самообучающиеся системы классификации. По количеству максимумов определяем кол-во классов Минимум позволяет разбить выборку на две части – точка c0 (нулевое приближение). Далее строится процедура последовательного (итерационного) расчета порога c. В итоге получаем случай 3. |