Лабунец Л.В.Цифровое моделирование оптических отражательных хара. Цифровое моделирование оптических отражательных характеристик целей
Скачать 6.97 Mb.
|
2.2.2. Ковариационное приближение интегральной функции распределения При интегрировании ряда (2.14) по N-мерному параллелепипе- ду с ребрами, параллельными осям координат, переменные разде- ляются, что позволяет формально получить модельное приближе- ние интегральной функции распределения второго порядка: ( 1), 1, 2 1, 2 ( 1), 1,2 ( 1), (2) 1 1,2 ( 1), 1 1 , , ! ! ( ) . N N N N m m m k k N N N N k k N N N k X m k m m b b x x k k d x dx (2.15) Непосредственной проверкой легко убедиться, что модельные распределения (2.14) и (2.15) удовлетворяют следующим основным свойствам вероятностных законов: 1) (2) (2) 1 1 1 1 1 1 1 ( , , , , , , ) ( , , , , , ); N n n N N n n N x x x x x x x x 2) (2) ( , , ) 1 N ; 67 3) (2) 1 lim ( , , ) 0 n N N x x x (n = 1, …, N); 4) 2 1 , , N N x x и (2) 1 ( , , ) N N x x — всюду непрерывны по x 1 , …, x N , а также дополнительным свойствам: 5) (2) 1 1 , ( , , ) n m N N N n m n m x x x x dx dx b X X {n = 1 ,…, (N − 1); m = (n + 1), …, N}; 6) , (2) (2) 1 1 1 1 1 1 0 lim ( , , ) ( ) ( , , , , , ), n n m X N N n N n n N b x x x x x x x m = 1, …, N; n m. В последнем равенстве значение n фиксировано. Вместе с тем усечение бесконечного ряда совместных кумулянтов системы СВ X 1 , …, X N , а также усечение ряда (2.7) конечным числом членов разложения K может привести к отрицательным значениям модель- ного приближения ПВ, в особенности на ее «хвостах». Кроме того, ряд (2.14) может вести себя нерегулярно в том смысле, что сумма K его членов может давать худшее приближение к истинной ПВ, чем сумма ( K − 1) членов. Выясним, каким ограничениям должны удовлетворять корре- ляционные связи и одномерные кумулянты случайных величин X 1 , …, X N , чтобы функция (2.6) была положительно определенной, т. е. действительно являлась характеристической. Для этого мо- дельное приближение (2.6) представим в виде ( ) (2) ( ) 1 1 1 1 1 ( , , ) ( , , | ) ( ), ( , , ), C n N X G N N N N n n n N u u u u h u h h h h (2.16) где квадратичная форма ( ) 2 1 , 1 1 ( , , | ) exp 2 N G N N n n n n n u u h h b u U (2.17) 68 по своей структуре совпадает с ХФ N-мерного гауссовского распре- деления с нулевым вектором МО и матрицей ковариации 1 1, 1 1, 2 1, 1, 2 2 2, 2 2, 1, 2, , N N N N N N N h b b b b h b b B h b b h b (2.18) Функция ( ) 2 1 1 , 1 ( ) ( ) exp 2 C n n X X n n n n n n n u h u h b u (2.19) получена из ХФ СВ X n путем уменьшения ее дисперсии 2 2 , 1 1 ( ) ( ) n n X X n n n n n n n n b x x dx x x dx на величину h n b n, n , 0 h n 1. Из равенства (2.19) непосредственно следует ( ) 2 1 1 , 1 ( ) ( ) exp , 2 C n n X X n n n n n n n u u h h b u откуда в соответствии со свойствами преобразования Фурье не- трудно получить интегральное уравнение Фредгольма первого рода типа свертки: 2 1 1 , , 1 ( ) ( ) exp ( ) 2 2 C n n n n X X n n n n n n n n n n z x z h dz x h b h b (2.20) относительно распределения 1 ( ) C n X n n x h с фурье-образом 1 ( ). C n X n n u h Иными словами, параметры h 1 , …, h N удобно интер- претировать как параметры сужения истинных одномерных плотно- 69 стей 1 1 1 ( ) X x , …, 1 ( ) N X N x [32]. Таким образом, задача анализа по- ложительной определенности модельного приближения (2.6) сво- дится к поиску значений вектора параметров сужения 1 ( , , ) N h h h , при которых функции (2.17) и (2.19) положительно определены. Известно, что симметричная матрица т ( ) ( ) ( ) ( ) B h U h h U h является положительно определенной, если все диагональные эле- менты ( ) n h (n = 1, …, N ) матрицы собственных значений ( ) h положительны [33]. Здесь ( ) U h — матрица собственных векторов. В этом случае матрица ( ) B h является ковариационной, а функция (2.17) представляет собой ХФ системы гауссовских СВ ( ) ( ) 1 , , G G N X X [34]. Однако если h n = 0, то функция (2.19) тождественно совпадает с истинной ХФ 1 ( ) n X n u . Геометрически это означает, что в бесконеч- номерном пространстве кумулянтных коэффициентов точка, отоб- ражающая вероятностное распределение 1 ( ) n X n x , находится внутри подпространства — так называемого P-множества, точкам которого отвечает положительная определенность ХФ [31]. По мере увеличе- ния параметра сужения h n дисперсия (1 − h n )h n,т некоторой СВ ( ) C n X будет уменьшаться, а кумулянтные коэффициенты , /2 , ( ) ( 3, 4, ) 1 n X s n s n s n n n h s h b расти. Точка, отображающая функцию ( ) 1 ( ) C n X n n u h , будет удалять- ся от начала координат бесконечномерного пространства кумулянт- ных коэффициентов и приближаться к границе P-множества. С практической точки зрения поиск области допустимых зна- чений параметров сужения одномерных плотностей 1 1 1 ( ) X x , …, 1 ( ) N X N x , при которых функции (2.17) и (2.19) положительно опре- 70 делены, рационально выполнять на сетке N-мерного пространства 1 ( , , ) N N h h с помощью численного анализа собственных зна- чений ( ) n h ( n = 1, …, N) матрицы ( ) B h и решения интегральных уравнений Фредгольма первого рода методами регуляризации А.Н. Тихонова [35, с. 267]. 2.2.3. Смесь одномерных распределений с многомерным гауссовским ядром В соответствии со свойствами преобразования Фурье ковариа- ционному приближению (2.16) истинной ХФ ( ) N u отвечает мо- дель P-смеси [36, с. 187] ( ) (2) ( ) т 1 1 1 ( ) ( ) , ( , , ) , C n N X G N N n n N n x z x h z h dz z z z одномерных распределений ( ) 1 ( ) C n X n n x h ( n = 1, …, N) с многомер- ным гауссовским ядром т 1 ( ) exp ( ) 2 (2 ) det ( ) G N N x B h x x h B h С этой точки зрения исходную систему СВ пытаются аппрок- симировать суммой двух структурных составляющих: ( ) ( ) G C X X X Здесь ( ) ( ) ( ) т 1 ( , , ) G G G N X X X — гауссовская сово- купность с нулевым вектором МО и ковариационной матрицей ( ) B h ; ( ) ( ) ( ) т 1 ( , , ) C C C N X X X — случайный вектор со статистиче- ски независимыми компонентами, каждая из которых может иметь негауссовскую ПВ ( ) 1 ( ) C n X n n x h ( n = 1, …, N). Такое представление удобно, например, для цифрового моделирования случайного век- тора с заданными негауссовскими одномерными законами распре- деления и ковариационными связями его компонентов. 71 В конечном итоге решение задачи аппроксимации случайного вектора X суммой гауссовской ( ) G X и негауссовской ( ) C X состав- ляющих рационально свести к двум вычислительным этапам. На первом этапе анализируют собственные значения ( ) n h ( n = 1, …, N) матрицы ( ) B h на сетке N-мерного единичного куба в пространстве параметров сужения 0 h 1 , …, h N 1. Результатом этого численного анализа является дискриминантная гиперповерх- ность 1 det ( ) ( ) 0 N n n B h h (назовем ее -границей), точкам которой отвечает положительная полуопределенность матрицы ( ) B h . Иными словами, -граница указывает минимально возмож- ные значения параметров сужения (min) (min) min 1 ( , , ) N h h h , при ко- торых все собственные значения матрицы ( ) B h неотрицательны: min ( ) 0 n h ( n = 1, …, N), и хотя бы одно из них является бесконеч- но малой величиной. Практический интерес представляет область значений парамет- ров сужения (назовем ее H-множеством), обеспечивающих положи- тельную определенность матрицы ( ) B h . Ясно, что эта область со- держит вершину куба h 1 =…= h N = 1 и в окрестности ее -границы матрица ( ) B h имеет неполный ранг, в лучшем случае ( N − 1). Вы- числительные затраты первого этапа в некоторых случаях можно существенно сократить, если анализировать часть H-множества в виде усеченного гиперкуба h min h n 1 ( n = 1, …, N). Здесь наименьшее значение параметров сужения (min) (min) 1 min N h h h выбирают из условия min{ 1 ( h min ), …, N ( h min )} > 0, где — заданный пользователем уровень значимости наименьшего соб- ственного значения матрицы min ( ) B h На втором этапе решают интегральные уравнения (2.20) для выбранных значений параметров сужения h 1 , …, h N из H-множества. Очевидно, что по мере удаления от -границы этого множества и приближения к вершине куба h 1 =…= h N = 1 обусловленность кова- 72 риационной матрицы ( ) B h улучшается. Однако увеличение пара- метра сужения h n приводит к уменьшению дисперсии (1 − h n ) b n, n СВ ( ) C n X , что, в свою очередь, может приводить к появлению отрица- тельных выбросов на «хвостах» решения ( ) 1 ( ) C n X n n x h уравнения (2.20). В такой ситуации рациональным является применение прин- ципа реализуемости, содержание которого состоит в следующем. В качестве тестовых параметров сужения исходных одномер- ных ПВ выбирают значения из центральной области H-множества, например h n = ( h min + 1) 2 ( n = 1, …, N ). Простой и, как правило, эффективный в вычислительном отношении алгоритм решения уравнения (2.20) основан на методе обращения свертки [37, с. 134]. Метод состоит в замене интеграла (2.20) его квадратурным при- ближением: ( ) 1 1 0 2 , , ( ) ( ) ( ); ( ) 1 exp ( 0, , ). 2 2 n C n n M X X nm n n n nk m n n n n n n n n n n x h g k m x h x k x g k x h k M h b h b Здесь M n и (max) (min) n n n n x x x M — количество интервалов дис- кретизации и их величина для ПВ 1 ( ) n X n x , заданной в диапазоне (min) (max) n n n x x x набором значений 1 ( ) n X nk nk x , для дискретных отсчетов (min) nk n n x x k x . Полученную систему линейных урав- нений относительно неизвестных значений ( ) ( ) 1 ( ) C n X C nk nk n x h (k = 0, …, M n ) модифицированного распределения ( ) 1 ( ) C n X n n x h удобно представить в матричной форме: ( ) ( ) ( ) ( ) т т 1 1 , ( , , ) , ( , , ) , n n C C C C n n n n n n n nM nM G где ( ) , n n k m G g (k, m = 0, 1, …, M n ) — симметричная матрица Грина размером (M n + 1) × (M n + 1). В соответствии с теоремой Мичелли 73 гауссовские веса ( ) , ( ) n k m n n g g k m x h обеспечивают несингу- лярность матрицы G, т. е. ее обратимость. В дальнейшем для сокращения записи там, где это не вызвано необходимостью, индекс n одномерного распределения будем опус- кать. Регуляризованная система линейных уравнений имеет вид ( ) 1 , , C M F F G I где I M + 1 — единичная матрица размером (M 1) (M 1); — параметр регуляризации, значение которого выбирают методом скользящей проверки. Численное решение полученной системы уравнений находят, например, с помощью итерационного алгорит- ма Гаусса — Зейделя [37, с. 138]: ( ) ( ) ( ) 1 1 , 1 1 ( 1, 2, ) C C C i i E i E i F i i и ограничений типа неравенств ( ) ( ) 1 0, , 0, C C M где i — номер итерации; 1 2 — параметр скорости сходимости алгоритма. Вычисления продолжают, если выполняются критерии наибольшего числа итераций i I max и заметного изменения СКО: 2 [ 1] [ ] [ ], [ ] [ ] , e i e i e i e i E i где > 0 — заданный пользователем уровень значимости. В соответствии с принципом реализуемости в качестве началь- ного приближения ( ) [0] C модифицированного распределения есте- ственно выбрать результат масштабирования исходной ПВ , т. е. ( ) 1 (min) (max) 1 (min) (min) (max) (max) , ; ( ) 0, n C n X nk n nk n X n nk n n nk n n nk n x y y y y h x y y y y x (2.21) 74 Здесь y nk = n + n (x nk − n ) (k = 0, …, M n ) — сетка дискретизации модифицированной ПВ, заданной в диапазоне (min) (max) n n n y y y , где (min) (min) (max) (max) ( ); ( ). n n n n n n n n n n y x y x Опыт цифрового моделирования показал, что характеристики положения n и масштаба n в преобразовании (2.21) целесообразно согласовывать с соответствующими робастными статистиками ис- ходной ПВ. Например, в случае унимодального распределения 1 ( ) n X n x рациональным является выбор 1 max ( ) ( ); 1 ( ). n X n n n n n n n n x x a h h d h Параметры подгонки a n (h n ) и d n (h n ) оптимизируют по критерию ми- нимума СКО 2 ( ) opt , ( , ) arg min 0 C a d a d F Метод обращения свертки хорошо согласуется с выборочной оценкой распределения 1 ( ) n X n x в виде гистограммы, сглаженной сдвигом (Average Shifted Histogram — ASH) [38]: 1 1 1 (min) (max) (min) 1 ( ) ( ) ; ( 0, , ); n n n m X nk k m n m m nk n n n n n n n x w m K x x k x k M x x M x Здесь K — объем выборки; 3 2 n n IQ K — робастная оценка ши- рины разрядных интервалов (bins) Фридмана — Дьякониса [38]; IQ n — интерквартильный диапазон n-й СВ; x n = n m n и m n — ширина суженных интервалов (narrow bins) и их количество; k — количество наблюдений, попавших в k-й суженный интервал 75 ( 0 k , если k < 0 или k M n ). Окно данных w(m) выбирают из условия 1 1 ( ) n n m n m m w m m В этом случае гистограмма интегрируема с единицей. Такой нормировке удовлетворяет обобщенное окно вида 1 1 Ker ( ) , Ker n n n n m n i m m m m w m i m где Ker (u) — положительная четная функция ядра, заданная на стандартном интервале [−1; 1] и интегрируемая с единицей. Попу- лярные модели ядерных функций приведены в [38, с. 140]. В качестве ядра рационально выбрать атомарную функцию up(t) Кравченко — Рвачева [39, 40] или ее обобщение n (t) (n 1, 2, …). Уникальность атомарных функций состоит в том, что они финитны (имеют конечный носитель [−1, 1]) и вместе с тем дифференцируемы бесконечное число раз. Иными словами, ASH-оценка плотности распределения вероятности также беско- нечно дифференцируема и имеет бесконечный порядок соприкос- новения с осью абсцисс на своих «хвостах». |