Главная страница
Навигация по странице:

  • Условный метод максимального правдоподобия

  • 34. МЕТОД ЛИНЕАРИЗАЦИИ

  • Коэффициент детерминации

  • n

  • W

  • m

  • Выбор формы уравнения регрессии


    Скачать 8.7 Mb.
    НазваниеВыбор формы уравнения регрессии
    Анкорkira_shpory.doc
    Дата07.05.2018
    Размер8.7 Mb.
    Формат файлаdoc
    Имя файлаkira_shpory.doc
    ТипДокументы
    #19000
    страница9 из 13
    1   ...   5   6   7   8   9   10   11   12   13

    33. МЕТОД МАКСИМАЛЬНОГО ПРАВДОПОДОБИЯ

    Ме́тод максима́льного правдоподо́бия или метод наибольшего правдоподобия (ММП, ML, MLE — Maximum Likelihood Estimation) в математической статистике — это метод оценивания неизвестного параметра путём максимизации функции правдоподобия[1]. Основан на предположении о том, что вся информация о статистической выборке содержится в функции правдоподобия.

    Пусть есть выборка  из распределения , где  — неизвестные параметры. Пусть  — функция правдоподобия, где . Точечная оценка



    называется оце́нкой максима́льного правдоподо́бия параметра . Таким образом оценка максимального правдоподобия — это такая оценка, которая максимизирует функцию правдоподобия при фиксированной реализации выборки.

    Часто вместо функции правдоподобия  используют логарифмическую функцию правдоподобия . Так как функция  монотонно возрастает на всей области определения, максимум любой функции  является максимумом функции , и наоборот. Таким образом,

    ,

    Если функция правдоподобия дифференцируема, то необходимое условие экстремума — равенство нулю ее градиента:



    Достаточное условие экстремума может быть сформулировано как отрицательная определенность гессиана — матрицы вторых производных:



    Важное значение для оценки свойств оценок метода максимального правдоподобия играет так называемая информационная матрица, равная по определению:



    В оптимальной точке информационная матрица совпадает с математическим ожиданием гессиана, взятым со знаком минус:



    Свойства:

    Оценки максимального правдоподобия, вообще говоря, могут быть смещёнными, но являются состоятельными, асимптотически эффективными и асимптотически нормальными оценками. Асимптотическая нормальность означает, что



    где  - асимптотическая информационная матрица

    Асимптотическая эффективность означает, что асимптотическая ковариационная матрица  является нижней границей для всех состоятельных асимптотически нормальных оценок.

    Если  — оценка метода максимального правдоподобия, параметров , то  является оценкой максимального правдоподобия для , где g-непрерывная функция (функциональная инвариантность). Таким образом, законы распределения данных можно параметризовать различным образом.

    Условный метод максимального правдоподобия (Conditional ML) используется в регрессионных моделях. Суть метода заключается в том, что используется не полное совместное распределение всех переменных (зависимой и регрессоров), а только условное распределение зависимой переменной по факторам, то есть фактически распределение случайных ошибок регрессионной модели. Полная функция правдоподобия есть произведение «условной функции правдоподобия» и плотности распределения факторов. Условный ММП эквивалентен полному варианту ММП в том случае, когда распределение факторов никак не зависит от оцениваемых параметров. Это условие часто нарушается в моделях временных рядов, например в авторегрессионной модели. В данном случае, регрессорами являются прошлые значения зависимой переменной, а значит их значения также подчиняются той же AR-модели, то есть распределение регрессоров зависит от оцениваемых параметров. В таких случаях результаты применения условного и полного метода максимального правдоподобия будут различаться.

    34. МЕТОД ЛИНЕАРИЗАЦИИ

    Имеется последовательность k-мерных случайных векторов Xn= (X1nX2n, … , Xkn), n = 1, 2, … , такая, что Xn →a = (a1a2, … , ak) при n → ∞, и последовательность функций fnRk → R1. Требуется найти распределение случайной величины fn(Xn).

              Основная идея – рассмотреть главный линейный член функции fn в окрестности точки а. Из математического анализа известно, что

    ,

    где остаточный член является бесконечно малой величиной более высокого порядка малости, чем линейный член. Таким образом, произвольная функция может быть заменена на линейную функцию от координат случайного вектора. Эта замена проводится с точностью до бесконечно малых более высокого порядка. Конечно, должны быть выполнены некоторые математические условия регулярности. Например, функции fn должны быть дважды непрерывно дифференцируемы в окрестности точки а.

              Если вектор Xn  является асимптотически нормальным с математическим ожиданием а и ковариационной матрицей ∑/n, где ∑ = ||σij||, причем σij = nM(Xiai)(Xjaj), то линейная функция от его координат также асимптотически нормальна. Следовательно, при очевидных условиях регулярности fn(Xn) – асимптотически нормальная случайная величина с математическим ожиданиемfn(а) и дисперсией

    .

              Для практического использования асимптотической нормальности fn(Xn) остается заменить неизвестные моменты а и ∑ на их оценки. Например, если Xn – это среднее арифметическое независимых одинаково распределенных случайных векторов, тоа можно заменить на Xn, а ∑ - на выборочную ковариационную матрицу.

              Пример. Пусть Y1Y2, … , Yn – независимые одинаково распределенные случайные величины с математическим ожиданием а и дисперсией σ2. В качестве Xn (k = 1) рассмотрим выборочное среднее арифметическое

    .

    Как известно, в силу закона больших чисел  → а = М(У). Следовательно, для получения распределений функций от выборочного среднего арифметического можно использовать метод линеаризации. В качестве примера рассмотрим fn(y) = f(y) = y2. Тогда

    .

    Из этого соотношения следует, что с точностью до бесконечно малых более высокого порядка

    .

    Поскольку в соответствии с Центральной Предельной Теоремой выборочное среднее арифметическое является асимптотически нормальной случайной величиной с математическим ожиданием а и дисперсией σ2/n, то квадрат этой статистики является асимптотически нормальной случайной величиной с математическим ожиданием а2 и дисперсией 4а2σ2/n. Для практического использования может оказаться полезной замена параметров (асимптотического нормального распределения) на их оценки, а именно, математического ожидания – на , а дисперсии – на , где s2 – выборочная дисперсия.

    35. Коэффициент детерминации. Коэффициент конкордации

    Коэффициент детерминации

    Подбор функции линейной регрессии осуществляется на основе соображений профессионально-теоретического характера, а вычисленные оценки параметров, входящие в уравнения регрессии, наиболее хорошо согласовывались с опытными данными. Критерий соответствия регрессии опытным данным заложен в требовании наименьших квадратов:

    (1)

    Результаты различных выборок имеют различное рассеяние. Поэтому может случиться, что построение регрессионной зависимости одного и того же экономического смысла по данным двух выборок из одной и той же генеральной совокупности приведет к различным уравнениям. Степень соответствия этих уравнений опытным данным, несмотря на одинаковый тип зависимости, может быть различна. Однако критерий (1) имеет недостаток: хотя его нижняя граница равна нулю, верхняя граница не может быть указана. Поэтому для оценки степени соответствия регрессии имеющимся эмпирическим данным он не используется. Желательно иметь в распоряжении показатель, отражающий, в какой мере функция регрессии определяется объясняющими переменными, содержащимися в ней. В качестве такого показателя можно выбрать коэффициент детерминации.

    Рассмотрим вначале коэффициент детерминации для простой линейной регрессии, называемый также коэффициентом парной детерминации.

    На основе соображений, изложенных в разделе 1, теперь отно­сительно легко найти меру точности оценки регрессии. Было показано, что общую дисперсию  можно разложить на две составляющие — на «необъясненную» дисперсию и дисперсию, обусловленную регрес­сией. Чем больше  по сравнению с , тем больше общая дисперсия формируется за счет влияния объясняющей переменной x и, следова­тельно, связь между двумя переменными y и xболее интенсивная. Очевидно, удобно в качестве показателя интенсивности связи, или оценки доли влияния переменной x на y, использовать отношение

     (7)

    Это отношение указывает, какая часть общего (полного) рассеяния значений у обусловлена изменчивостью переменной x. Чем большую долю в общей дисперсии составляет , тем лучше выбранная функция регрессии соответствует эмпирическим данным. Чем меньше эмпири-ческие значения зависимой переменной отклоняются от прямой регрес-сии, тем лучше определена функция регрессии. Отсюда происходит и название отношения (7) — коэффициент детерминации . Индекс при коэффициенте указывает на переменные, связь между которыми изучается. При этом вначале в индексе стоит обозначение зависимой переменной, а затем объясняющей.

    Из определения коэффициента детерминации как относительной доли очевидно, что он всегда заключен в пределах от 0 до 1:

     (8)

    Если , то все эмпирические значения  (все точки поля корреляции) лежат на регрессионной прямой. Это означает, что  для i=1, ..., n, т. е. . В этом случае говорят о строгом линейном соотношении (линейной функции) между переменными у и х. Если , дисперсия, обусловленная регрессией, равна нулю, а «необъясненная» дисперсия равна общей дисперсии. В этом случае . Линия регрессии тогда параллельна оси абсцисс. Ни о какой численной линейной зависимости переменной у от х в статистическом ее понимании не может быть и речи. Коэффициент регрессии при этом незначимо отличается от нуля.

    Итак, чем больше  приближается к единице, тем лучше опре-делена регрессия.

    Коэффициент детерминации есть величина безразмерная и поэтому он не зависит от изменения единиц измерения переменных у и x (в отличие от параметров регрессии). Коэффициент  не реагирует на преобразование переменных.

    Приведем некоторые модификации формулы (7), которые, с одной стороны, будут способствовать пониманию сущности коэффициента де-терминации, а с другой стороны, окажутся полезными для практических вычислений. Подставляя выражение для  () в (7) и принимая во внимание () и (2), получим:

     (9)

    Эта формула еще раз подтверждает, что «объясненная» дисперсия, стоящая в числителе (7), пропорциональна дисперсии переменной х, так как b1 является оценкой параметра регрессии.

    Подставив вместо  его выражение () и учитывая определения дисперсий  и , а также средних  и , получим формулу коэффициента детерминации, удобную для вычисления:



    или

     (10)

    Из (10) следует, что всегда . С помощью (10) можно относительно легко определить коэффициент детерминации. В этой формуле содержатся только те величины, которые используются для вычисления оценок параметров регрессии и, следовательно, имеются в рабочей таблице. Формула (10) обладает тем преимуществом, что вычисление коэффициента детерминации по ней производится непосредственно по эмпирическим данным. Не нужно заранее находить оценки параметров и значения регрессии. Это обстоятельство играет немаловажную роль для последующих исследований, так как перед проведением регрессионного анализа мы можем проверить, в какой степени определена исследуемая регрессия включенными в нее объясняющими переменными. Если коэффициент детерминации слишком мал, то нужно искать другие факторы-переменные, причинно обусловливающие зависимую переменную. Следует отметить, что коэффициент детерминации удовлетворительно отвечает своему назначению при достаточно большом числе наблюдений. Но в любом случае необходимо проверить значимость коэффициента детерминации.

    Для решения системы нормальных уравнений очень важно знать соотношения между объясняющими переменными xk. Используя понятие коэффициента детерминации, введем меру зависимости этих переменных между собой. Обозначим через  коэффициент детерминации, характеризующий степень обусловленности k-й объясняющей переменной остальными объясняющими переменными, входящими в данную регрессию.

    Укажем формулу для вычисления коэффициента детерминации между объясняющими переменными. Для ее вывода исходят из матрицы дисперсий и ковариаций объясняющих переменных :

     (31)

    где  - дисперсия объясняющей переменной xk при  - ковариация объясняющих переменных xkи xl. Умножив каждый элемент (31) на n-1, получим матрицу  сумм квадратов отклонений и произведений отклонений:

     (32)

    где , а . Матрицу, обратную к , обозначим через :

     (33)

    Коэффициент детерминации между объясняющими переменными вычисляется по формуле

     (34)

    где  и  — элементы k-й строки и k-гo столбца матриц  и  соответственно.

    КОЭФФИЦИЕНТ КОНКОРДАЦИИ

    В экономике существует большое число причинно обусловленных явлений, признаки которых не поддаются точной количественной оценке. Это так называемые атрибутивные признаки. Например, про­фессия, форма собственности, качество изделия, технологические опера­ции и т. д. Специалист или эксперт ранжирует элементы изучаемой со­вокупности, приписывая каждому из них порядковый номер, соответст­вующий итогам сравнения по данному признаку с остальными элемен­тами. Если количество признаков-переменных больше двух, то в ре­зультате ранжировок n элементов (предприятий или учреждений) имеют дело с m последовательностями рангов. Для проверки, хорошо ли согласуются эти m ранжировок друг с другом, используется коэф­фициент согласованности W, называемый также коэффициентом конкордации Кендэла:



    При наличии связанных рангoв коэффициент кенкордации W вычис­ляется по формуле



    где  i = 1, 2, ...., n; j = 1, 2, ...., m - сумма рангов, приписанных всеми экспертами t-му элементу выборки, минус среднее значение этих сумм рангов; m — число экспертов или призна­ков, связь между которыми оценивается; n — объем выборки (число предприятий или учреждений), другими словами, это количество членов последовательности рангов; , где - число связанных рангов, к = 1, ... z. Например, если связываются элементы от восьмого до одиннадцатого включительно, то = 4. Коэффи­циент W принимает значения в интервале 0 ≤ W ≤ 1.
    1   ...   5   6   7   8   9   10   11   12   13


    написать администратору сайта