Главная страница
Навигация по странице:

  • Корреляционной матрицей факторных переменных

  • Метод дополнительных регрессий

  • Метод последовательного присоединения

  • Вопросы к экзамену Полесский. 29. Тесты гетероскедастичнсоти. 46


    Скачать 5.25 Mb.
    Название29. Тесты гетероскедастичнсоти. 46
    АнкорВопросы к экзамену Полесский
    Дата12.03.2023
    Размер5.25 Mb.
    Формат файлаdoc
    Имя файлаVoprosy_k_ekzamenu_po_distsipline_Ekonometrika_1.doc
    ТипДокументы
    #982220
    страница19 из 34
    1   ...   15   16   17   18   19   20   21   22   ...   34

    Процедура Кохрейна – Оркатта.



    Процедура Кохрейна-Оркатта (Cochrane-Orcutt) это итерационная процедура. Алгоритм таков:

    • Оцениваем исходную регрессию Yt  1  2 Xt  ut

    • Сохраняем остатки et  Yt  Ῡt , t 1,...,T

    • В качестве первого приближения параметра  берем его МНК-оценку в регрессии   (заметьте: это уравнение не содержит константу)

    • Проводим преобразование переменных по формулам   ,   и, если необходимо, восстанавливаем первое наблюдение с помощью поправки Прайса-Уинстона.

    • Оцениваем регрессию (5):  , находим остатки и повторяем процедуру, пока не удовлетворим неравенству |i  i1| ,  0, заранее задаем

    • В качестве оценки параметра авторегрессии берем последнее значение   .Если процедура не будет сходиться, то это намек на наличие автокорреляции более высокого порядка.


    1. Мультиколлинеарность факторов: причины и последствия.



    Мультиколлинеарность – это коррелированность (зависимость) двух или нескольких объясняющих переменных в уравнении множественной регрессии. Она может быть функциональной (явной) и стохастической (скрытой). При функциональной мультиколлинеарности матрица ХТХ– вырождена и, (ХТХ)-1 не существует, поэтому невозможно определить β.

    Мультиколлинеарность в матричном виде – это зависимость между столбцами матрицы факторных переменных Х:



    Если не учитывать единичный вектор, то размерность данной матрицы равна n*n. Если ранг матрицы Х меньше n, то в модели присутствует полная или строгая мультиколлинеарность. Но на практике полная мультиколлинеарность почти не встречается.

    Чем сильнее мультиколлинеарность факторных переменных, тем менее надежной является оценка распределения суммы объясненной вариации по отдельным факторам с помощью метода наименьших квадратов.

    Чаще мультиколлинеарность проявляется в стохастической форме, при этом МНК – оценки формально существуют, но обладают рядом недостатков:

    1) небольшое изменение исходных данных приводит к существенному изменению оценок регрессии;

    2) оценки имеют большие стандартные ошибки, малую значимость, в то время как модель в целом является значимой (высокое значение R2);

    3) расширяются интервальные оценки коэффициентов, ухудшая их точность;

    4) возможно получение неверного знака у коэффициента регрессии.

    Включение в модель мультиколлинеарных факторов нежелательно в силу следующих последствий:

    1) оценки параметров становятся ненадежными, обна­руживают большие стандартные ошибки и меняются с из­менением объема наблюдений (не только в величине, но и по знаку), что делает модель непригодной для анализа и прогнозирования.

    2) затрудняется интерпретация параметров множест­венной регрессии как характеристик действия факторов в «чистом» виде, ибо факторы коррелированны; параметры линейной регрессии теряют экономический смысл;

    3) нельзя определить изолированное влияние факторов на результативный показатель.

    Для оценки мультиколлинеарности факторов может использоваться определитель матрицы парных коэффициентов корреляции между факторами. Чем ближе к 0 определитель матрицы межфакторной корреляции, тем сильнее мультиколлениарность факторов и ненадежнее результаты множественной регрессии. Чем ближе определитель к 1 – тем ниже мультиколлениарность.

    Если между факторами существует высокая корреляция, то нельзя определить их изолированное влияние на результативный показатель и параметры уравнения регрессии оказываются неинтерпретируемыми.


    1. Обнаружение мультиколлинеарности и методы ее устранения.



    Конкретных методов обнаружения мультиколлинеарности не существует, а принято применять ряд эмпирических приёмов. В большинстве случаев множественный регрессионный анализ начинается с рассмотрения корреляционной матрицы факторных переменных R или матрицы (ХТХ).

    Корреляционной матрицей факторных переменных называется симметричная относительно главной диагонали матрица линейных коэффициентов парной корреляции факторных переменных:



    где rij – линейный коэффициент парной корреляции между i-м и j-ым факторными переменными,



    На диагонали корреляционной матрицы находятся единицы, потому что коэффициент корреляции факторной переменной с самой собой равен единице.

    При рассмотрении данной матрицы с целью выявления мультиколлинеарных факторов руководствуются следующими правилами:

    1) если в корреляционной матрице факторных переменных присутствуют коэффициенты парной корреляции по абсолютной величине большие 0,8, то делают вывод, что в данной модели множественной регрессии существует мультиколлинеарность;

    2) вычисляют собственные числа корреляционной матрицы факторных переменных ?min и ?max. Если ?min‹10-5, то в модели регрессии присутствует мультиколлинеарность. Если отношение



    то также делают вывод о наличии мультиколлинеарных факторных переменных;

    3) вычисляют определитель корреляционной матрицы факторных переменных. Если его величина очень мала, то в модели регрессии присутствует мультиколлинеарность.

    Существует два основных подхода к решению этой задачи.

    Метод дополнительных регрессий

    Строятся уравнения регрессии, которые связывают каждый из регрессоров со всеми остальными

    Вычисляются коэффициенты детерминации R2 для каждого уравнения регрессии

    Проверяется статистическая гипотеза H0: R2=0 с помощью F-теста

    Вывод: если гипотеза H0 не отвергается, то данный регрессор не приводит к мультиколлинеарности.

    Метод последовательного присоединения

    Строится регрессионная модель с учетом всех предполагаемых регрессоров. По признакам делается вывод о возможном присутствии мультиколлинеарности

    Рассчитывается матрица корреляций и выбирается регрессор, имеющий наибольшую корреляцию с выходной переменной

    К выбранному регрессору последовательно добавляются каждый из оставшихся регрессоров и вычисляются скорректированные коэффициенты детерминации для каждой из моделей. К модели присоединяется тот регрессор, который обеспечивает наибольшее значение скорректированного R2.

    Процесс присоединения регрессоров прекращается, когда значение скорректированного R2 становится меньше достигнутого на предыдущем шаге.

    Каким бы образом не осуществлялся отбор факторов, уменьшение их числа приводит к улучшению обусловленности матрицы AT A, а, следовательно, и к повышению качества оценок параметров модели.


    1. 1   ...   15   16   17   18   19   20   21   22   ...   34


    написать администратору сайта