Главная страница
Навигация по странице:

  • Тест Глейзера.

  • ПОДОБОР ОБЪЯСНЯЮЩИХ ПЕРЕМЕННЫХ МОДЕЛИ

  • Модели с лаговыми переменными


    Скачать 3.63 Mb.
    НазваниеМодели с лаговыми переменными
    Дата20.04.2023
    Размер3.63 Mb.
    Формат файлаpdf
    Имя файлаilovepdf_merged.pdf
    ТипДокументы
    #1076844
    страница5 из 6
    1   2   3   4   5   6
    Тест ранговой корреляции Спирмена.
    1. Выдвигается нулевая гипотеза об отсутствии гетероскедастичности случайных отклонений.
    2. Данные по
    x
    и остатки
    e
    ранжируются по переменной
    x
    и определяются их ранги. Ранг – это порядковый номер значений переменной в ранжированном ряду.
    3. Определяется коэффициент ранговой корреляции Спирмена по формуле
    )
    1
    (
    6 1
    2 2




    n
    n
    D
    r
    i
    ,
    (19) где
    i
    D
    - разность между рангами
    x
    и
    e
    4. Составляется статистика
    1


    n
    r
    t
    , которая сравнивается с
    кр
    t
    для заданного уровня значимости (
    96
    ,
    1

    кр
    t
    при
    05
    ,
    0


    и
    58
    ,
    2

    кр
    t
    при
    01
    ,
    0


    ).
    Если
    кр
    t
    t

    , то нулевая гипотеза об отсутствии гетероскедастичности отклоняется.
    Тест Глейзера.

    Используя абсолютные значения остатков в качестве оценки
    i

    оценивается регрессия




    i
    i
    x


    при различных значениях

    . Выбирается наилучшая оценка (с наибольшим значением коэффициента детерминации) и проверяется значимость параметра

    . В случае, если коэффициент

    значим, то нулевая гипотеза об отсутствии гетероскедастичности отклоняется.

    ОЦЕНИВАНИЕ ПАРАМЕТРОВ ЛИНЕЙНЫХ МОДЕЛЕЙ
    МЕТОДОМ НАИМЕНЬШИХ КВАДРАТОВ
    Оценивание параметров эконометрической модели сводится к приписыванию конкретных численных значений количественно неопределённым параметрам. Оценивание должно проводиться так, чтобы оно обеспечило наилучшую адаптацию модели к эмпирическим данным.
    Наиболее распространённым методом оценивания параметров линейных эконометрических моделей вида









    k
    k
    X
    Х
    Y
    1 1
    0
    считается метод наименьших квадратов. Его идея сводится к выбору таких значений оценок
    k
    a
    a
    a
    ,...,
    ,
    1 0
    структурных параметров
    k



    ,...,
    ,
    1 0
    , при которых сумма квадратов отклонений наблюдаемых значений объясняемой переменной от её теоретических значений, рассчитанных при помощи модели, оказывается наименьшей. Это условие записывается в виде



    n
    i
    i
    e
    1 2
    min , где


    n
    i
    e
    i
    ,...,
    2
    ,
    1
    ,

    – отклонения эмпирических значений объясняемой переменной от её теоретических значений, называемые остатками модели
    i
    i
    i
    y
    y
    e
    ˆ


    , где
    ik
    k
    i
    i
    x
    a
    x
    a
    a
    y




    ˆ
    1 1
    0
    Применение метода наименьших квадратов базируется на следующих принципах:
    – оцениваемая модель линейна;
    – объясняющие переменные – детерминированные величины известной структуры;
    – отсутствует явление коллинеарности объясняющих переменных;

    – случайный фактор имеет нулевое математическое ожидание, а также известную и постоянную дисперсию;
    – отсутствует явление автокорреляции случайного фактора, то есть его зависимости от собственных значений в различные моменты времени.
    ОЦЕНИВАНИЕ ПАРАМЕТРОВ МОДЕЛИ
    С ОДНОЙ ОБЪЯСНЯЮЩЕЙ ПЕРЕМЕННОЙ
    Линейная эконометрическая модель с одной объясняющей переменной имеет вид






    Х
    Y
    В этом случае значения оценок a и b структурных параметров

    и

    рассчитываются исходя из условий


    min
    1 2






    n
    i
    i
    i
    bx
    a
    y
    S
    Для нахождения минимума
    S
    используется необходимое условие экстремума











    0
    ,
    0
    b
    S
    a
    S
    Выполним необходимые действия:

      









    n
    i
    i
    i
    bx
    a
    y
    a
    S
    1 1
    2
    ;

      









    n
    i
    i
    i
    i
    x
    bx
    a
    y
    b
    S
    1 2
    Решим систему:

      

      













    












    


























    0
    ;
    0 0
    ;
    0 0
    2
    ;
    0 1
    2 2
    1 2
    1 1
    1 1
    1 1
    x
    b
    x
    a
    xy
    x
    b
    a
    y
    x
    b
    x
    a
    x
    y
    x
    b
    na
    y
    x
    bx
    a
    y
    bx
    a
    y
    n
    i
    i
    n
    i
    i
    n
    i
    i
    i
    n
    i
    i
    n
    i
    i
    n
    i
    i
    i
    i
    n
    i
    i
    i
    (последняя система называется системой нормальных уравнений)



























    










    ;
    0
    ;
    0 0
    ;
    0 2
    2 2
    2 2
    2
    x
    x
    y
    x
    xy
    b
    x
    b
    y
    a
    x
    x
    b
    y
    x
    xy
    x
    b
    a
    y
    x
    b
    x
    a
    xy
    x
    b
    x
    a
    y
    x
    Полученные значения доставляют минимум функции
    S
    , поскольку














    n
    i
    i
    n
    i
    i
    x
    b
    S
    x
    b
    a
    S
    a
    S
    1 2
    2 2
    1 2
    2 2
    2
    ;
    2
    ;
    2
    ;


    0 2
    ;
    0 4
    4 4
    2 2
    2 2
    2 1
    1 2
    2 2
    2 2
    2 2















    


    















    a
    S
    x
    x
    n
    x
    x
    b
    a
    S
    b
    S
    a
    S
    n
    i
    i
    n
    i
    i
    Таким образом, получаем формулы оценивания значений a и b :
     
    2 2
    x
    x
    y
    x
    xy
    b




    x
    b
    y
    a



    Оценку дисперсии случайных отклонений линейной модели с одной объясняющей переменной получаем по формуле
     
    2 2
    2 2
    1 2
    2








    n
    e
    e
    n
    e
    e
    S
    n
    i
    i
    e
    В случае если оценки параметров получены по методу наименьших квадратов, математическое ожидание случайного отклонения
    e
    равно 0 и формула дисперсии примет вид
    2 2
    2 1
    2 2






    n
    e
    n
    e
    S
    n
    i
    i
    e
    Величина
    e
    S называется стандартной ошибкой (стандартным отклонением) остатков модели, которая информирует, насколько в среднем наблюдаемые значения объясняемой переменной отличаются от теоретических значений этой переменной, определяемых моделью, т.е. служит мерой разброса зависимой переменной вокруг линии регрессии.
    Стандартные погрешности
    )
    (a
    S
    и
    )
    (b
    S
    оценок структурных параметров

    и

    рассчитываются по формулам:










    2 2
    2 2
    x
    x
    n
    S
    x
    S
    a








    2 2
    2
    x
    x
    n
    S
    S
    b
    Ковариации оценок структурных параметров

    и

    определяются по формулам
    2 2
    2
    )
    ,
    (
    x
    x
    S
    x
    b
    a
    K



    ОЦЕНИВАНИЕ ПАРАМЕТРОВ МОДЕЛИ
    С НЕСКОЛЬКИМИ ОБЪЯСНЯЮЩИМИ ПЕРЕМЕННЫМИ
    Для представления классического метода наименьших квадратов в применении к линейной модели с несколькими объясняющими переменными вида









    k
    k
    X
    Х
    Y
    1 1
    0
    вводится символика:
    





    






    n
    y
    y
    y
    y
    2 1
    - вектор наблюдаемых значений объясняемой переменной;
    





    






    nk
    n
    k
    k
    x
    x
    x
    x
    x
    x
    X
    1 1
    1 1
    2 21 1
    11
    - матрица наблюдаемых значений объясняющих переменных (
    ij
    x
    - i -е значение j -ой объясняющей переменной);

    





    






    k
    b
    b
    b
    b
    1 0
    - вектор оценок структурных параметров;
    





    






    n
    e
    e
    e
    e
    2 1
    - вектор остатков модели.
    В введенных обозначениях модель примет вид
    e
    b
    X
    y



    ; метод наименьших квадратов можно представить в виде
    e
    e
    S
    Т


    → min, где
    Xb
    y
    e


    Выражение для вектора b оценок структурных параметров модели имеет вид:
    y
    X
    X
    X
    b
    T
    T
    1
    )
    (


    Дисперсия случайных отклонений оценивается по формуле:
    1 1
    1 2
    1 2
    2











    k
    n
    e
    k
    n
    e
    k
    n
    e
    e
    S
    n
    t
    t
    T
    e
    Матрица дисперсии и ковариации оценок структурных параметров оценивается по формуле:
    1 2
    2
    )
    (
    )
    (


    X
    X
    S
    b
    D
    T
    e
    В этой матрице элементы, лежащие на главной диагонали, представляют собой дисперсии
     
    k
    i
    b
    S
    i
    ,...,
    2
    ,
    1
    ,
    0
    ,
    2

    , оценок структурных параметров.
    Величины
     
    k
    i
    b
    S
    i
    ,...,
    2
    ,
    1
    ,
    0
    ,

    , представляют собой стандартные погрешности оценивания структурных параметров.

    ПОДОБОР ОБЪЯСНЯЮЩИХ ПЕРЕМЕННЫХ МОДЕЛИ
    С формальной точки зрения, объясняющие переменные в эконометрической модели должны обладать следующими свойствами: иметь высокую вариабельность; быть сильно коррелированными с объясняемой переменной; быть слабо коррелированными между собой.
    Объясняющие переменные подбираются с помощью статистических методов.
    Процедура подбора состоит из следующих этапов.
    1. На основе накопленных знаний составляется множество так называемых потенциальных объясняющих переменных (первичных переменных), в которое включаются все важнейшие величины, влияющие на объясняемую переменную. Такие переменные будем обозначать
    k
    X
    X
    X
    ,...,
    ,
    2 1
    2. Собирается статистическая информация о реализациях как объясняемой переменной, так и потенциальных объясняющих переменных.
    Формируется вектор y наблюдаемых значений переменной Y и матрица
    X наблюдаемых значений переменных
    k
    X
    X
    X
    ,...,
    ,
    2 1
    в виде





















    n
    y
    y
    y
    y
    2 1
    ,
    





    






    nk
    n
    n
    k
    k
    x
    x
    x
    x
    x
    x
    x
    x
    x
    X
    2 1
    2 22 21 1
    12 11
    ,
    ij
    x
    -
    i
    -е значение
    j
    -ой переменной.
    3. Исключаются потенциальные объясняющие переменные, характеризующиеся слишком низким уровнем вариабельности.
    4. Рассчитываются коэффициенты корреляции между всеми рассматриваемыми переменными. На основе рассчитанных значений выбираются переменные сильно коррелированные с объясгяемой
    переменной и слабо коррелированные с остальными объясняющими переменными.
    1.1. ИСКЛЮЧЕНИЕ КВАЗИНЕИЗМЕННЫХ ПЕРЕМЕННЫХ
    Объясняющие переменные должны обладать высоким уровнем вариабельности (изменчивости). В качестве меры вариабельности используется коэффициент вариации
    𝜈
    𝑖
    =
    𝑆
    𝑖
    𝑋
    𝑖
    ̅̅̅̅
    , 𝑖 = 1,2, … , 𝑘, где
    𝑆
    𝑖
    = 𝑋
    𝑖
    2
    ̅̅̅̅̅ − 𝑋
    𝑖
    ̅̅̅̅
    2
    – стандартное отклонение (аналог среднеквадратичного отклонения) переменной
    i
    X
    Задается критическое значение коэффициента вариации


    , например
    1
    ,
    0



    . Переменные, удовлетворяющие неравенству




    i
    , признаются
    квазинеизменными и исключаются из множества потенциальных объясняющих переменных. Эти переменные не несут значимой информации.
    Замечание. Критическое значение коэффициента вариации


    подбирается экспертами, исходя из условий конкретной задачи.
    ВЕКТОР И МАТРИЦА КОЭФФИЦИЕНТОВ КОРРЕЛЯЦИИ.
    Для оценки силы линейной зависимости объясняемой переменной Y от потенциальных объясняющих переменных
    k
    X
    X
    X
    ,...,
    ,
    2 1
    рассчитываются коэффициенты корреляции:

    






    

    k
    i
    y
    y
    x
    x
    y
    x
    xy
    x
    x
    y
    y
    x
    x
    y
    y
    r
    m
    t
    i
    ti
    m
    i
    t
    t
    m
    t
    i
    ti
    t
    i
    ,...,
    2
    ,
    1 2
    2 2
    2 1
    2 2
    1

















    Эти коэффициенты корреляции образуют вектор корреляции
    





    






    k
    r
    r
    r
    R

    2 1
    0

    Силу линейной зависимости между потенциальными объясняющими переменными определяют коэффициенты









    

    k
    j
    i
    x
    x
    x
    x
    x
    x
    x
    x
    x
    x
    x
    x
    x
    x
    x
    x
    r
    i
    i
    j
    j
    i
    j
    i
    j
    n
    t
    i
    ti
    n
    i
    t
    j
    tj
    n
    t
    j
    tj
    i
    ti
    ij
    ,...,
    2
    ,
    1
    ,
    2 2
    2 2
    1 2
    2 1

















    Эти коэффициенты образуют матрицу корреляции
    





    






    1 1
    1 2
    1 2
    21 1
    12







    k
    k
    k
    k
    r
    r
    r
    r
    r
    r
    R
    Поскольку
    ji
    ij
    r
    r

    , матрица корреляции симметрична.
    Замечание. В случае парной линейной регрессии рассчитывается только один коэффициент корреляции, определяющий силу линейной зависимости между объясняющей и объясняемой переменной

    

    2 2
    2 2
    y
    y
    x
    x
    y
    x
    xy
    r





    Коэффициент корреляции принимает значения в отрезке [-1;1]. Коэффициент корреляции определяет силу линейной зависимости между рассматриваемыми переменными.
    Если коэффициент корреляции равен ±1, то говорят, что переменные связаны функциональной линейной зависимостью. В этом случае точки корреляционного поля расположены на одной и той же прямой.
    Если модуль (абсолютная величина) коэффициента корреляции «близок» к 1
    (значим), то говорят, что переменные связаны линейной статистической зависимостью. В этом случае можно указать прямую, близко к которой расположены точки корреляционного поля и для описания влияния одной переменной на другую можно выбирать линейную модель.

    Если коэффициент корреляции близок к 0 (незначим), то между переменными нет линейной статистической зависимости. В этом случае линейную модель для описания зависимости использовать нельзя.
    Незначимость коэффициента корреляции не означает отсутствие связи между объясняемой и объясняющей переменной вообще говоря. Связь может существовать, но эта зависимость будет нелинейной.
    Для выявления статистической зависимости между переменными проверяется гипотеза о значимости коэффициента корреляции. Выдвигается нулевая гипотеза H
    0
    ={коэффициент корреляции незначим, r=0} относительно альтернативной гипотезы H
    1
    ={коэффициент корреляции значим, r≠0}. Для проверки гипотезы рассчитывается статистика


    2 2
    1 2
    r
    n
    r
    t



    По таблицам Стьюдента для заданного уровня значимости

    и для


    2

    n
    степеней свободы находится критическое значение статистики
    кр
    t
    . Если
    кр
    t
    t

    , то принимается гипотеза
    0
    H
    , т.е. коэффициент корреляции незначим и линейная связь между объясняющей и объясняемой переменной отсутствует
    (но может быть нелинейная связь). Если
    кр
    t
    t

    , то гипотеза
    0
    H
    отклоняется в пользу
    1
    H
    , т.е. коэффициент корреляции значим, и между объясняющей и объясняемой переменной существует статистическая линейная зависимость.
    АНАЛИЗ МАТРИЦЫ КОЭФФИЦИЕНТОВ КОРРЕЛЯЦИИ
    Идея метода сводится к выбору таких объясняющих переменных, которые сильно коррелируют с объясняемой переменной и слабо коррелируют между собой. В качестве исходных объектов анализа рассматриваются матрица R и вектор
    0
    R
    корреляции.
    Для заданного уровня значимости

    и для


    2

    n
    степеней свободы рассчитывается так называемое критическое значение коэффициента корреляции

     
     











    2 2
    2
    n
    t
    t
    r
    кр
    кр
    кр
    , где
    кр
    t
    − значение
    t
    -распределения Стьюдента для заданного уровня значимости

    и для


    2

    n
    степеней свободы.
    Критическое значение коэффициента корреляции
    кр
    r
    может априорно задаваться экспертом или определяться по таблице критических значений коэффициентов корреляции для заданного уровня значимости

    и для


    2

    n
    степеней свободы.
    Процедура подбора объясняющих переменных состоит из следующих этапов:
    1. Из множества потенциальных объясняющих переменных исключаются все элементы, которые удовлетворяют неравенству


    r
    r
    i
    , поскольку они несущественно влияют на объясняемую переменную.
    2. Из оставшихся переменных объясняющей признается та переменная
    h
    X , для которой
     
    i
    i
    h
    r
    r
    max

    , поскольку
    h
    X является носителем наибольшей информации об объясняемой переменной.
    3. Из оставшегося множества потенциальных объясняющих переменных исключаются те
    i
    X , для которых


    r
    r
    hi
    , поскольку эти переменные дублируют информацию, представляемую
    h
    X .
    Этапы повторяются.
    КОЭФФИЦИЕНТ МНОЖЕСТВЕННОЙ КОРРЕЛЯЦИИ
    Коэффициент множественной корреляции представляет собой меру силы линейной связи объясняемой переменной Y с объясняющими переменными
    k
    X
    X
    X
    ,...,
    ,
    2 1
    . Его значение рассчитывается по формуле

    R
    W
    R
    det det
    1


    , где
    R
    det
    - определитель матрицы
    R коэффициентов корреляции попарно объединенных объясняющих переменных
    k
    X
    X
    X
    ,...,
    ,
    2 1
    ;
    W
    det
    – определитель матрицы

















    


    



    1 1
    1 1
    1 2
    1 2
    21 2
    1 12 1
    2 1
    0 0
    k
    k
    k
    k
    k
    k
    T
    r
    r
    r
    r
    r
    r
    r
    r
    r
    r
    r
    r
    R
    R
    R
    W




    Коэффициент множественной корреляции принимает значения в промежутке
    ]
    1
    ;
    0
    [
    . Его значение тем больше, чем сильнее связь объясняемой переменной с объясняющими переменными. Коэффициент множественной корреляции может выступать в качестве критерия выбора наилучшей комбинации объясняющих переменных среди комбинаций одинаковой размерности.
    Тесноту связи между объясняемой переменной и одной из объясняющих переменных при устранении влияния других объясняющих переменных характеризуют частные коэффициенты корреляции.
    В случае двух объясняющих переменных
    2 1
    , X
    X
    частный коэффициент корреляции между объясняемой переменной
    Y
    и объясняющей переменной
    1
    X
    определяется по формуле


    )
    ,
    (
    1
    )
    ,
    (
    1
    )
    ,
    (
    )
    ,
    (
    )
    ,
    (
    ,
    2 2
    2 1
    2 1
    2 2
    1 2
    1
    x
    y
    r
    x
    x
    r
    x
    x
    r
    x
    y
    r
    x
    y
    r
    x
    x
    y
    r





    Частный коэффициент корреляции между объясняемой переменной
    Y
    и объясняющей переменной
    2
    X
    определяется по формуле


    )
    ,
    (
    1
    )
    ,
    (
    1
    )
    ,
    (
    )
    ,
    (
    )
    ,
    (
    ,
    1 2
    2 1
    2 1
    2 1
    2 1
    2
    x
    y
    r
    x
    x
    r
    x
    x
    r
    x
    y
    r
    x
    y
    r
    x
    x
    y
    r






    Связь между частными коэффициентами корреляции, парными коэффициентами корреляции и множественным коэффициентом корреляции определяется формулой


    )
    ,
    (
    1
    )
    ,
    (
    ,
    2 2
    2 2
    2 2
    1 2
    x
    y
    r
    x
    y
    r
    R
    x
    x
    y
    r



    или


    )
    ,
    (
    1
    )
    ,
    (
    ,
    1 2
    1 2
    2 1
    2 2
    x
    y
    r
    x
    y
    r
    R
    x
    x
    y
    r



    В случае
    k
    объясняющих переменных коэффициент частной корреляции между объясняемой переменной
    Y
    и объясняющей переменной
    i
    X
    при неизменном уровне остальных факторов определяется по формуле
    2 2
    ,
    1 1
    1 1
    1 2
    1 1
    1 1
    k
    i
    i
    k
    i
    i
    i
    x
    x
    x
    yx
    x
    x
    x
    x
    x
    x
    y
    R
    R
    r








    , где
    2
    R
    - коэффициент множественной корреляции для всех
    k
    переменных,
    2 1
    1 2
    1
    k
    i
    i
    x
    x
    x
    x
    yx
    R


    - коэффициент множественной корреляции без введения в модель переменной
    i
    X

    1   2   3   4   5   6


    написать администратору сайта