Главная страница
Навигация по странице:

  • 17. Коэффициент детерминации линейной регрессионной модели.

  • 18. Нецентрированный коэффициент детерминации линейной регрессионной модели.

  • 19. Скорректированный коэффициент детерминации линейной модели множественной регрессии.

  • 20. F-Тестирование качества регрессионной модели. Первый шаг

  • Фишера Второй шаг

  • Параметры функции Fраспобр

  • 21. Основные числовые характеристики вектора оценок параметров классической множественной регрессионной модели.

  • Основные числовые характеристики вектора остатков в классической множественной регрессионной модели.

  • 22. Основные числовые характеристики вектора остатков в классической множественной регрессионной модели.

  • 23. Основные числовые характеристики вектора возмущений в классической множественной регрессионной модели.

  • 24. Основные числовые характеристики вектора значений эндогенной переменной в классической множественной регрессионной модели.

  • 25. Основные числовые характеристики вектора оценок эндогенной переменной в классической множественной регрессионной модели.

  • 26. Основные числовые характеристики вектора прогнозов эндогенной переменной в классической множественной регрессионной модели.

  • 27. Автокорреляция случайного возмущения: причины, последствия.

  • Причины автокорреляции  Ошибки спецификации

  • Ошибки измерений  Характер наблюдений

  • Влияние автокорреляции на оценку дисперсии возмущений

  • 28. Алгоритм теста Дарбина-Уотсона на наличие (отсутствие) автокорреляции случайных возмущений.

  • Множество возможных значений статистики DW

  • 29. Способы корректировки автокорреляции (авторегрессионные схемы первого порядка).

  • эконометрика шпора. 1. Назначение эконометрических моделей. Принципы их спецификации Типы переменных в эконометрических моделях


    Скачать 3.03 Mb.
    Название1. Назначение эконометрических моделей. Принципы их спецификации Типы переменных в эконометрических моделях
    Анкорэконометрика шпора
    Дата26.01.2020
    Размер3.03 Mb.
    Формат файлаpdf
    Имя файлаNu_vrode_tak_kak-to.pdf
    ТипДокументы
    #105855
    страница3 из 7
    1   2   3   4   5   6   7

    5 ШАГ
    Выполнение проверки




    p
    p
    p
    Y
    Y
    Y
    ЕСЛИ ДА модель адекватна ЕСЛИ НЕТ модель не адекватна
    Четвертым этапом построения эконометрической модели является проверка адекватности оцененной модели. Найдем прогнозное значение величины, затем рассчитаем истинную ошибку данного прогноза, для этого необходимо вычесть из прогнозного значения величины ее истинное значение. Если это значение меньше среднего квадратического отклонения, то модель считается адекватной. Если же большое, но неадекватной.
    Если все значения эндогенных переменных из контрольной выборки накрываются соответствующими доверительными интервалами, то полученная модель с

    27 вероятностью Рдов считается адекватной, т.е. пригодной для дальнейшего использования в целях решения экономических задач

    28
    17. Коэффициент детерминации линейной регрессионной модели.
    Квадрат коэффициента корреляции выборки, как правило, обозначается и называется коэффициентом детерминации.
    Коэффициент детерминации оценивает долю дисперсии (изменчивости) Y, которая объясняется с помощью X в простой линейной регрессионной модели.
    Итак, пусть мы наблюдаем значения X
    i
    и соответствующие значения Y
    i
    , например, доза лекарственного препарата, назначенного пациенту и эффект, доля примеси в меди и проводимость и тд.
    Выборочный коэффициент корреляции вычисляется по формуле:
    Покажем, как коэффициент корреляции и коэффициент детерминации связан с линейнойрегрессией.
    Пусть по наблюдениям построена линейная регрессионная модель: где коэффициенты a,b оценки по методу наименьших квадратов.
    Общее изменение Y
    i
    относительно среднего значения можно разложить следующим образом:
    (*) где - предсказанные значения Y. Формула (*) это основное тождество регрессионного анализа.
    Выражение (*) можно преобразовать:
    Затем мы применяем свойство наименьших квадратов регрессионной модели, что ковариация выборки между предсказанными значениями и остатками и равна нулю.
    Таким образом, коэффициент корреляции выборки между наблюдаемыми и предсказанными значениями равен:

    29
    Отсюда получаем, что квадрат коэффициента корреляции между наблюдаемыми и предсказанными равен доле дисперсии, которая объясняется X в линейной регрессионной модели.

    30
    18. Нецентрированный коэффициент детерминации линейной
    регрессионной модели.
    Коэффициент детерминации рассматривают, как правило, в качестве основного показателя, отражающего меру качества регрессионной модели, описывающей связь между зависимой и независимыми переменными модели. Коэффициент детерминации показывает, какая доля вариации объясняемой переменной y учтена в модели и обусловлена влиянием на нее факторов, включенных в модель: где
    – значения наблюдаемой переменной, – среднее значение по наблюдаемым данным,
    – модельные значения, построенные по оцененным параметрам.
    В случае, когда значение константы задается вручную, коэффициент детерминации рассчитывается по следующей формуле: где
    – фиксированное значение константы. В случае линейной регрессии с константой справедлива следующая формула:
    Заметим, что данная формула справедлива только для модели с константой, в общем случае используется предыдущая формула.
    Чем ближе к 1, тем выше качество модели.
    При равенстве коэффициента единице линия регрессии точно соответствует всем наблюдениям.
    Равенство коэффициента нулю означает, что выбранные факторы не улучшают качество предсказания по сравнению с тривиальным предсказанием
    Достаточно качественной можно признать модель с коэффициентом детерминации выше 0,8.
    Недостатком коэффициента детерминации является то, что он увеличивается при добавлении новых объясняющих переменных, что необязательно означает улучшение качества регрессионной модели. По этой причине, для устранения этого недостатка, на практике чаще используется скорректированный коэффициент детерминации.

    31
    19. Скорректированный коэффициент детерминации линейной модели
    множественной регрессии.
     Скорректированный коэффициент детерминации
    k
    n
    n
    R
    n
    y
    y
    k
    n
    e
    e
    R
    T
    T












    1
    )
    1
    (
    1
    )
    1
    /(
    )
    /(
    1 2
    2
    где – коэффициент детерминации, n – общее число наблюдений, k – число объясняющих переменных (число параметров модели регрессии без учета свободного члена).
    Скорректированный коэффициент детерминации применяется для решения двух типов задач:
    – оценка тесноты связи между объясняемой и объясняющей переменной.
    Необходимо обратить внимание на близость к нескорректированному коэффициенту детерминации. Модель считается качественной, если показатели велики и несильно отличаются друг от друга.
    – сравнение моделей с различным числом параметров. При прочих равных условиях, предпочтение отдается той модели, у которой скорректированный коэффициент детерминации больше.
    Следует отметить, что скорректированный коэффициент детерминации нельзя использовать в формулах, где применяется обычный коэффициент детерминации, поскольку скорректированный коэффициент детерминации нельзя интерпретировать как долю вариации объясняемой переменной, обусловленную вариацией факторов, включенных в модель.

    32
    20. F-Тестирование качества регрессионной модели.
    Первый шаг
     Вычисление статистики с известным распределением
    )
    /(
    )
    1
    /(
    k
    n
    ESS
    k
    RSS
    F
    выч






    k
    n
    k
    F


    ,
    1
     — статистика Фишера
    Второй шаг
     Проверка значимости статистики F
    Определение критического значения F - статистики в Excel
     Категория — Статистические
     Функция — Fраспобр; F.обр.ПХ
    Параметры функции Fраспобр:
    1. Вероятность (уровень значимости)
    2. Число степеней свободы 1 (v
    1
    =k-1)
    3. Число степеней свободы 2 (v
    2
    = n -
    k)
    Третий шаг
     Установление взаимосвязи между вспомогательной статистикой и коэффициентом детерминации
    )
    /(
    )
    1
    /(
    k
    n
    ESS
    k
    RSS
    F



    )
    (
    1
    )
    1
    (
    1
    k
    n
    TSS
    ESS
    k
    TSS
    RSS





    )
    /(
    )
    1
    (
    )
    1
    /(
    2 2
    k
    n
    R
    k
    R




    Вывод
     Проверка значимости F-статистики позволяет сделать вывод о значимости коэффициента детерминации, так как
    0
    при
    0 2


    R
    F
     Если
    кр
    выч
    F
    F

    то нулевая гипотеза не отвергается
    0
    :
    2 0

    R
    H

    33
    21. Основные числовые характеристики вектора оценок параметров
    классической множественной регрессионной модели.
    1) Вектор математических ожиданий
    МНК-оценки параметров множественной регрессии несмещенные
    2) автоковариационная матрица вектора оценок параметров
    Основные числовые характеристики вектора остатков в классической
    множественной регрессионной модели.
    1) Математическое ожидание
    E(e) = E(Mε) = M E(ε) = 0 2) Автоковариационная матрица

    34
    22. Основные числовые характеристики вектора остатков в классической
    множественной регрессионной модели.
    1) Математическое ожидание
    E(e) = E(Mε) = M E(ε) = 0 2) Автоковариационная матрица
    23. Основные числовые характеристики вектора возмущений в классической
    множественной регрессионной модели.
    𝐸{𝑒} = 0; 𝐶
    𝜀𝜀
    = 𝐶𝑜𝑣(𝜀, 𝜀) = 𝜎
    2
    ∗ 𝐼
    𝑛
    .
    24. Основные числовые характеристики вектора значений эндогенной
    переменной в классической множественной регрессионной модели.
    𝐸{𝑌} = 𝐸{𝑋𝛽 + 𝜀} = 𝑋𝛽; 𝐶𝑜𝑣(𝑌, 𝑌) = 𝐶𝑜𝑣{𝑋𝛽 + 𝜀, 𝑋𝛽 + 𝜀} = 𝐶𝑜𝑣(𝜀, 𝜀) = 𝐶
    𝜀𝜀
    =
    𝜎
    2
    ∗ 𝐼
    𝑛
    25. Основные числовые характеристики вектора оценок эндогенной переменной
    в классической множественной регрессионной модели.
    1) Вектор математических ожиданий
    МНК-оценки параметров множественной регрессии несмещенные
    2) автоковариационная матрица вектора оценок параметров
    26. Основные числовые характеристики вектора прогнозов эндогенной
    переменной в классической множественной регрессионной модели.
    𝜀{𝑒} = 𝐸{𝑀𝐸} = 𝑀 ⋅ 𝐸{𝜀} = 0
    𝐶
    𝑒𝑒
    = Cov(𝑚𝜀; 𝑚𝜀) = 𝑀 ⋅ 𝐶𝑜𝑣 ⋅ 𝑀
    𝑇
    = 𝜎
    2
    𝑀𝑀
    𝑇
    = 𝜎
    2
    ⋅ 𝑀 = 𝜎
    2
    (𝐼 − 𝑁) ⋅ 𝜎
    2
    (𝐼 + 𝑁)
    Вроде не то:
    n
    P
    NY
    XAY
    X
    Y




    ˆ
    ˆ
    ,
    Числовые характеристики:

    35 3) E,,Y..= E,NY.=NE,Y.=NE,Xβ+ε.=NXβ+NE,ε.=Xβ
    4) ,C-,Y.,Y..=cov,,Y.,,Y..=cov,NY,NY.=Ncov,Y,Y.,N-T.=,σ-2.N,N-T.=,σ-2.N
    27. Автокорреляция случайного возмущения: причины, последствия.
    Модель называется автокоррелированной, если не выполняется третья предпосылка теоремы Гаусса-Маркова: Cov(ui,uj)≠0 при i≠j. Те между ними есть зависимость.
    Есть положительная автокорреляция, где за положительным отклонением следует положительное, за отрицательным – отрицательное. Отрицательная автокорреляция - за положительным чаще всего следует отрицательное.
    Автокорреляция чаще всего появляется в моделях временных рядов и моделировании циклических процессов
    Причина – неправильный выбор спецификации модели.
    Последствия автокорреляции
    - оценки коэффициентов теряют эффективность;
    - стандартные ошибки коэффициентов занижены
    Причины автокорреляции
    Ошибки спецификации:
     пропуск важной объясняющей переменной,
     использование ошибочной функциональной зависимости между переменными
    Ошибки измерений
    Характер наблюдений (например, данные временных рядов).
    Последствия автокорреляции
    Влияние автокорреляции на МНК- оценки параметров
    Математическое ожидание оценок параметров при наличии автокорреляции
     
     
     









    E
    A
    AX
    AY
    E
    E ˆ
    Вывод: Автокорреляция не оказывает влияние на свойство несмещенности МНК- оценок параметров
    Влияние автокорреляции на оценку дисперсии возмущений

    36
    Математическое ожидание оценки дисперсии возмущений в условиях автокорреляции
    k
    n
    e
    e
    E
    s
    E
    T


    }
    {
    }
    {
    2
    28. Алгоритм теста Дарбина-Уотсона на наличие (отсутствие) автокорреляции
    случайных возмущений.
     Тест Дарбина-Уотсона является наиболее часто применяемым для тестирования автокорреляции в регрессионных моделях. Предпосылки теста: случайные возмущения распределены по нормальному закону и гомоскедастичны
     Статистика DW
    ESS
    e
    e
    e
    e
    e
    DW
    n
    t
    t
    t
    n
    t
    t
    n
    t
    t
    t












    2 2
    1 1
    2 2
    2 1
    )
    (
    )
    (
    Предпосылки теста: случайные возмущения распределены по нормальному закону и гомоскедастичны.
     Приближенное значение





















    n
    t
    t
    n
    t
    t
    t
    e
    e
    e
    DW
    1 2
    2 1
    1 2
    )
    1
    (
    2
    r

    r – выборочный коэффициент корреляции между текущим и лаговым значениями остатков.
    Множество возможных значений статистики DW
    )
    1
    (
    2
    r
    DW


    ,
    1 1



    r
    4 0


    DW
    r


    ˆ
    Алгоритм теста Дарбина – Уотсона:
    0
    ˆ


    ?
    0
    ˆ


    ?
    0
    ˆ


    0 d
    L
    d
    U
    2 4-d
    U
    4-d
    L
    4

    37 1. Настройка модели и вычисление остатков (e i
    = y i
    - ỹ
    i
    ).
    2. Вычисление статистики DW по формуле: 𝑑𝑤 =

    (𝑒
    𝑖
    −𝑒
    𝑖−1
    )
    2
    𝑛
    𝑖=2

    𝑒
    𝑖
    2
    𝑛
    𝑖=1 3. В соответствующей статистической таблице по значениям k (число регрессоров в модели), n (объем выборки) и α (уровень значимости) находятся границы критического значения статистики: D
    L
    и D
    u
    Для статистики DW невозможно найти точное критическое значение, т.к. оно
    зависит не только от Р
    дов
    (доверительной вероятности) и степеней свободы k и n, но
    и от абсолютных значений регрессоров. Возможно определить границы интервала D
    L
    и D
    u
    внутри которого критическое значение DW
    кр
    находится:
    D
    L
    ≤ DW
    кр
    ≤ D
    u
    4. Определение интервала, в который попадает вычисленное значение статистики DW и решение о принятии или отклонении гипотезы H
    0
    (об отсутствии автокорреляции).
    DW ≈ 2(1-r), где r – выборочный коэффициент корреляции остатков регрессии, соседних по номеру наблюдений. Так как r изменяется от -1 до 1, DW изменяется в пределах от 0 до 4. При этом при r = 0 DW=2: это идеальное значение статистики - отсутствие корреляции.
    Для принятия решения относительно наличия или отсутствия автокорреляции можно построить следующую схему:
    Если реальное значение статистики DW попало на периферийные отрезки [0;D
    L
    ] или [4-
    D
    L
    ;4], то гипотеза H
    0
    об отсутствии автокорреляции отклоняется. Если реальное значение статистики DW оказалось внутри отрезка [D
    u
    ;4-D
    u
    ], то гипотеза принимается
    (то есть, автокорреляции нет).
    Если реальное значение статистики DW оказалось внутри интервалов [D
    L
    ;D
    u
    ] или [4-
    D
    u
    ;4-D
    L
    ], то определенного вывода сделать нельзя. Эти интервалы называются зонами неопределенности.

    38
    Единственный способ раскрыть неопределенность – это воспользоваться другой
    выборкой.
    29. Способы корректировки автокорреляции (авторегрессионные схемы первого
    порядка).
    Рассмотрим авторегрессионную модель первого порядка, в которой значение возмущения ɛ определяется через его лаговое значение первого порядка. В этом случае спецификация регрессионной модели с регрессией случайного возмущения имеет вид: где , t – случайные возмущения авторегрессионного уравнения – независимые нормально распределенные случайные величины:
    – коэффициент авторегрессии (параметр модели) (-1< <1):
    >0 – положительная автокорреляция
    <0 – отрицательная автокорреляция
    =0 – автокорреляции нет, удовлетворяется третье условие Гаусса-Маркова.
    Необходимо определить начальные условия модели. Начальные условия модели определяются нормальной случайной величиной
    Корректирующий множитель служит для обеспечения гомоскедастичности случайных возмущений.
    Покажем это. Определим элементы автоковариационной матрицы возмущений.
    Диагональные элементы:
    Cov{e„e,} = Var{ εt } = Var{ρ
    + vt }= Var {
    } + , t = 1,....,n.
    При t=1 𝐶𝑜𝑣 (𝜀
    1
    , 𝜀
    1
    ) = 𝑉𝑎𝑟(𝜀
    1
    ) = 𝜌
    2
    𝑉𝑎𝑟(𝜀
    0
    ) + 𝜎
    𝑣
    2
    = 𝜌
    2 𝜎
    𝑣
    2 1−𝜌
    2
    + 𝜎
    𝑣
    2
    =
    𝜎
    𝑣
    2 1−𝜌
    2
    При t=2 𝐶𝑜𝑣 (𝜀
    2
    , 𝜀
    2
    ) = 𝑉𝑎𝑟(𝜀
    2
    ) = 𝜌
    2
    𝑉𝑎𝑟(𝜀
    1
    ) + 𝜎
    𝑣
    2
    = 𝜌
    2 𝜎
    𝑣
    2 1−𝜌
    2
    + 𝜎
    𝑣
    2
    =
    𝜎
    𝑣
    2 1−𝜌
    2

    39 и т. д., таким образом, для любого момента времени t дисперсия возмущения не зависит от времени: 𝑉𝑎𝑟(𝜀
    𝑡
    ) = 𝜎
    𝑣
    2
    =
    𝜎
    𝑣
    2 1−𝜌
    2
    = 𝑐𝑜𝑛𝑠𝑡 т. е. задание дисперсии возмущения в начальном условии в виде обеспечивает гомоскедастичность случайному возмущению модели.
    Данное выражение получено с учетом того, что случайные величины и vt независимы.
    Недиагональные элементы, ковариации между значениями случайных возмущений, разделенными лагом: Cov (𝜀
    𝑡
    , 𝜀
    𝑡−𝑚
    ) m = 1,..., (n -1).
    1)m=1
    𝐶𝑜𝑣 (𝜀
    𝑡
    , 𝜀
    𝑡−1
    ) = 𝐶𝑜𝑣(𝜌𝜀
    𝑡−1
    + 𝑣
    𝑡
    , 𝜀
    𝑡−1
    ) = 𝜌𝐶𝑜𝑣 (𝜀
    𝑡−1
    , 𝜀
    𝑡−1
    ) = 𝜌𝑉𝑎𝑟 (𝜀
    𝑡−1
    ) = 𝜌
    𝜎
    𝜀
    2 1 − 𝜌
    2
    = 𝜌𝜎
    𝜀
    2
    Данное выражение получено с учетом того, что случайные величины
    𝜀
    𝑡−1
    и vt независимы. Из полученного выражения ковариации (m = 1), в частности, следует, что:
    𝐶𝑜𝑣 (𝜀
    𝑡
    , 𝜀
    𝑡−1
    ) = 𝜌𝜎
    𝜀
    2
    и 𝜌 =
    𝐶𝑜𝑣(𝜀
    𝑡
    ,𝜀
    𝑡−1
    )
    𝜎
    𝜀𝑡
    𝜎
    𝜀𝑡
    =
    𝐶𝑜𝑣(𝜀
    𝑡
    ,𝜀
    𝑡−1
    )
    𝜎
    𝜀𝑡
    𝜎
    𝜀𝑡−1
    = 𝐶𝑜𝑟(𝜀
    𝑡
    , 𝜀
    𝑡−1
    ) т. е. параметр авторегрессии представляет собой коэффициент корреляции между возмущениями соседних наблюдений (с учетом гомосксдастичности случайного возмущения).
    1)m=2
    𝐶𝑜𝑣 (𝜀
    𝑡
    , 𝜀
    𝑡−2
    ) = 𝐶𝑜𝑣(𝜌𝜀
    𝑡−1
    + 𝑣
    𝑡
    , 𝜀
    𝑡−2
    ) = 𝐶𝑜𝑣(𝜌(𝜌𝜀
    𝑡−2
    + 𝑣
    𝑡−1
    ) + 𝑣
    𝑡
    , 𝜀
    𝑡−2
    )
    = 𝐶𝑜𝑣(𝜌
    2
    𝜀
    𝑡−2
    + 𝜌𝑣
    𝑡−1
    + 𝑣
    𝑡−1
    , 𝜀
    𝑡−2
    ) = 𝜌
    2
    𝜎
    𝑣
    2 1 − 𝜌
    2
    = 𝜌
    2
    𝜎
    𝜀
    2
    и т. д. Таким образом, для любого лага автоковариационная функция процесса не зависит от момента t, а зависит только от величины лага m:
    𝐶𝑜𝑣 (𝜀
    𝑡
    , 𝜀
    𝑡−𝑚
    ) = 𝜌
    𝑚
    𝜎
    𝜀
    2
    В теории случайных процессов процессы с ковариационными матрицами, обладающими таким свойством, называются стационарными случайными процессами.

    40
    1   2   3   4   5   6   7


    написать администратору сайта