Главная страница
Навигация по странице:

  • Критерий омега-квадрат

  • Критерий согласия

  • Построение модели множественной регрессии

  • Вопросы к экзамену Полесский. 29. Тесты гетероскедастичнсоти. 46


    Скачать 5.25 Mb.
    Название29. Тесты гетероскедастичнсоти. 46
    АнкорВопросы к экзамену Полесский
    Дата12.03.2023
    Размер5.25 Mb.
    Формат файлаdoc
    Имя файлаVoprosy_k_ekzamenu_po_distsipline_Ekonometrika_1.doc
    ТипДокументы
    #982220
    страница5 из 34
    1   2   3   4   5   6   7   8   9   ...   34

    Анализ закона распределения выборки с помощью критериев согласия.



    При отклонениях от нормального распределения точность оптимальных критериев существенно падает, поэтому, чтобы уверенно применять оптимальные критерии, необходимо проверить предположение о нормальном распределении генеральной совокупности.

    Для этого используются критерии согласия. Здесь пулевая гипотеза   представляет собой утверждение о том, что распределение генеральной совокупности, из которой получена выборка, не отличается от нормального. Существует несколько разновидностей критериев согласия.

    Классический критерий Колмогорова (иногда говорят Колмогорова-Смирнова) предназначен для проверки простых гипотез о принадлежности анализируемой выборки некоторому полностью известному закону распределения.

    Статистика критерия определяется выражением:



    Критерий омега-квадрат (ω2, иначе – критерий Крамера-Мизеса-Смирнова) достаточно надёжен при n>=15 для проверки гипотезы, подчиняется ли случайная величина некоторому закону распределения, если известны (предполагаются известными) его параметры. Такая гипотеза называется простой. Проверка может проводиться для любого вида распределения. Критерий основан на расчёте суммы квадратов разностей между накопленной частостью (эмпирической функцией распределения) и теоретической функцией распределения.

    Результаты располагают в вариационном ряду. Статистику критерия можно рассчитать так:



    Критерий согласия  (хи-квадрат) разработан лучше других критериев и чаще других используется. Он основан на сравнении эмпирических частот интервалов группировки с теоретическими (ожидаемыми) частотами, рассчитываемыми по формулам нормального распределения.

    Условия применения: объем выборки n > 40, выборочные данные сгруппированы в интервальный вариационный ряд с числом интервалов не менее 7, ожидаемые (теоретические) частоты интервалов не ‘должны быть меньше 5.


    1. Понятие о множественной регрессии. Классическая линейная модель множественной регрессии.



    Множественная регрессия широко используется в решении проблем спроса, доходности акций, при изучении функции издержек производства, в макроэкономических расчетах и целого ряда других вопросов эконометрики.

    Множественная регрессия представляет собой уравнение связи с несколь-кими независимыми переменными:

     ,

    где       у – зависимая переменная (результативный признак);

    х1,х2,…,хp  – независимые переменные (факторы).

    Множественная регрессия применяется в ситуациях, когда из множества факторов, влияющих на результативный признак, нельзя выделить один доминирующий фактор и необходимо учитывать влияние нескольких факторов.

    Основная цель множественной регрессии – построить модель с большим числом факторов, определив при этом влияние каждого из них в отдельности, а также совокупное их воздействие на моделируемый показатель.

    Постановка задачи множественной регрессии. По имеющимся данным n наблюдений за совместным изменением p+1 переменной y и xj и {(yi, xj,i); j=1,2,...,p; i=1,2,...,n} (табл. 1) необходимо определить аналитическую зависимость ŷ = f (x1,x2,...,xp), наилучшим образом описывающую данные наблюдений.
    Таблица 1 ­– Результаты наблюдений




    y

    x1

    x2



    xp

    1

    y1

    x11

    x21



    xp1

    2

    y2

    x12

    x22



    xp2













    n

    yn

    x1n

    x2n



    xpn


    Как и в случае парной регрессии, построение уравнения множественной регрессии осуществляется в два этапа:

    – спецификация модели;

    – оценка параметров выбранной модели.

    Спецификация модели включает в себя решение двух задач:

    – отбор p факторов xj, наиболее влияющих на величину y;

    – выбор вида уравнения регрессии ŷ = f (x1,x2,...,xp);.
    Построение модели множественной регрессии является одним из методов характеристики аналитической формы связи между зависимой (результативной) переменной и несколькими независимыми (факторными) переменными.

    Модель множественной регрессии строится в том случае, если коэффициент множественной корреляции показал наличие связи между исследуемыми переменными.

    Общий вид линейной модели множественной регрессии:
    yi=β0+β1x1i+…+βmxmi+εi,

    где yi – значение i-ой результативной переменной,


    x1ixmi – значения факторных переменных;

    β0…βm – неизвестные коэффициенты модели множественной регрессии;

    εi – случайные ошибки модели множественной регрессии.

    При построении нормальной линейной модели множественной регрессии учитываются пять условий:

    1) факторные переменные x1i…xmi  – неслучайные или детерминированные величины, которые не зависят от распределения случайной ошибки модели регрессии βi;

    2) математическое ожидание случайной ошибки модели регрессии равно нулю во всех наблюдениях:


    3) дисперсия случайной ошибки модели регрессии постоянна для всех наблюдений:

    4) между значениями случайных ошибок модели регрессии в любых двух наблюдениях отсутствует систематическая взаимосвязь, т.е. случайные ошибки модели регрессии не коррелированны между собой (ковариация случайных ошибок любых двух разных наблюдений равна нулю):



    Это условие выполняется в том случае, если исходные данные не являются временными рядами;

    5) на основании третьего и четвёртого условий часто добавляется пятое условие, заключающееся в том, что случайная ошибка модели регрессии – это случайная величина, подчиняющейся нормальному закону распределения с нулевым математическим ожиданием и дисперсией G2: εiN(0, G2).

    Общий вид нормальной линейной модели парной регрессии в матричной форме:

    Y=X* β+ε,

    Где



    – случайный вектор-столбец значений результативной переменной размерности (n*1);

     матрица значений факторной переменной размерности (n*(m+1)). Первый столбец является единичным, потому что в модели регрессии коэффициент β0 умножается на единицу;


    – вектор-столбец неизвестных коэффициентов модели регрессии размерности ((m+1)*1);

    – случайный вектор-столбец ошибок модели регрессии размерности (n*1).

    Включение в линейную модель множественной регрессии случайного вектора-столбца ошибок модели обусловлено тем, что практически невозможно оценить связь между переменными со 100-процентной точностью.

    Условия построения нормальной линейной модели множественной регрессии, записанные в матричной форме:

    1) факторные переменные x1j…xmj – неслучайные или детерминированные величины, которые не зависят от распределения случайной ошибки модели регрессии εi. В терминах матричной записи Х называется детерминированной матрицей ранга (k+1), т.е. столбцы матрицы X линейно независимы между собой и ранг матрицы Х равен m+1



    2) математическое ожидание случайной ошибки модели регрессии равно нулю во всех наблюдениях:

    3) предположения о том, что дисперсия случайной ошибки модели регрессии является постоянной для всех наблюдений и ковариация случайных ошибок любых двух разных наблюдений равна нулю, записываются с помощью ковариационной матрицы случайных ошибок нормальной линейной модели множественной регрессии:


    где

    G2 – дисперсия случайной ошибки модели регрессии ε;

    In – единичная матрица размерности (n*n).

    4) случайная ошибка модели регрессии ε является независимой и независящей от матрицы Х случайной величиной, подчиняющейся многомерному нормальному закону распределения с нулевым математическим ожиданием и дисперсией G2: ε→N(0;G2In.

    В нормальную линейную модель множественной регрессии должны входить факторные переменные, удовлетворяющие следующим условиям:

    1) данные переменные должны быть количественно измеримыми;

    2) каждая факторная переменная должна достаточно тесно коррелировать с результативной переменной;

    3) факторные переменные не должны сильно коррелировать друг с другом или находиться в строгой функциональной зависимости.


    1. 1   2   3   4   5   6   7   8   9   ...   34


    написать администратору сайта