Курс лекций по дисциплине Эконометрика
Скачать 2.09 Mb.
|
2. Парная регрессия2.1. Основные цели и задачи прикладного корреляционно-регрессионного анализаРассмотрим некоторый экономический объект (процесс, явление, систему) и выделим только две переменные, характеризующие объект. Обозначим переменные буквами Y и X. Будем предполагать, что независимая (объясняющая) переменная Xоказывает воздействие на значения переменной Y, которая, таким образом, является зависимой переменной, т.е. имеет место зависимость: Y=f(X). (2.1) Зависимость (2.1) можно рассматривать с целью установления самого факта наличия или отсутствия значимой связи между Y и X, можно преследовать цель прогнозирования неизвестных значений Y по известным значениям X, наконец возможно выявление причинно-следственных связей между X и Y. При изучении взаимосвязи между переменными Y и X следует, прежде всего, установить тип зависимости (природу анализируемых переменных Y и X). Возможны следующие ситуации: Y и X являются неслучайными переменными, т.е. значения Y строго зависят только от соответствующих значений X и полностью ими определяются. В этом случае говорят о функциональной зависимости, когда Y является некоторой функцией от переменной X и верна модель (2.1). Пример: . Y является случайной переменной, а X– неслучайной. В этом случае считают, что между переменными имеет место регрессионная зависимость. То есть верна модель Y=f(X)+u, где u – величина случайной ошибки. Y и X зависят от множества неконтролируемых факторов, так что являются случайными по своей сущности. В этом случае к проблемам построения конкретного вида зависимости между указанными переменными присоединяется проблема исследования тесноты связи между этими переменными. Речь в этом случае идет о корреляционно-регрессионной зависимости между Y и X. Будем предполагать наличие второй из указанных ситуаций. Регрессионный анализ является инструментом решения следующих основных задач: 1. Для любых значений объясняющей переменной X построить наилучшие по некоторому критерию оценки для неизвестной функции f(X). 2. По заданным значениям объясняющей переменной X построить наилучший по некоторому критерию прогноз для неизвестного значения результирующей переменной Y(X). 3. Пусть известно, что искомая функция зависит от параметра : f(X, ). Требуется построить наилучшую в определенном смысле оценку для неизвестного значения этого параметра. 4. Оценить удельный вес влияния переменной X на результирующий показатель Y. В следующих разделах параграфа рассмотрим процедуру решения этих задач. 2.2. Постановка задачи регрессииПоставим задачу регрессии Y на X. Пусть мы располагаем n парами выборочных наблюдений над двумя переменными X и Y:
Функция f(X) называется функцией регрессии Y по X, если она описывает изменение условного среднего значения результирующей переменной Y в зависимости от изменения значений объясняющей переменной X: f(X)=E(Y|X). Таким образом, имеет место уравнение регрессионной связи между Y и X: Yi =f(Xi)+ui, i=1,…,n. (2.2) Присутствие в модели (2.2) случайной "остаточной" компоненты u, также называемой случайным членом, обусловлено следующими причинами: Ошибки спецификации. Среди них выделяют невключение важных объясняющих переменных, агрегирование (объединение) переменных, неправильную функциональную спецификацию модели. Ошибки измерения. Связаны со сложностью сбора исходных данных и использованием в модели аппроксимирующих переменных для учета факторов, непосредственное измерение которых невозможно. Ошибки, связанные со случайностью человеческих реакций. Обусловлены тем, что поведение и непосредственное участие человека в ходе сбора и подготовки данных может быть достаточно непредсказуемым и вносит, таким образом, свой вклад в случайный член. Мы хотим на основе выборочных наблюдений с учетом дополнительных требований, налагаемых на u, статистически оценить функцию f(X), проверить оптимальность полученной оценки и использовать уравнение для построения прогноза. Допущения модели. Относительно u необходимо принять ряд гипотез, известных как условия Гаусса-Маркова: Eui=0, i=1,…,n. Это требование состоит в том, что математическое ожидание случайного члена в любом наблюдении должно быть равно нулю. Иногда случайный член будет положительным, иногда отрицательным, но он не должен иметь систематического смещения ни в одном из двух возможных направлений. Свойство непосредственно вытекает из смысла функции регрессии. Возьмем в (2.2) матожидание от обеих частей при фиксированном значении X, получим: E(Y|X) =E(f(X))+E(u), по свойству матожидания E(Y|X) =f(X)+E(u), а поскольку с учетом определения функции регрессии должно быть f(X)=E(Y|X), то необходимо E(u)=0. Первая строчка означает требование постоянства дисперсии регрессионных остатков (независимость от того, при каких значениях объясняющей переменной производятся наблюдения i), которое называют гомоскедастичностью остатков. Вторая строчка предполагает отсутствие систематической связи между значениями случайного члена в любых двух наблюдениях, которые должны быть абсолютно независимы друг от друга. X1, …, Xn – неслучайные величины. Таким образом, задача регрессии имеет вид: Yi =f(Xi)+ui, i=1,…,n. а. Eui=0, i=1,…,n. (2.3) б. (2.4) в. X1, …, Xn – неслучайные величины. (2.5) При выборе вида функции f в (2.2) обычно руководствуются следующими рекомендациями: используется априорная информация о содержательной экономической сущности анализируемой зависимости – аналитический способ, предварительный анализ зависимости с помощью визуализации – графический способ, использование различных статистических приемов обработки исходных данных и экспериментальных расчетов. 2.3. Парная регрессия и метод наименьших квадратов Будем предполагать в рамках модели (2.2) линейную зависимость между двумя переменными Y и X. Т.е. имеем модель парной регрессии в виде: Yi =+Xi+ui, i=1,…,n. а. Eui=0, i=1,…,n. б. в. X1, …, Xn – неслучайные величины. Предположим, что имеется выборка значений Y и X. Обозначим арифметические средние (выборочные математические ожидания) для переменных X и Y: . Запишем уравнение оцениваемой линии в виде: , (2.6) где и - оценки неизвестных параметров и , а - ордината этой линии. Пусть (Xi, Yi) одна из пар наблюдений. Тогда отклонение этой точки (см. рис. 2.1) от оцениваемой линии будет равно ei=Yi . Принцип метода наименьших квадратов (МНК) заключается в выборе таких оценок и , для которых сумма квадратов отклонений для всех точек становится минимальной. Y X Рис. 2.1. Иллюстрация принципа МНК Необходимым условием для этого служит обращение в нуль частных производных функционала: по каждому из параметров. Имеем: Упростив последние равенства, получим стандартную форму нормальных уравнений, решение которых дает искомые оценки параметров: (2.7) Из (2.7) получаем: (2.8) Пример. Для иллюстрации вычислений при отыскании зависимости с помощью метода наименьших квадратов рассмотрим пример (табл. 2.1). Таблица 2.1Индивидуальное потребление и личные доходы (США, 1954-1965 гг.)
Заметим, что исходные данные должны быть выражены величинами примерно одного порядка. Вычисления удобно организовать, как показано в таблице 2.2. Сначала рассчитываются , затем xi, yi. Результаты заносятся в столбцы 3 и 4. Далее определяются xi2, xiyi и заносятся в 5 и 6 столбцы таблицы 2.2. По формулам (2.8) получим искомые значения параметров =43145/46510=0,9276; =321,75-0,9276.350=-2,91. Оцененное уравнение регрессии запишется в виде =-2,91+0,9276X. Следующая важная проблема состоит в том, чтобы определить, насколько "хороши" полученные оценки и уравнение регрессии. Этот вопрос рассматривается по следующим стадиям исследования: квалифицирование (выяснение условий применимости результатов), определение качества оценок, проверка выполнения допущений метода наименьших квадратов. Относительно квалифицирования уравнения =-2,91+0,9276X. Оно выражает, конечно, достаточно сильное утверждение. Применять это уравнение для прогнозирования следует очень осторожно. Дело в том, что, даже отвлекаясь от многих факторов, влияющих на потребление, и от систематического изменения дохода по мере варьирования потребления, мы не располагаем достаточно представительной выборкой. Таблица 2.2 Рабочая таблица расчетов (по данным табл. 2.1)
Полученное уравнение =-2,91+0,9276X можно использовать для расчета точечного прогноза, в том числе и на ретроспективу. Подставляя последовательно значения X из второго столбца табл. 2.2 в уравнение =-2,91+0,9276X, получим предпоследний столбец табл. 2.2 для прогнозных значений . Ошибка прогноза вычисляется по формуле ei=Yi и дана в последнем столбце рабочей таблицы. Заметим, что ошибка прогноза ei фактически является оценкой значений ui. График ошибки ei представлен на рис. 2.2. Следует отметить факт равенства нулю суммы ei=0, что согласуется с первым ограничением модели парной регрессии - Eui=0, i=1,…,n. Рис. 2.2. График ошибки прогноза В модели (2.2) функция f может быть и нелинейной. Причем выделяют два класса нелинейных регрессий: регрессии, нелинейные относительно включенной объясняющей переменной, но линейные по параметрам, например полиномы разных степеней - Yi =a0 + a1Xi + a2Xi2+ ui, i=1,…,n или гипербола - Yi =a0 + a1/Xi + ui, i=1,…,n; регрессии нелинейные по оцениваемым параметрам, например степенная функция - Yi =a0 ui, i=1,…,n, или показательная функция - Yi = , i=1,…,n. В первом случае МНК применяется так же, как и в линейной регрессии, поскольку после замены, например, в квадратичной параболе Yi =a0 + a1Xi + a2Xi2+ ui переменной Xi2 на X1i: Xi2=X1i, получаем линейное уравнение регрессии Yi =a0 + a1Xi + a2X1i+ ui, i=1,…,n. Во втором случае в зависимости от вида функции возможно применение линеаризующих преобразований, приводящих функцию к виду линейной. Например, для степенной функции Yi =a0 uiпосле логарифмирования получаем линейную функцию в логарифмах и применяем МНК. Однако для, например, модели Yi =a0+a2 +uiлинеаризующее преобразование отсутствует, и приходится применять другие способы оценивания (например, нелинейный МНК). |