Главная страница

Эконометрика. эконометрика-4,1+вар._3.11. Задача 1 7 Задача 2 18 Заключение 24 Список литературы 24 Введение


Скачать 111.21 Kb.
НазваниеЗадача 1 7 Задача 2 18 Заключение 24 Список литературы 24 Введение
АнкорЭконометрика
Дата01.12.2022
Размер111.21 Kb.
Формат файлаdocx
Имя файлаэконометрика-4,1+вар._3.11.docx
ТипЗадача
#822497
страница1 из 4
  1   2   3   4

Оглавление


Введение 2

1.Условия Гаусса-Маркова, теорема Гаусса Маркова. 3

Практическое задание 6

Задача № 1: 7

Задача № 2 18

Заключение 24

Список литературы 24


Введение



В экономических исследованиях часто решают задачу выявления факторов, определяющих уровень и динамику экономического процесса. Такая задача чаще всего решается методами корреляционного, регрессионного, факторного и компонентного анализа. Задача регрессионного анализа состоит в построении модели, позволяющей по значениям независимых показателей получать оценки значений зависимой переменной. Регрессионный анализ является основным средством исследования зависимостей между социально-экономическими переменными. Эту задачу мы рассмотрим в рамках самой распространенной в статистических пакетах классической модели линейной регрессии. Специфика социологических исследований состоит в том, что очень часто необходимо изучать и предсказывать социальные события. Вторая часть данной главы будет посвящена регрессии, целью которой является построение моделей, предсказывающих вероятности событий. Величина называется ошибкой регрессии. Первые математические результаты, связанные с регрессионным анализом, сделаны в предположении, что регрессионная ошибка распределена нормально с параметрами, ошибка для различных объектов считаются независимыми. Кроме того, в данной модели мы рассматриваем переменные как неслучайные значения. Такое, на практике, получается, когда идет активный эксперимент, в котором задают значения (например, назначили зарплату работнику), а затем измеряют (оценили, какой стала производительность труда). Все многообразие факторов, которые воздействуют на изучаемый процесс, можно разделить на две группы: главные (определяющие уровень изучаемого процесса) и второстепенные.

Последние часто имеют случайный характер, определяя специфические и индивидуальные особенности каждого объекта исследования. Однако при небольшой взаимосвязи между переменными, если стандартизовать переменные и рассчитать уравнение регрессии для стандартизованных переменных, то оценки коэффициентов регрессии позволят по их абсолютной величине судить о том, какой аргумент в большей степени влияет на функцию. Стандартизация переменных. Бета коэффициенты. Коэффициенты в последнем уравнении получены при одинаковых масштабах изменения всех переменных и сравнимы. В случае взаимосвязи между аргументами в правой части уравнения могут происходить странные вещи. Надежность и значимость коэффициента регрессии. Здесь  обозначен коэффициент детерминации, получаемый при построении уравнения регрессии, в котором в качестве зависимой переменной взята другая переменная. Из выражения видно, что величина коэффициента тем неустойчивее, чем сильнее переменная связана с остальными переменными. Значимость включения переменной в регрессию. При последовательном подборе переменных предусмотрена автоматизация, основанная на значимости включения и исключения переменных.

Целью контрольной работы является рассмотрение теоретического вопроса об условиях Гаусса-Маркова, а так же решения практических заданий.






  1. Условия Гаусса-Маркова, теорема Гаусса Маркова.




Для того чтобы регрессионный анализ, основанный на обычном методе наименьших квадратов, давал наилучшие из всех возможных результаты, случайная ошибка должна удовлетворять определенным условиям, известным как условия Гаусса-Маркова.

Понимание важности этих условий отличает компетентного исследователя от некомпетентного. Если условия не выполнены, надо это осознавать. А именно, если возможно, то провести корректирующие действия; если невозможно корректировка, то оценить, как невыполнение условий влияет на результат.

1-е условие Гаусса-Маркова состоит в том, что математическое ожидание случайной ошибки в любом наблюдении должно быть равно нулю:



Это означает, что иногда случайная ошибка будет положительной, иногда отрицательной, но она не должна иметь систематического смещения. Фактически, если уравнение регрессии включает свободный член, то разумно предположить, что это условие выполнено автоматически, так как роль константы состоит в определении любой систематической тенденции объясняемой переменной, которую не учитывают объясняющие переменные, включенные в уравнение регрессии.

Таким образом, если уравнение регрессии включает постоянную   , то именно константа содержит информацию о систематической тенденции в y. Поэтому 1-ое условие можно считать всегда выполненным.

В терминах зависимой переменной условие   означает, что   ,то есть при фиксированном хi среднее значение yi лежит на линии регрессии и равно   .

2-е условие Гаусса-Маркова состоит в том, что дисперсия ошибки постоянна для всех наблюдений:

D(ui) = s2 = const, i = 1...n.

Условие независимости дисперсии от номера наблюдения называется гомоскедастичностью (homoscedasticity). Случай непостоянства дисперсии для разных наблюдений называется гетероскедастичностью (heteroscedasticity). На рис.1 а) приведен пример типичной картинки для случая гомоскедастичности ошибок, на рис. 1 б) – пример данных с гетероскедастичными ошибками.





а) гомоскедастичность ошибок

б) гетероскедастичность ошибок

Рисунок 1 – Принципиальные схемы случаев гомоскедастичности и гетероскедастичности ошибок

Иногда случайная ошибка будет больше, иногда меньше, однако не должно быть такого, что в одних наблюдениях ошибка систематически больше, чем в других. Эта постоянная дисперсия обозначается σ2.

В терминах зависимой переменной условие гомоскедастичности формулируется как условие постоянства дисперсии y: D(y)=σ2.

Если условие постоянства дисперсии не выполняется, то оценки, найденные по методу наименьших квадратов, будут неэффективны. Для получения более надежных результатов надо использовать модифицированный метод наименьших квадратов.

Величина σ2 неизвестна. Одна из задач регрессионного анализа состоит в ее оценке, точнее оценке стандартного отклонения случайного члена.

3-е условие Гаусса-Маркова - условие некоррелированности ошибок - состоит в том, что предполагается отсутствие систематической связи между значениями случайной ошибки в любых двух наблюдениях:

cov(ui, uj) = 0, i ¹j.

Например, если случайная ошибка в одном наблюдении велика и положительна, то это не должно обусловливать систематическую тенденцию к тому, что в следующем наблюдении она будет обязательно мала и отрицательна (или велика и отрицательна, или мала и положительна). Случайные ошибки должны быть абсолютно независимы друг от друга, то есть ковариация между ними должна быть равна нулю.

Это условие часто нарушается в случае, когда наши данные являются временными рядами. В случае, когда условие некоррелированности ошибок не выполняется, то говорят об автокорреляции ошибок.

Типичная картинка автокорреляции ошибок представлена на рис. 2.

В терминах зависимой переменной условие отсутствия автокорреляции означает статистическую независимость значений y для разных наблюдений: cov(yi, yj)=0, i≠j.

Если третье условие не выполнено, то регрессия, оцененная методом наименьших квадратов, даст неэффективные результаты. Методы получения более надежных результатов представлены, например, в учебнике Кристофера Доугерти (2001).






а) ковариация ошибок положительна

б) ковариация ошибок отрицательна

Рисунок 2 – Принципиальные схемы автокорреляции ошибок

4-е условие Гаусса-Маркова – случайная ошибка должна быть распределена независимо от объясняющих переменных.

Значение объясняющей переменной x в каждом наблюдении должно считаться экзогенным, полностью определяемым внешними причинами, не учитываемыми в уравнении регрессии.

Во многих случаях используется более сильное условие: объясняющие переменные не являются стохастическими1.

Предположение о нормальности распределения ошибок часто используется одновременно с условиями Гаусса-Маркова:

Ошибки ui имеют совместное нормальное распределение с параметрами: математическое ожидание – 0, дисперсия – σ2.

В терминах зависимой переменной условие нормальности распределения ошибок означает, что значения y также распределены по нормальному закону с параметрами: математическое ожидание – 0, дисперсия – σ2.

При соблюдении перечисленных пяти условий регрессионная модель (1) называется классической нормальной линейной регрессионной моделью.

Итак, мы имеем набор данных (xi,yi) i=1…n, и классическую линейную регрессионную модель (выполняются четыре условия Гаусса-Маркова). Задача – оценить параметры модели α, β и дисперсию ошибки σ2 «наилучшим» способом, то есть найти несмещенные эффективные состоятельные оценки.

Теорема Гаусса-Маркова

В предположениях классической линейной регрессии модели:

1)   - спецификация модели,

где x – неслучайная величина; y, u – случайные величины.

2) 

3) 

4) 

оценки а и b для параметров α и β, полученные по методу наименьших квадратов, имеют наименьшую дисперсию среди всех линейных несмещенных оценок, то есть аиb несмещенные эффективные оценки.

Таким образом, оценки а и b являются наилучшими в статистическом смысле.

Имеем   - прогноз yi в точке xi.

Тогда   . Здесь, как и прежде, ei – остатки.

Не следует путать остатки ei с ошибками ui. Остатки тоже случайные величины, однако остатки ei наблюдаемы в отличие от ошибок ui.

Можно доказать, что   - оценка дисперсии ошибок σ2 определяется через сумму квадратов остатков по формуле:






Величина s2 являются несмещенной оценкой дисперсии ошибок σ2.

Квадратный корень из s2 , то есть величина s называется стандартной ошибкой оценки   .

  1   2   3   4


написать администратору сайта