Вопросы к экзамену Полесский. 29. Тесты гетероскедастичнсоти. 46
Скачать 5.25 Mb.
|
Основные гипотезы. Оценки параметров модели по методу наименьших квадратов и их интерпретация.Статистические гипотезы – это предположения исследователя о результатах измерений, выраженные в формализованном лаконичном виде. Гипотезы как бы «дают заказ» на вывод исследования. Статистические гипотезы разделяются на 4 типа: 1)Нулевые 2) Альтернативные 3)Направленные 4) Ненаправленные Но – нулевая гипотеза. Она делает предположение о том, что различия между сравниваемыми выборками отсутствуют. Её математический смысл состоит в том, что Хср.1 –Хср.2→0, т.е. различие между выборками стремится к нулю. Н1 (НА) – альтернативная гипотеза ( противостоящая нулевой гипотезе). Её смысл заключается в том, что различия между выборками есть и что они достоверны. Ненаправленная гипотеза – доказываем то, что выборки достоверно различают-ся, но не доказываем чем именно. Направленная гипотеза – под влиянием исследуемого фактора в определенном направлении (больше или, наоборот, меньше) изменяется исследуемый признак в экспериментальной выборке. Основные гипотезы: A) «Истинная» зависимость Y от регрессоров X имеет вид: Y=X* β+ε. B) Величины X – детерминированные (не случайные). C) Столбцы матрицы X линейно независимы (другими словами, ранг матрицы X равен m+1). D) – не зависит от i E) при i ≠ j (некоррелированность ошибок для разных наблюдений). Вместо (D) часто добавляют условие F) Ошибки имеют нормальное распределение N(0, ). Метод наименьших квадратов. Рассмотрим линейную модель множественной регрессии. К лассический подход к оцениванию параметров линейной модели множественной регрессии основан на методе наименьших квадратов (МНК). МНК позволяет получить такие оценки параметров, при которых сумма квадратов отклонений фактических значений результативного признака от расчетных минимальна: Для того чтобы найти оценки коэффициентов функции нескольких переменных, надо вычислить частные производные первого порядка по каждому из параметров и приравнять их к нулю. Полученную систему нормальных линейных уравнений можно решить методом определителей где – определитель системы; bi – частные определители, которые получаются заменой соответствующего столбца матрицы определителя системы данными левой части системы; Для двухфакторной модели система нормальных линейных уравнений будет иметь вид: Метод наименьших квадратов применим и к уравнению множественной регрессии в стандартизированном масштабе: Г де – стандартизированные переменные: для которых математическое ожидание равно нулю: , а среднее квадратическое отклонение равно единице: = – стандартизированные коэффициенты регрессии. С тандартизованные коэффициенты регрессии показывают на сколько единиц изменится в среднем результат, если соответствующий фактор изменится на одну единицу при неизменном среднем уровне других факторов. В силу того, что все переменные заданы как центрированные и нормированные, стандартизованные коэффициенты регрессии можно сравнивать между собой. Сравнивая, их друг с другом, можно ранжировать факторы по силе их воздействия на результат. В этом основное достоинство стандартизованных коэффициентов регрессии в отличие от коэффициентов «чистой» регрессии, которые несравнимы между собой. Применяя МНК к уравнению множественной регрессии в стандартизированном масштабе, получим систему нормальных уравнений вида: Где - коэффициенты парной и межфакторной корреляции. К оэффициенты «чистой» регрессии связаны со стандартизованными коэффициентами регрессии следующим образом: Средние коэффициенты эластичности по каждому из факторов для линейной регрессии, которые рассчитываются по формуле: показывают на сколько процентов в среднем изменится результат, при изменении соответствующего фактора на 1%. Средние показатели эластичности можно сравнивать друг с другом и соответственно ранжировать факторы по силе их воздействия на результат. От уравнения регрессии в стандартизованном масштабе (4) можно переходить к уравнению регрессии в натуральном масштабе переменных (1), при этом коэффициент определяется как Р ассмотренный смысл стандартизованных коэффициентов регрессии позволяет их использовать при отсеве факторов – из модели исключаются факторы с наименьшим значением . На основе линейного уравнения множественной регрессии могут быть найдены частные уравнения регрессии: т о есть уравнения регрессии, которые связывают результативный признак с соответствующим фактором при закреплении остальных факторов на среднем уровне. При подстановке в эти уравнения средних значений соответствующих факторов они принимают вид парных уравнений линейной регрессии, то есть имеют вид В отличие от парной регрессии частные уравнения регрессии характеризуют изолированное влияние фактора на результат, ибо другие факторы закреплены на неизменном уровне. Эффекты влияния других факторов присоединены в них к свободному члену уравнения множественной регрессии. Это позволяет на основе частных уравнений регрессии определять частные коэффициенты эластичности: Г де – коэффициент регрессии для фактора в уравнении множественной регрессии, – частное уравнение регрессии. |