Мат.модель. Режим термообработки Твердость, hrc
![]()
|
![]() ![]() Значения парного коэффициента корреляции свидетельствует о сильной линейной связи между x1 и y. ![]() Значения парного коэффициента корреляции свидетельствует о умеренной линейной связи между x2 и y. ![]() Значения парного коэффициента корреляции свидетельствует о весьма сильной линейной связи между x3 и y. ![]() Значения парного коэффициента корреляции свидетельствует о сильной линейной связи между x2 и x1. ![]() Значения парного коэффициента корреляции свидетельствует о умеренной линейной связи между x3 и x1. ![]() Значения парного коэффициента корреляции свидетельствует о не сильной линейной связи между x3 и x2.
Дисперсии и среднеквадратические отклонения.
Матрица парных коэффициентов корреляции R:
Частные коэффициенты корреляции. Коэффициент частной корреляции отличается от простого коэффициента линейной парной корреляции тем, что он измеряет парную корреляцию соответствующих признаков (y и xi) при условии, что влияние на них остальных факторов (xj) устранено. На основании частных коэффициентов можно сделать вывод об обоснованности включения переменных в регрессионную модель. Если значение коэффициента мало или он незначим, то это означает, что связь между данным фактором и результативной переменной либо очень слаба, либо вовсе отсутствует, поэтому фактор можно исключить из модели. Частные коэффициенты корреляции вычисляются по формуле: ![]() где Rij - алгебраическое дополнение элемента rij матрицы R. ![]() Теснота связи умеренная. ![]() Теснота связи умеренная. ![]() Теснота связи не сильная. ![]() Теснота связи не сильная. ![]() Теснота связи весьма сильная. ![]() Теснота связи весьма сильная. ![]() ![]() Теснота связи сильная. ![]() Теснота связи сильная. ![]() ![]() Теснота связи не сильная. ![]() Теснота связи не сильная. ![]() ![]() Теснота связи низкая. Межфакторная связь слабая. ![]() Теснота связи низкая. Межфакторная связь слабая. При сравнении коэффициентов парной и частной корреляции видно, что из-за влияния межфакторной зависимости между xi происходит завышение оценки тесноты связи между переменными. Анализ мультиколлинеарности. Если факторные переменные связаны строгой функциональной зависимостью, то говорят о полной мультиколлинеарности. В этом случае среди столбцов матрицы факторных переменных Х имеются линейно зависимые столбцы, и, по свойству определителей матрицы, det(XTX = 0). Вид мультиколлинеарности, при котором факторные переменные связаны некоторой стохастической зависимостью, называется частичной. Если между факторными переменными имеется высокая степень корреляции, то матрица (XTX) близка к вырожденной, т. е. det(XTX ≧ 0) (чем ближе к 0 определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии). 1. Анализ мультиколлинеарности на основе матрицы коэффициентов корреляции. Если в матрице есть межфакторный коэффициент корреляции rxjxi>0.7, то в данной модели множественной регрессии существует мультиколлинеарность. В нашем случае r(x1x2) имеют |r|>0.7, что говорит о мультиколлинеарности факторов и о необходимости исключения одного из них из дальнейшего анализа. 2. Ридж-регрессия. Наиболее детальным показателем наличия проблем, связанных с мультиколлинеарностью, является коэффициент увеличения дисперсии, определяемый для каждой переменной как: ![]() где Rj2 коэффициент множественной детерминации в регрессии Xj на прочие X. О мультиколлинеарности будет свидетельствовать VIF от 4 и выше хотя бы для одного j. VIF(b1,2)= ![]() Поскольку VIF ≥ 4, что говорит о мультиколлинеарности факторов x1, x2 и о необходимости исключения одного из них из дальнейшего анализа. VIF(b1,3)= ![]() VIF(b2,3)= ![]() 3. Критерием плохой обсуловленности является высокая величина отношения λmax/λmin максимального и минимального собственных чисел матрицы XTX — называемого показателем обусловленности. Это соотношение также позволяет судить о степени серьезности проблем мультиколлинеарности: показатель обусловленности в пределах от 10 до 100 свидетельствует об умеренной коллинеарности, свыше 1000 — об очень серьезной коллинеарности. Модель регрессии в стандартном масштабе. Модель регрессии в стандартном масштабе предполагает, что все значения исследуемых признаков переводятся в стандарты (стандартизованные значения) по формулам: ![]() где хji - значение переменной хji в i-ом наблюдении. ![]() Таким образом, начало отсчета каждой стандартизованной переменной совмещается с ее средним значением, а в качестве единицы изменения принимается ее среднее квадратическое отклонение S. Если связь между переменными в естественном масштабе линейная, то изменение начала отсчета и единицы измерения этого свойства не нарушат, так что и стандартизованные переменные будут связаны линейным соотношением: ty = ∑βjtxj Для оценки β-коэффициентов применим МНК. При этом система нормальных уравнений будет иметь вид: rx1y=β1+rx1x2•β2 + ... + rx1xm•βm rx2y=rx2x1•β1 + β2 + ... + rx2xm•βm rxmy=rxmx1•β1 + rxmx2•β2 + ... + βm Для наших данных (берем из матрицы парных коэффициентов корреляции): -0.716 = β1 -0.886β2 -0.545β3 0.537 = -0.886β1 + β2 + 0.449β3 0.933 = -0.545β1 + 0.449β2 + β3 Данную систему линейных уравнений решаем методом Гаусса: β1 = -0.598; β2 = -0.333; β3 = 0.757; Стандартизированная форма уравнения регрессии имеет вид: ty = -0.598x1 -0.333x2 + 0.757x3 Найденные из данной системы β–коэффициенты позволяют определить значения коэффициентов в регрессии в естественном масштабе по формулам: |