Главная страница

Мат.модель. Режим термообработки Твердость, hrc


Скачать 330.61 Kb.
НазваниеРежим термообработки Твердость, hrc
Дата20.04.2023
Размер330.61 Kb.
Формат файлаdocx
Имя файлаМат.модель.docx
ТипДокументы
#1077638
страница2 из 3
1   2   3




Значения парного коэффициента корреляции свидетельствует о сильной линейной связи между x1 и y.



Значения парного коэффициента корреляции свидетельствует о умеренной линейной связи между x2 и y.



Значения парного коэффициента корреляции свидетельствует о весьма сильной линейной связи между x3 и y.



Значения парного коэффициента корреляции свидетельствует о сильной линейной связи между x2 и x1.



Значения парного коэффициента корреляции свидетельствует о умеренной линейной связи между x3 и x1.



Значения парного коэффициента корреляции свидетельствует о не сильной линейной связи между x3 и x2.

Признаки x и y

∑xi



∑yi



∑xi*yi



Для y и x1

4480

640

1484

212

944430

134918.571

Для y и x2

505

72.143

1484

212

112180

16025.714

Для y и x3

1574

224.857

1484

212

334710

47815.714

Для x1 и x2

505

72.143

4480

640

294600

42085.714

Для x1 и x3

1574

224.857

4480

640

1005340

143620

Для x2 и x3

1574

224.857

505

72.143

115685

16526.429

Дисперсии и среднеквадратические отклонения.

Признаки x и y









Для y и x1

3600

314.286

60

17.728

Для y и x2

5913.265

314.286

76.898

17.728

Для y и x3

77.837

314.286

8.823

17.728

Для x1 и x2

5913.265

3600

76.898

60

Для x1 и x3

77.837

3600

8.823

60

Для x2 и x3

77.837

5913.265

8.823

76.898

Матрица парных коэффициентов корреляции R:

-

y

x1

x2

x3

y

1

-0.7158

0.5365

0.9335

x1

-0.7158

1

-0.8855

-0.5451

x2

0.5365

-0.8855

1

0.449

x3

0.9335

-0.5451

0.449

1

Частные коэффициенты корреляции.

Коэффициент частной корреляции отличается от простого коэффициента линейной парной корреляции тем, что он измеряет парную корреляцию соответствующих признаков (y и xi) при условии, что влияние на них остальных факторов (xj) устранено.

На основании частных коэффициентов можно сделать вывод об обоснованности включения переменных в регрессионную модель. Если значение коэффициента мало или он незначим, то это означает, что связь между данным фактором и результативной переменной либо очень слаба, либо вовсе отсутствует, поэтому фактор можно исключить из модели.

Частные коэффициенты корреляции вычисляются по формуле:



где Rij - алгебраическое дополнение элемента rij матрицы R.



Теснота связи умеренная.



Теснота связи умеренная.



Теснота связи не сильная.



Теснота связи не сильная.



Теснота связи весьма сильная.



Теснота связи весьма сильная.





Теснота связи сильная.



Теснота связи сильная.





Теснота связи не сильная.



Теснота связи не сильная.





Теснота связи низкая. Межфакторная связь слабая.



Теснота связи низкая. Межфакторная связь слабая.

При сравнении коэффициентов парной и частной корреляции видно, что из-за влияния межфакторной зависимости между xi происходит завышение оценки тесноты связи между переменными.

Анализ мультиколлинеарности.

Если факторные переменные связаны строгой функциональной зависимостью, то говорят о полной мультиколлинеарности. В этом случае среди столбцов матрицы факторных переменных Х имеются линейно зависимые столбцы, и, по свойству определителей матрицы, det(XTX = 0).

Вид мультиколлинеарности, при котором факторные переменные связаны некоторой стохастической зависимостью, называется частичной. Если между факторными переменными имеется высокая степень корреляции, то матрица (XTX) близка к вырожденной, т. е. det(XTX 0) (чем ближе к 0 определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии).

1. Анализ мультиколлинеарности на основе матрицы коэффициентов корреляции.

Если в матрице есть межфакторный коэффициент корреляции rxjxi>0.7, то в данной модели множественной регрессии существует мультиколлинеарность.

В нашем случае r(x1x2) имеют |r|>0.7, что говорит о мультиколлинеарности факторов и о необходимости исключения одного из них из дальнейшего анализа.

2. Ридж-регрессия.

Наиболее детальным показателем наличия проблем, связанных с мультиколлинеарностью, является коэффициент увеличения дисперсии, определяемый для каждой переменной как:



где Rj2 коэффициент множественной детерминации в регрессии Xj на прочие X.

О мультиколлинеарности будет свидетельствовать VIF от 4 и выше хотя бы для одного j.

VIF(b1,2)=

Поскольку VIF ≥ 4, что говорит о мультиколлинеарности факторов x1, x2 и о необходимости исключения одного из них из дальнейшего анализа.

VIF(b1,3)=

VIF(b2,3)=

3. Критерием плохой обсуловленности является высокая величина отношения λmaxmin максимального и минимального собственных чисел матрицы XTX — называемого показателем обусловленности. Это соотношение также позволяет судить о степени серьезности проблем мультиколлинеарности: показатель обусловленности в пределах от 10 до 100 свидетельствует об умеренной коллинеарности, свыше 1000 — об очень серьезной коллинеарности.

Модель регрессии в стандартном масштабе.

Модель регрессии в стандартном масштабе предполагает, что все значения исследуемых признаков переводятся в стандарты (стандартизованные значения) по формулам:



где хji - значение переменной хji в i-ом наблюдении.



Таким образом, начало отсчета каждой стандартизованной переменной совмещается с ее средним значением, а в качестве единицы изменения принимается ее среднее квадратическое отклонение S.

Если связь между переменными в естественном масштабе линейная, то изменение начала отсчета и единицы измерения этого свойства не нарушат, так что и стандартизованные переменные будут связаны линейным соотношением:

ty = ∑βjtxj

Для оценки β-коэффициентов применим МНК. При этом система нормальных уравнений будет иметь вид:

rx1y1+rx1x2•β2 + ... + rx1xm•βm

rx2y=rx2x1•β1 + β2 + ... + rx2xm•βm

rxmy=rxmx1•β1 + rxmx2•β2 + ... + βm

Для наших данных (берем из матрицы парных коэффициентов корреляции):

-0.716 = β1 -0.886β2 -0.545β3

0.537 = -0.886β1 + β2 + 0.449β3

0.933 = -0.545β1 + 0.449β2 + β3

Данную систему линейных уравнений решаем методом Гаусса: β1 = -0.598; β2 = -0.333; β3 = 0.757;

Стандартизированная форма уравнения регрессии имеет вид:

ty = -0.598x1 -0.333x2 + 0.757x3

Найденные из данной системы β–коэффициенты позволяют определить значения коэффициентов в регрессии в естественном масштабе по формулам:
1   2   3


написать администратору сайта