числаки. Название билета и его решение
Скачать 3.03 Mb.
|
Приближение данных. Метод наименьших квадратов. Данные без ошибок Данные с ошибками Интерполяция Приближение Модели (функции) для приближения данных Эксперимент по определению жесткости пружины F = k·x ……………… Получили набор данных (F k , x k ) Приблизили прямой По углу наклона прямой определили коэффициент жесткости k Метод наименьших квадратов Пример. Экспериментальные данные о значениях переменных х и у приведены в таблице. В результате их выравнивания получена функция Используя метод наименьших квадратов , аппроксимировать эти данные линейной зависимостью y=ax+b (найти параметры а и b). Выяснить, какая из двух линий лучше (в смысле метода наименьших квадратов) выравнивает экспериментальные данные. Сделать чертеж. Суть метода наименьших квадратов (МНК). Задача заключается в нахождении коэффициентов линейной зависимости, при которых функция двух переменных а и b принимает наименьшее значение. То есть, при данных а и b сумма квадратов отклонений экспериментальных данных от найденной прямой будет наименьшей. В этом вся суть метода наименьших квадратов. Таким образом, решение примера сводится к нахождению экстремума функции двух переменных Модели для приближения данных Линейные Нелинейные y = a 0 [exp(x/a 1 ) - 1] y = a 0 sin(a 1 x) + a 2 … Полиномиальные F = k·x y = a 0 + a 1 x y = a 0 + a 1 x + a 2 x 2 ... Общего вида y = a 0 φ 0 (x) + a 1 φ 1 (x) / y = a 0 sin(x) + a 1 sin(2x) / y = a 0 φ 0 (x) + a 1 φ 1 (x) + a 2 φ 2 (x) … Критерий приближения: Φ(𝑎 0 , 𝑎 1 , … , 𝑎 𝑚 ) = ∑(𝜑(𝑥 𝑖 , 𝑎 0 , 𝑎 1 , … , 𝑎 𝑚 ) − 𝑦 𝑖 ) 2 → min 𝑛 𝑖=0 Задача Φ(𝑎 0 , 𝑎 1 ) = ∑(𝑎 0 + 𝑎 1 𝑥 𝑖 − 𝑦 𝑖 ) 2 → min 𝑛 𝑖=0 сведена к решению СЛАУ (системы линейных алгебраических уравнений) { 𝑎 0 + ( 1 𝑛 + 1 ∑ 𝑥 𝑖 𝑛 𝑖=0 ) 𝑎 1 = 1 𝑛 + 1 ∑ 𝑦 𝑖 𝑛 𝑖=0 (∑ 𝑥 𝑖 𝑛 𝑖=0 ) 𝑎 0 + (∑ 𝑥 𝑖 2 𝑛 𝑖=0 ) 𝑎 1 = ∑ 𝑥 𝑖 𝑦 𝑖 𝑛 𝑖=0 Решаем, находим y = a 0 + a 1 x Вопрос: не будет ли матрица этой системы вырожденной? Самостоятельно со стр. 419 (Вержбицкий). Использовать понятие линейной независимости векторов, матрицы (определителя Грама). Общий случай (самостоятельно, Вержбицкий, стр. 418) Составляется и решается система из двух уравнений с двумя неизвестными. Находим частные производные функции по переменным а и b, приравниваем эти производные к нулю. Решаем полученную систему уравнений любым методом (например методом подстановки или методом Крамера ) и получаем формулы для нахождения коэффициентов по методу наименьших квадратов (МНК). При данных а и b функция принимает наименьшее значение. Доказательство этого факта приведено ниже по тексту в конце страницы Вот и весь метод наименьших квадратов. Формула для нахождения параметра a содержит суммы , , , и параметр n - количество экспериментальных данных. Значения этих сумм рекомендуем вычислять отдельно. Коэффициент b находится после вычисления a. 10 Приближение данных. Постановка задачи. Критерий приближения — наименьшие квадраты. Выбросы в данных. Адаптивный метод наименьших квадратов с весами. Сглаживающие сплайны. Автоматическое устранение выбросов — адаптивный МНК с весами Φ(𝑎 0 , 𝑎 1 , … , 𝑎 𝑚 ) = ∑ 𝑤 𝑖 (𝜑(𝑥 𝑖 , 𝑎 0 , 𝑎 1 , … , 𝑎 𝑚 ) − 𝑦 𝑖 ) 2 → min 𝑛 𝑖=0 𝑤 𝑖 — веса данных Алгоритм адаптивного назначения весов данных: 1. Все 𝑤 𝑖 = 1. Находим приближение (𝑎 0 , 𝑎 1 , … , 𝑎 𝑚 ): Φ(𝑎 0 , 𝑎 1 , … , 𝑎 𝑚 ) = ∑(𝜑(𝑥 𝑖 , 𝑎 0 , 𝑎 1 , … , 𝑎 𝑚 ) − 𝑦 𝑖 ) 2 → min 𝑛 𝑖=0 2. Определяем значения весов: чем больше уклонение 𝜑(𝑥 𝑖 , 𝑎 0 , 𝑎 1 , … , 𝑎 𝑚 ) от 𝑦 𝑖 , тем меньше значение 𝑤 𝑖 3. Применяем МНК с весами 𝑤 𝑖 : Φ(𝑎 0 , 𝑎 1 , … , 𝑎 𝑚 ) = ∑ 𝑤 𝑖 (𝜑(𝑥 𝑖 , 𝑎 0 , 𝑎 1 , … , 𝑎 𝑚 ) − 𝑦 𝑖 ) 2 → min 𝑛 𝑖=0 4. Повторяем пп.2-3 (выше) пока приближение не станет стабильным. Результат: 𝜑(𝑥, 𝑎 0 , 𝑎 1 , … , 𝑎 𝑚 ) Пример в Curve Fitting Toolbox (cftool). Пример нелинейной модели в Curve Fitting Toolbox (cftool) — указание начального приближения, … Сглаживающие сплайны 11 Решение СЛАУ прямыми методами. Метод Гаусса. Проблема накопления ошибок в процессе решения. Источники ошибок. Вывод оценки для погрешности решения СЛАУ при возмущении ее правой части. Число обусловленности матрицы и его влияние на получающееся решение 12 Решение СЛАУ прямыми методами. Вычислительные затраты на решение СЛАУ с диагональными, треугольными и полностью заполненными матрицами. Матричные разложения. LU-разложение и разложение Холецкого (вывод формул для матриц 3 на 3) 13 Матричные разложения. Разложение Холецкого. Теорема о существовании и единственности разложения (доказательство только существования). Обоснование отсутствия необходимости в выборе ведущего элемента при разложении Холецкого прямыми методами 14 Матричные разложения. Метод вращений для решения СЛАУ и QR-разложение 15 Матричные разложения. Вычисление определителя матрицы. Вычисление обратной матрицы при помощи LU-разложения. Итерационное уточнение решения, полученного прямыми методами 16 Метод простых итераций для решения СЛАУ. Метод Якоби. Метод Зейделя. Достаточные условия сходимости методов Якоби и Зейделя (без доказательства) 17 Теорема о достаточных условиях сходимости метода простых итераций (доказательство, априорная и апостериорная оценка ошибки) |