Главная страница
Навигация по странице:

  • Метод наименьших квадратов Пример.

  • Суть метода наименьших квадратов (МНК).

  • Автоматическое устранение выбросов — адаптивный МНК с весами

  • Сглаживающие сплайны

  • числаки. Название билета и его решение


    Скачать 3.03 Mb.
    НазваниеНазвание билета и его решение
    Анкорчислаки
    Дата12.03.2023
    Размер3.03 Mb.
    Формат файлаpdf
    Имя файлаBooook.pdf
    ТипРешение
    #983294
    страница4 из 4
    1   2   3   4
    Приближение данных.
    Метод наименьших квадратов.
    Данные без ошибок
    Данные с ошибками
    Интерполяция

    Приближение
    Модели (функции) для приближения данных
    Эксперимент по определению жесткости пружины F = k·x
    ………………
    Получили набор данных (F
    k
    , x
    k
    ) Приблизили прямой
    По углу наклона прямой определили коэффициент жесткости k
    Метод наименьших квадратов
    Пример.
    Экспериментальные данные о значениях переменных х и у приведены в таблице.

    В результате их выравнивания получена функция
    Используя метод наименьших квадратов , аппроксимировать эти данные линейной зависимостью y=ax+b (найти параметры а и b). Выяснить, какая из двух линий лучше (в смысле метода наименьших квадратов) выравнивает экспериментальные данные. Сделать чертеж.
    Суть метода наименьших квадратов (МНК).
    Задача заключается в нахождении коэффициентов линейной зависимости, при которых функция двух переменных а и b принимает наименьшее значение. То есть, при данных а и b сумма квадратов отклонений экспериментальных данных от найденной прямой будет наименьшей. В этом вся суть метода наименьших квадратов.
    Таким образом, решение примера сводится к нахождению экстремума функции двух переменных
    Модели для приближения данных
    Линейные
    Нелинейные
    y = a
    0
    [exp(x/a
    1
    ) - 1]
    y = a
    0
    sin(a
    1
    x) + a
    2

    Полиномиальные
    F = k·x
    y = a
    0
    + a
    1
    x
    y = a
    0
    + a
    1
    x + a
    2
    x
    2
    ...
    Общего вида
    y = a
    0
    φ
    0
    (x) + a
    1
    φ
    1
    (x)
    / y = a
    0 sin(x) + a
    1 sin(2x) /
    y = a
    0
    φ
    0
    (x) + a
    1
    φ
    1
    (x) + a
    2
    φ
    2
    (x)

    Критерий приближения:
    Φ(𝑎
    0
    , 𝑎
    1
    , … , 𝑎
    𝑚
    ) = ∑(𝜑(𝑥
    𝑖
    , 𝑎
    0
    , 𝑎
    1
    , … , 𝑎
    𝑚
    ) − 𝑦
    𝑖
    )
    2
    → min
    𝑛
    𝑖=0
    Задача
    Φ(𝑎
    0
    , 𝑎
    1
    ) = ∑(𝑎
    0
    + 𝑎
    1
    𝑥
    𝑖
    − 𝑦
    𝑖
    )
    2
    → min
    𝑛
    𝑖=0
    сведена к решению СЛАУ (системы линейных алгебраических уравнений)
    {
    𝑎
    0
    + (
    1
    𝑛 + 1
    ∑ 𝑥
    𝑖
    𝑛
    𝑖=0
    ) 𝑎
    1
    =
    1
    𝑛 + 1
    ∑ 𝑦
    𝑖
    𝑛
    𝑖=0
    (∑ 𝑥
    𝑖
    𝑛
    𝑖=0
    ) 𝑎
    0
    + (∑ 𝑥
    𝑖
    2
    𝑛
    𝑖=0
    ) 𝑎
    1
    = ∑ 𝑥
    𝑖
    𝑦
    𝑖
    𝑛
    𝑖=0

    Решаем, находим y = a
    0
    + a
    1
    x
    Вопрос: не будет ли матрица этой системы вырожденной? Самостоятельно со стр. 419
    (Вержбицкий). Использовать понятие линейной независимости векторов, матрицы
    (определителя Грама).
    Общий случай (самостоятельно, Вержбицкий, стр. 418)
    Составляется и решается система из двух уравнений с двумя неизвестными. Находим частные производные функции по переменным а и b, приравниваем эти производные к нулю.
    Решаем полученную систему уравнений любым методом (например методом подстановки или методом Крамера
    ) и получаем формулы для нахождения коэффициентов по методу наименьших квадратов (МНК).

    При данных а и b функция принимает наименьшее значение. Доказательство этого факта приведено ниже по тексту в конце страницы
    Вот и весь метод наименьших квадратов. Формула для нахождения параметра a содержит суммы
    ,
    ,
    , и параметр n - количество экспериментальных данных. Значения этих сумм рекомендуем вычислять отдельно. Коэффициент
    b находится после вычисления a.
    10
    Приближение данных. Постановка задачи. Критерий приближения — наименьшие квадраты.
    Выбросы в данных. Адаптивный метод наименьших квадратов с весами. Сглаживающие сплайны.
    Автоматическое устранение выбросов — адаптивный МНК с весами
    Φ(𝑎
    0
    , 𝑎
    1
    , … , 𝑎
    𝑚
    ) = ∑ 𝑤
    𝑖
    (𝜑(𝑥
    𝑖
    , 𝑎
    0
    , 𝑎
    1
    , … , 𝑎
    𝑚
    ) − 𝑦
    𝑖
    )
    2
    → min
    𝑛
    𝑖=0
    𝑤
    𝑖
    — веса данных
    Алгоритм адаптивного назначения весов данных:
    1. Все 𝑤
    𝑖
    = 1. Находим приближение (𝑎
    0
    , 𝑎
    1
    , … , 𝑎
    𝑚
    ):
    Φ(𝑎
    0
    , 𝑎
    1
    , … , 𝑎
    𝑚
    ) = ∑(𝜑(𝑥
    𝑖
    , 𝑎
    0
    , 𝑎
    1
    , … , 𝑎
    𝑚
    ) − 𝑦
    𝑖
    )
    2
    → min
    𝑛
    𝑖=0 2. Определяем значения весов: чем больше уклонение 𝜑(𝑥
    𝑖
    , 𝑎
    0
    , 𝑎
    1
    , … , 𝑎
    𝑚
    ) от 𝑦
    𝑖
    , тем меньше значение 𝑤
    𝑖
    3. Применяем МНК с весами 𝑤
    𝑖
    :
    Φ(𝑎
    0
    , 𝑎
    1
    , … , 𝑎
    𝑚
    ) = ∑ 𝑤
    𝑖
    (𝜑(𝑥
    𝑖
    , 𝑎
    0
    , 𝑎
    1
    , … , 𝑎
    𝑚
    ) − 𝑦
    𝑖
    )
    2
    → min
    𝑛
    𝑖=0 4. Повторяем пп.2-3 (выше) пока приближение не станет стабильным.
    Результат: 𝜑(𝑥, 𝑎
    0
    , 𝑎
    1
    , … , 𝑎
    𝑚
    )
    Пример в Curve Fitting Toolbox (cftool).
    Пример нелинейной модели в Curve Fitting Toolbox (cftool) — указание начального приближения, …
    Сглаживающие сплайны

    11
    Решение СЛАУ прямыми методами. Метод Гаусса. Проблема накопления ошибок в процессе решения. Источники ошибок. Вывод оценки для погрешности решения СЛАУ при возмущении ее правой части. Число обусловленности матрицы и его влияние на получающееся решение
    12
    Решение СЛАУ прямыми методами. Вычислительные затраты на решение СЛАУ с диагональными, треугольными и полностью заполненными матрицами. Матричные разложения.
    LU-разложение и разложение Холецкого (вывод формул для матриц 3 на 3)
    13
    Матричные разложения. Разложение Холецкого. Теорема о существовании и единственности разложения (доказательство только существования). Обоснование отсутствия необходимости в выборе ведущего элемента при разложении Холецкого прямыми методами
    14
    Матричные разложения. Метод вращений для решения СЛАУ и QR-разложение
    15
    Матричные разложения. Вычисление определителя матрицы. Вычисление обратной матрицы при помощи LU-разложения. Итерационное уточнение решения, полученного прямыми методами
    16
    Метод простых итераций для решения СЛАУ. Метод Якоби. Метод Зейделя. Достаточные условия сходимости методов Якоби и Зейделя (без доказательства)
    17
    Теорема о достаточных условиях сходимости метода простых итераций (доказательство, априорная и апостериорная оценка ошибки)
    1   2   3   4


    написать администратору сайта