Главная страница

Лекция 3 Линейная регрессия


Скачать 232.75 Kb.
НазваниеЛекция 3 Линейная регрессия
Дата06.10.2022
Размер232.75 Kb.
Формат файлаpdf
Имя файлаlecture03-linregr.pdf
ТипЛекция
#718402

Лекция 3
Линейная регрессия
Е. А. Соколов
ФКН ВШЭ
27 сентября 2021 г.
1
Переобучение
Нередко в машинном обучении модель оказывается переобученной — её каче- ство на новых данных существенно хуже качества на обучающей выборке. Действи- тельно, при обучении мы требуем от модели лишь хорошего качества на обучающей выборке, и совершенно не очевидно, почему она должна при этом хорошо обобщать эти результаты на новые объекты.
В следующем разделе мы обсудим подходы к оцениванию обобщающей спо- собности, а пока разберём явление переобучения на простом примере. Рассмотрим некоторую одномерную выборку, значения единственного признака x в которой гене- рируются равномерно на отрезке [0, 1], а значения целевой переменной выбираются по формуле y = cos(1.5πx) +
N (0, 0.01), где N (µ, σ
2
) — нормальное распределение со средним µ и дисперсией σ
2
. Попробуем восстановить зависимость с помощью ли- нейных моделей над тремя наборами признаков:
{x}, {x, x
2
, x
3
, x
4
} и {x, x
2
, . . . , x
15
}.
Соответствующие результаты представлены на рис.
1
Видно, что при использовании признаков высоких степеней модель получа- ет возможность слишком хорошо подстроиться под выборку, из-за чего становится непригодной для дальнейшего использования. Эту проблему можно решать многими способами — например, использовать более узкий класс моделей или штрафовать за излишнюю сложность полученной модели. Так, можно заметить, что у переобучен- ной модели, полученной на третьем наборе признаков, получаются очень большие коэффициенты при признаках. Как правило, именно норма вектора коэффициентов используется как величина, которая штрафуется для контроля сложности модели.
Такой подход называется регуляризацией, речь о нём пойдёт в следующих лекциях.
2
Оценивание качества моделей
В примере, о котором только что шла речь, мы не можем обнаружить переобу- ченность модели по обучающей выборке
1
. С другой стороны, если бы у нас были
1
Конечно, это можно было бы заметить по большим весам в модели, но связь между нормой весов и обобщающей способностью алгоритма неочевидна.
1

2
Рис. 1. Регрессионные кривые для признаковых наборов различной сложности.
дополнительные объекты с известными ответами, то по ним заметить низкое каче- ство модели было бы довольно легко.
На данной идее основан подход с отложенной выборкой. Имеющиеся размечен- ные данные (т.е. данные с известными ответами) разделяются на две части: обуча- ющую и контрольную. На обучающей выборке, как это следует из названия, модель обучается, а на контрольной выборке проверяется её качество. Если значение функ- ционала на контрольной выборке оказалось удовлетворительным, то можно считать,
что модель смогла извлечь закономерности при обучении.
Использование отложенной выборки приводит к одной существенной пробле- ме: результат существенно зависит от конкретного разбиения данных на обучение и контроль. Мы не знаем, какое качество получилось бы, если бы объекты из данно- го контроля оказались в обучении. Решить эту проблему можно с помощью кросс- валидации
. Размеченные данные разбиваются на k блоков X
1
, . . . , X
k примерно оди- накового размера. Затем обучается k моделей a
1
(x), . . . , a k
(x), причём i-я модель обучается на объектах из всех блоков, кроме блока i. После этого качество каждой модели оценивается по тому блоку, который не участвовал в её обучении, и резуль- таты усредняются:
CV =
1
k k
X
i
=1
Q (a i
(x), X
i
) .
Допустим, мы оценили качество некоторого метода обучения с помощью кросс- валидации и убедились, что выдаваемые им модели хорошо обобщают. Как получить финальную модель для дальнейшего использования? Разумными будут следующие варианты:
1. Обучить модель тем же способом на всех доступных данных. Если мы исполь- зовали кросс-валидацию, скажем, по 5 блокам, то каждая модель обучалась на 80% от общего числа объектов обучающей выборки. Если построить итого- вую модель на всей выборке, то её параметры будут подобраны по большему числу объектов и можно надеяться, что качество вырастет.
2. Если возможности обучить финальную модель нет (например, это слишком долго), то можно построить композицию из моделей a
1
(x), . . . , a k
(x), получен-

3
ных в процессе кросс-валидации. Под композицией может пониматься, напри- мер, усреднение прогнозов этих моделей, если мы решаем задачу регрессии.
Позже в курсе мы выясним, что идея такого объединения нескольких моделей оказывается полезной при правильном применении.
3
Обучение линейной регрессии
Нередко линейная регрессия обучается с использованием среднеквадратичной ошибки. В этом случае получаем задачу оптимизации (считаем, что среди признаков есть константный, и поэтому свободный коэффициент не нужен):
1


X
i
=1
(
hw, x i
i − y i
)
2
→ min w
Эту задачу можно переписать в матричном виде. Если X — матрица «объекты- признаки», y — вектор ответов, w — вектор параметров, то приходим к виду
1

kXw − yk
2
→ min w
,
(3.1)
где используется обычная L
2
-норма. Если продифференцировать данный функцио- нал по вектору w, приравнять к нулю и решить уравнение, то получим явную форму- лу для решения (подробный вывод формулы можно найти в материалах семинаров):
w = (X
T
X)
−1
X
T
y.
Безусловно, наличие явной формулы для оптимального вектора весов — это большое преимущество линейной регрессии с квадратичным функционалом. Но дан- ная формула не всегда применима по ряду причин:
• Обращение матрицы — сложная операция с кубической сложностью от количе- ства признаков. Если в выборке тысячи признаков, то вычисления могут стать слишком трудоёмкими. Решить эту проблему можно путём использования чис- ленных методов оптимизации.
• Матрица X
T
X может быть вырожденной или плохо обусловленной. В этом слу- чае обращение либо невозможно, либо может привести к неустойчивым резуль- татам. Проблема решается с помощью регуляризации, речь о которой пойдёт ниже.
Следует понимать, что аналитические формулы для решения довольно редки в машинном обучении. Если мы заменим MSE на другой функционал, то найти та- кую формулу, скорее всего, не получится. Желательно разработать общий подход, в рамках которого можно обучать модель для широкого класса функционалов. Такой подход действительно есть для дифференцируемых функций — обсудим его подроб- нее.

4 4
Градиентный спуск и оценивание градиента
Оптимизационные задачи вроде (
3.1
) можно решать итерационно с помощью градиентных методов (или же методов, использующих как градиент, так и инфор- мацию о производных более высокого порядка).
§4.1
Градиент и его свойства
Градиентом функции f : R
d
→ R называется вектор его частных производных:
∇f(x
1
, . . . , x d
) =
 ∂f
∂x j

d j
=1
Известно, что градиент является направлением наискорейшего роста функции,
а антиградиент (т.е.
−∇f) — направлением наискорейшего убывания. Это ключевое свойство градиента, обосновывающее его использование в методах оптимизации.
Докажем данное утверждение. Пусть v
∈ R
d
— произвольный вектор, лежащий на единичной сфере:
kvk = 1. Пусть x
0
∈ R
d
— фиксированная точка пространства.
Скорость роста функции в точке x
0
вдоль вектора v характеризуется производной по направлению
∂f
∂v
:
∂f
∂v
=
d dt f (x
0,1
+ tv
1
, . . . , x
0,d
+ tv d
)
|
t
=0
Из курса математического анализа известно, что данную производную сложной функции можно переписать следующим образом:
∂f
∂v
=
d
X
j
=1
∂f
∂x j
d dt
(x
0,j
+ tv j
) =
d
X
j
=1
∂f
∂x j
v j
=
h∇f, vi.
Распишем скалярное произведение:
h∇f, vi = k∇fkkvk cos ϕ = k∇fk cos ϕ,
где ϕ — угол между градиентом и вектором v. Таким образом, производная по на- правлению будет максимальной, если угол между градиентом и направлением равен нулю, и минимальной, если угол равен 180 градусам. Иными словами, производная по направлению максимальна вдоль градиента и минимальна вдоль антиградиента.
У градиента есть ещё одно свойство, которое пригодится нам при попытках визуализировать процесс оптимизации, — он ортогонален линиям уровня. Докажем это. Пусть x
0
— некоторая точка, S(x
0
) =
{x ∈ R
d
| f(x) = f(x
0
)
} — соответствующая линия уровня. Разложим функцию в ряд Тейлора на этой линии в окрестности x
0
:
f (x
0
+ ε) = f (x
0
) +
h∇f, εi + o(kεk),
где x
0
+ ε
∈ S(x
0
). Поскольку f (x
0
+ ε) = f (x
0
) (как-никак, это линия уровня),
получим h∇f, εi = o(kεk).

5
Поделим обе части на kεk:

∇f,
ε
kεk

= o(1).
Устремим kεk к нулю. При этом вектор
ε
kεk будет стремится к касательной к линии уровня в точке x
0
. В пределе получим, что градиент ортогонален этой касательной.
§4.2
Градиентный спуск
Основное свойство антиградиента — он указывает в сторону наискорейшего убывания функции в данной точке. Соответственно, будет логично стартовать из некоторой точки, сдвинуться в сторону антиградиента, пересчитать антиградиент и снова сдвинуться в его сторону и т.д. Запишем это более формально. Пусть w
(0)
— на- чальный набор параметров (например, нулевой или сгенерированный из некоторого случайного распределения). Тогда градиентный спуск состоит в повторении следую- щих шагов до сходимости:
w
(k)
= w
(k−1)
− η
k
∇Q(w
(k−1)
).
(4.1)
Здесь под Q(w) понимается значение функционала ошибки для набора параметров w.
Через η
k обозначается длина шага, которая нужна для контроля скорости дви- жения. Можно делать её константной: η
k
= c. При этом если длина шага слишком большая, то есть риск постоянно «перепрыгивать» через точку минимума, а если шаг слишком маленький, то движение к минимуму может занять слишком много итера- ций. Иногда длину шага монотонно уменьшают по мере движения — например, по простой формуле
η
k
=
1
k
В пакете vowpal wabbit, реализующем настройку и применение линейных моделей,
используется более сложная формула для шага в градиентном спуске:
η
k
= λ

s
0
s
0
+ k

p
,
где λ, s
0
и p — параметры (мы опустили в формуле множитель, зависящий от номера прохода по выборке). На практике достаточно настроить параметр λ, а остальным присвоить разумные значения по умолчанию: s
0
= 1, p = 0.5, d = 1.
Останавливать итерационный процесс можно, например, при близости гради- ента к нулю (
k∇Q(w
(k−1)
k < ε) или при слишком малом изменении вектора весов на последней итерации (
kw
(k)
− w
(k−1)
k < ε). Также неплохой идеей будет следить за ошибкой модели на отложенной выборке и останавливаться, если эта ошибка пере- стала убывать.
Существует большое количество условий сходимости градиентного спуска.
Обычно они звучат примерно так [
1
]: если функция выпуклая и дифференцируе- мая, для её первой производной выполнено условие Липшица, длина шага выбрана правильно (чем больше липшицева константа, тем меньше должен быть шаг), то

6
градиентный спуск сойдётся к минимуму функции. Впрочем, теоретически обосно- ванную длину шага использовать сложно — липшицеву константу не всегда легко посчитать, да и её выбор может дать слишком медленную сходимость. Проще вы- брать длину шага, исходя из качества получаемой модели на отложенной выборке.
Также имеет место следующая оценка сходимости для градиентного спуска:
Q(w
(k)
)
− Q(w

) = O(1/k).
Ничего не мешает использовать градиентный спуск и для минимизации невы- пуклых функционалов. Разумеется, гарантий в этом случае куда меньше: мы можем попасть в плохой локальный минимум или вообще в седловую точку функционала.
§4.3
Оценивание градиента
Как правило, в задачах машинного обучения функционал Q(w) представим в виде суммы ℓ функций:
Q(w) =
1


X
i
=1
q i
(w).
В таком виде, например, записан функционал в задаче (
3.1
), где отдельные функ- ции q i
(w) соответствуют ошибкам на отдельных объектах.
Проблема метода градиентного спуска (
4.1
) состоит в том, что на каждом шаге необходимо вычислять градиент всей суммы (будем его называть полным градиен- том):

w
Q(w) =
1


X
i
=1

w q
i
(w).
Это может быть очень трудоёмко при больших размерах выборки. В то же время точное вычисление градиента может быть не так уж необходимо — как правило, мы делаем не очень большие шаги в сторону антиградиента, и наличие в нём неточно- стей не должно сильно сказаться на общей траектории. Опишем несколько способов оценивания полного градиента.
4.3.1
Стохастический градиентный спуск
Оценить градиент суммы функций можно градиентом одного случайно взятого слагаемого:

w
Q(w)
≈ ∇
w q
i k
(w),
где i k
— случайно выбранный номер слагаемого из функционала. В этом случае мы получим метод стохастического градиентного спуска (stochastic gradient descent,
SGD) [
2
]:
w
(k)
= w
(k−1)
− η
k
∇q i
k
(w
(k−1)
).

7
У обычного градиентного спуска есть важная особенность: чем ближе текущая точка к минимуму, тем меньше в ней градиент, за счёт чего процесс замедляется и аккурат- но попадает в окрестность минимума. В случае со стохастическим градиентным спус- ком это свойство теряется. На каждом шаге мы двигаемся в сторону, оптимальную с точки зрения уменьшения ошибки на одном объекте. Параметры, оптимальные для средней ошибки на всей выборке, не обязаны являться оптимальными для ошибки на одном из объектов. Поэтому SGD метод запросто может отдаляться от минимума,
даже оказавшись рядом с ним. Чтобы исправить эту проблему, важно в SGD делать длину шага убывающей — тогда в окрестности оптимума мы уже не сможем делать длинные шаги и, как следствие, не сможем из этой окрестности выйти. Разумеется,
потребуется выбирать формулу для длины шага аккуратно, чтобы не остановить- ся слишком рано и не уйти от минимума. В частности, сходимость для выпуклых дифференцируемых функций гарантируется (с вероятностью 1), если функционал удовлетворяет ряду условий (как правило, это выпуклость, дифференцируемость и липшицевость градиента) и длина шага удовлетворяет условиям Роббинса-Монро:

X
k
=1
η
k
=
∞;

X
k
=1
η
2
k
<
∞.
Этим условиям, например, удовлетворяет шаг η
k
=
1
k
. На практике сходимость с ним может оказаться слишком медленной, поэтому правильнее будет подбирать формулу для длины шага более аккуратно.
Для выпуклого и гладкого функционала может быть получена следующая оцен- ка:
E
Q(w
(k)
)
− Q(w

)
 = O(1/

k).
Таким образом, метод стохастического градиента имеет менее трудоемкие итерации по сравнению с полным градиентом, но и скорость сходимости у него существенно меньше.
Отметим одно важное преимущество метода стохастического градиентного спуска. Для выполнения одного шага в данном методе требуется вычислить гра- диент лишь одного слагаемого — а поскольку одно слагаемое соответствует ошибке на одном объекте, то получается, что на каждом шаге необходимо держать в памя- ти всего один объект из выборки. Данное наблюдение позволяет обучать линейные модели на очень больших выборках: можно считывать объекты с диска по одному,
и по каждому делать один шаг метода SGD.
Можно повысить точность оценки градиента, используя несколько слагаемых вместо одного:

w
Q(w)

1
n n
X
j
=1

w q
i kj
(w),
где i kj
— случайно выбранные номера слагаемых из функционала (j пробегает значе- ния от 1 до n), а n — параметр метода, размер пачки объектов для одного градиент- ного шага. С такой оценкой мы получим метод mini-batch gradient descent, который часто используется для обучения дифференцируемых моделей.

8 4.3.2
Метод SAG
В 2013 году был предложен метод среднего стохастического градиента (stochastic average gradient) [
3
], который в некотором смысле сочетает низкую сложность ите- раций стохастического градиентного спуска и высокую скорость сходимости полного градиентного спуска. В начале работы в нём выбирается первое приближение w
0
,
и инициализируются вспомогательные переменные z
0
i
, соответствующие градиентам слагаемых функционала:
z
(0)
i
=
∇q i
(w
(0)
),
i = 1, . . . , ℓ.
На k-й итерации выбирается случайное слагаемое i k
и обновляются вспомогательные переменные:
z
(k)
i
=
(
∇q i
(w
(k−1)
), если i = i k
;
z
(k−1)
i иначе.
Иными словами, пересчитывается один из градиентов слагаемых. Оценка градиента вычисляется как среднее вспомогательных переменных — то есть мы используем все слагаемые, как в полном градиенте, но при этом почти все слагаемые берутся с предыдущих шагов, а не пересчитываются:

w
Q(w)

1


X
i
=1
z
(k)
i
Наконец, делается градиентный шаг:
w
(k)
= w
(k−1)
− η
k
1


X
i
=1
z
(k)
i
(4.2)
Данный метод имеет такой же порядок сходимости для выпуклых и гладких функ- ционалов, как и обычный градиентный спуск:
E
Q(w
(k)
)
− Q(w

)
 = O(1/k).
Заметим, что для метода SAG требуется хранение последних вычисленных гра- диентов для всех объектов выборки. В некоторых случаях этого можно избежать.
Например, в случае с линейными моделями функционал ошибки можно представить в виде
Q(w) =
1


X
i
=1
q i
(
hw, x i
i).
Градиент i-го слагаемого выглядит как

w q
i
(
hw, x i
i) = q

i
(
hw, x i
i)x i
Значит, нам достаточно для каждого объекта хранить число q

i
(
hw, x i
i) — этого хватит для восстановления старого градиента.
Для уменьшения количества вычислений можно инициализировать z
(0)
i нулями,
а не градиентами отдельных слагаемых из функционала ошибки. В этом случае в формуле шага (
4.2
) важно делить сумму z
(k)
i не на общее число объектов ℓ, а на число объектов, чей градиент вычислялся хотя бы раз. В противном случае на первых итерациях шаги будут очень маленькими.

9 4.3.3
Другие подходы
Существует множество других способов получения оценки градиента. Напри- мер, это можно делать без вычисления каких-либо градиентов вообще [
4
] — доста- точно взять случайный вектор u на единичной сфере и домножить его на значение функции в данном направлении:

w
Q(w) = Q(w + δu)u.
Можно показать, что данная оценка является несмещённой для сглаженной версии функционала Q.
В задаче оценивания градиента можно зайти ещё дальше. Если вычислять гра- диенты

w q
i
(w) сложно, то можно обучить модель, которая будет выдавать оценку градиента на основе текущих значений параметров. Этот подход был предложен для обучения глубинных нейронных сетей [
5
].
§4.4
Модификации градиентного спуска
С помощью оценок градиента можно уменьшать сложность одного шага гради- ентного спуска, но при этом сама идея метода не меняется — мы движемся в сторону наискорейшего убывания функционала. Конечно, такой подход не идеален, и можно по-разному его улучшать, устраняя те или иные его проблемы. Мы разберём два примера таких модификаций — одна будет направлена на борьбу с осцилляциями, а вторая позволит автоматически подбирать длину шага.
Метод инерции (momentum).
Может оказаться, что направление антиградиен- та сильно меняется от шага к шагу. Например, если линии уровня функционала сильно вытянуты, то из-за ортогональности градиента линиям уровня он будет ме- нять направление на почти противоположное на каждом шаге. Такие осцилляции будут вносить сильный шум в движение, и процесс оптимизации займёт много ите- раций. Чтобы избежать этого, можно усреднять векторы антиградиента с нескольких предыдущих шагов — в этом случае шум уменьшится, и такой средний вектор бу- дет указывать в сторону общего направления движения. Введём для этого вектор инерции:
h
0
= 0;
h k
= αh k
−1
+ η
k

w
Q(w
(k−1)
).
Здесь α — параметр метода, определяющей скорость затухания градиентов с преды- дущих шагов. Разумеется, вместо вектора градиента может быть использована его аппроксимация. Чтобы сделать шаг градиентного спуска, просто сдвинем предыду- щую точку на вектор инерции:
w
(k)
= w
(k−1)
− h k
Заметим, что если по какой-то координате градиент постоянно меняет знак,
то в результате усреднения градиентов в векторе инерции эта координата окажется близкой к нулю. Если же по координате знак градиента всегда одинаковый, то ве- личина соответствующей координаты в векторе инерции будет большой, и мы будем делать большие шаги в соответствующем направлении.

10
AdaGrad и RMSprop.
Градиентный спуск очень чувствителен к выбору длины ша- га. Если шаг большой, то есть риск, что мы будем «перескакивать» через точку минимума; если же шаг маленький, то для нахождения минимума потребуется мно- го итераций. При этом нет способов заранее определить правильный размер шага —
к тому же, схемы с постепенным уменьшением шага по мере итераций могут тоже плохо работать.
В методе AdaGrad предлагается сделать свою длину шага для каждой компо- ненты вектора параметров. При этом шаг будет тем меньше, чем более длинные шаги мы делали на предыдущих итерациях:
G
kj
= G
k
−1,j
+ (

w
Q(w
(k−1)
))
2
j
;
w
(k)
j
= w
(k−1)
j

η
t pG
kj
+ ε
(

w
Q(w
(k−1)
))
j
Здесь ε — небольшая константа, которая предотвращает деление на ноль. В данном методе можно зафксировать длину шага (например, η
k
= 0.01) и не подбирать её в процессе обучения. Отметим, что данный метод подходит для разреженных задач, в которых у каждого объекта большинство признаков равны нулю. Для признаков, у которых ненулевые значения встречаются редко, будут делаться большие шаги; если же какой-то признак часто является ненулевым, то шаги по нему будут небольшими.
У метода AdaGrad есть большой недостаток: переменная G
kj монотонно рас- тёт, из-за чего шаги становятся всё медленнее и могут остановиться ещё до того,
как достигнут минимум функционала. Проблема решается в методе RMSprop, где используется экспоненциальное затухание градиентов:
G
kj
= αG
k
−1,j
+ (1
− α)(∇
w
Q(w
(k−1)
))
2
j
В этом случае размер шага по координате зависит в основном от того, насколько быстро мы двигались по ней на последних итерациях.
Adam.
Можно объединить идеи описанных выше методов: накапливать градиенты со всех прошлых шагов для избежания осцилляций и делать адаптивную длину шага по каждому параметру. Такой метод называется Adam [
6
].
Список литературы
[1] Nesterov, Y. (2004). Introductory Lectures on Convex Optimization. // Springer-
Verlag US 2004.
[2] Robbins, H., Monro S. (1951). A stochastic approximation method. // Annals of
Mathematical Statistics, 22 (3), p. 400-407.
[3] Schmidt, M., Le Roux, N., Bach, F. (2013). Minimizing finite sums with the stochastic average gradient. // Arxiv.org.
[4] Flaxman, Abraham D. and Kalai, Adam Tauman and McMahan, H. Brendan (2005).
Online Convex Optimization in the Bandit Setting: Gradient Descent Without a
Gradient. // Proceedings of the Sixteenth Annual ACM-SIAM Symposium on Discrete
Algorithms.

11
[5] Jaderberg, M. et. al (2016). Decoupled Neural Interfaces using Synthetic Gradients. //
Arxiv.org.
[6] Diederik P. Kingma and Jimmy Ba (2014). Adam: A Method for Stochastic
Optimization. //
https://arxiv.org/abs/1412.6980


написать администратору сайта