54
Метод опорных векторов Лекция N 7 курса “Алгоритмы для Интернета” Юрий Лифшиц ПОМИ РАН - СПбГУ ИТМО Осень 2006 1 / 26

Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

  • Upload
    others

  • View
    9

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Метод опорных векторовЛекция N 7 курса

“Алгоритмы для Интернета”

Юрий Лифшиц

ПОМИ РАН - СПбГУ ИТМО

Осень 2006

1 / 26

Page 2: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Рекорд

Книга 1995 года “The Nature of Statistical LearningTheory” Владимира Вапника цитируется более 6400 раз

Статистика Google Scholar

2 / 26

Page 3: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

План лекции

1 Оптимальная разделяющая гиперплоскостьСлучай линейной разделимостиШумы и штрафы

2 Обучение машины опорных векторовПостановка задачи квадратичной оптимизацииМетод последовательных мини-оптимизаций

3 Расширение пространства признаков

3 / 26

Page 4: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

План лекции

1 Оптимальная разделяющая гиперплоскостьСлучай линейной разделимостиШумы и штрафы

2 Обучение машины опорных векторовПостановка задачи квадратичной оптимизацииМетод последовательных мини-оптимизаций

3 Расширение пространства признаков

3 / 26

Page 5: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

План лекции

1 Оптимальная разделяющая гиперплоскостьСлучай линейной разделимостиШумы и штрафы

2 Обучение машины опорных векторовПостановка задачи квадратичной оптимизацииМетод последовательных мини-оптимизаций

3 Расширение пространства признаков

3 / 26

Page 6: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Часть I

Формальная постановка задачи классификации

Как выбрать лучший линейный классификатор?

Как определить уровень ошибки линейногоклассификатора?

4 / 26

Page 7: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Абстрактная задача классификации

Объекты: вектора n-мерного пространстваКаждая координата соответствует признакуКатегории: сегодня рассматриваем только бинарнуюклассификацию (две категории)

Учебная коллекция: даны документы (вектора)x1, . . . , xn и их принадлежность к двум классамy1, . . . , yn ∈ {1,−1}

Цель ученых: построить по учебной коллекцииоптимальное классифицирующее правилозаданного вида.

5 / 26

Page 8: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Абстрактная задача классификации

Объекты: вектора n-мерного пространстваКаждая координата соответствует признакуКатегории: сегодня рассматриваем только бинарнуюклассификацию (две категории)

Учебная коллекция: даны документы (вектора)x1, . . . , xn и их принадлежность к двум классамy1, . . . , yn ∈ {1,−1}

Цель ученых: построить по учебной коллекцииоптимальное классифицирующее правилозаданного вида.

5 / 26

Page 9: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Абстрактная задача классификации

Объекты: вектора n-мерного пространстваКаждая координата соответствует признакуКатегории: сегодня рассматриваем только бинарнуюклассификацию (две категории)

Учебная коллекция: даны документы (вектора)x1, . . . , xn и их принадлежность к двум классамy1, . . . , yn ∈ {1,−1}

Цель ученых: построить по учебной коллекцииоптимальное классифицирующее правилозаданного вида.

5 / 26

Page 10: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Линейный классификатор (1/3)

w · xi > b ⇒ yi = 1w · xi < b ⇒ yi = −1

6 / 26

Page 11: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Линейный классификатор (2/3)

Разделение полосой:w · xi ≥ b + ε ⇒ yi = 1w · xi ≤ b − ε ⇒ yi = −1

7 / 26

Page 12: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Линейный классификатор (3/3)

Домножив w на 1ε , можем считать ε = 1:

w · xi − b ≥ 1 ⇒ yi = 1w · xi − b ≤ −1 ⇒ yi = −1

Как выбрать наилучшую разделяющую полосу?

Выберем самую широкуюФакт: ширина полосы равна 2

‖w‖

8 / 26

Page 13: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Линейный классификатор (3/3)

Домножив w на 1ε , можем считать ε = 1:

w · xi − b ≥ 1 ⇒ yi = 1w · xi − b ≤ −1 ⇒ yi = −1

Как выбрать наилучшую разделяющую полосу?

Выберем самую широкуюФакт: ширина полосы равна 2

‖w‖

8 / 26

Page 14: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Линейный классификатор (3/3)

Домножив w на 1ε , можем считать ε = 1:

w · xi − b ≥ 1 ⇒ yi = 1w · xi − b ≤ −1 ⇒ yi = −1

Как выбрать наилучшую разделяющую полосу?

Выберем самую широкуюФакт: ширина полосы равна 2

‖w‖

8 / 26

Page 15: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Формализация

Переформулировка поиска оптимальной разделяющейполосы в виде задачи квадратичной оптимизации:

При ограничениях

yi(w · xi − b) ≥ 1

минимизировать

‖w‖2 = w · w

9 / 26

Page 16: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Шумы и штрафы

Как определить оптимальную полосу, когда категориинельзя разделить строго?

Нужно определить штраф за неправильнуюклассификацию учебных документов и минимизироватьсумму ‖w‖2 и всех штрафов:

При ограничениях

yi(w · xi − b) ≥ 1− ξi , ξi ≥ 0

минимизировать

‖w‖2 + C∑

ξi

10 / 26

Page 17: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Шумы и штрафы

Как определить оптимальную полосу, когда категориинельзя разделить строго?

Нужно определить штраф за неправильнуюклассификацию учебных документов и минимизироватьсумму ‖w‖2 и всех штрафов:

При ограничениях

yi(w · xi − b) ≥ 1− ξi , ξi ≥ 0

минимизировать

‖w‖2 + C∑

ξi

10 / 26

Page 18: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Часть II

Как решить задачу оптимизации?

Можно ли найти оптимальную гиперплоскость, не знаясамих векторов, а только скалярные произведения

между ними?

11 / 26

Page 19: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Множители Лагранжа (1/2)

Метод Лагранжа для нахождения минимума целевойфункции при нескольких условиях-равенствах:

Ввести дополнительные переменные (множителиЛагранжа) λi и составить новую целевую функциюF −

∑λiGi

Взять все производные по старым переменным(координатам x) и приравнять их к нулюС помощью получившихся уравнений выразить xчерез λ1, . . . , λk

Подставить получившуюся формулу для x в kограничений-равенств и решить эти k уравнений с kнеизвестными

12 / 26

Page 20: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Множители Лагранжа (1/2)

Метод Лагранжа для нахождения минимума целевойфункции при нескольких условиях-равенствах:

Ввести дополнительные переменные (множителиЛагранжа) λi и составить новую целевую функциюF −

∑λiGi

Взять все производные по старым переменным(координатам x) и приравнять их к нулю

С помощью получившихся уравнений выразить xчерез λ1, . . . , λk

Подставить получившуюся формулу для x в kограничений-равенств и решить эти k уравнений с kнеизвестными

12 / 26

Page 21: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Множители Лагранжа (1/2)

Метод Лагранжа для нахождения минимума целевойфункции при нескольких условиях-равенствах:

Ввести дополнительные переменные (множителиЛагранжа) λi и составить новую целевую функциюF −

∑λiGi

Взять все производные по старым переменным(координатам x) и приравнять их к нулюС помощью получившихся уравнений выразить xчерез λ1, . . . , λk

Подставить получившуюся формулу для x в kограничений-равенств и решить эти k уравнений с kнеизвестными

12 / 26

Page 22: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Множители Лагранжа (1/2)

Метод Лагранжа для нахождения минимума целевойфункции при нескольких условиях-равенствах:

Ввести дополнительные переменные (множителиЛагранжа) λi и составить новую целевую функциюF −

∑λiGi

Взять все производные по старым переменным(координатам x) и приравнять их к нулюС помощью получившихся уравнений выразить xчерез λ1, . . . , λk

Подставить получившуюся формулу для x в kограничений-равенств и решить эти k уравнений с kнеизвестными

12 / 26

Page 23: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Множители Лагранжа (2/2)

Метод Лагранжа для нахождения минимума целевой функциипри нескольких условиях-неравенствах:

Ввести дополнительные переменные (множители Лагранжа)λi ≥ 0 и составить новую целевую функцию F −

∑λiGi

Взять все производные по старым переменным (координатамx) и приравнять их к нулюС помощью получившихся уравнений выразить x черезλ1, . . . , λk

Для каждого ограничения-неравенства верно одно из двух:(1) или в том условии выполняется строгое равенство, или(2) соответствующий множитель λi равен нулю. Получаетсяk “или-уравнений” для k переменных

13 / 26

Page 24: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Множители Лагранжа (2/2)

Метод Лагранжа для нахождения минимума целевой функциипри нескольких условиях-неравенствах:

Ввести дополнительные переменные (множители Лагранжа)λi ≥ 0 и составить новую целевую функцию F −

∑λiGi

Взять все производные по старым переменным (координатамx) и приравнять их к нулю

С помощью получившихся уравнений выразить x черезλ1, . . . , λk

Для каждого ограничения-неравенства верно одно из двух:(1) или в том условии выполняется строгое равенство, или(2) соответствующий множитель λi равен нулю. Получаетсяk “или-уравнений” для k переменных

13 / 26

Page 25: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Множители Лагранжа (2/2)

Метод Лагранжа для нахождения минимума целевой функциипри нескольких условиях-неравенствах:

Ввести дополнительные переменные (множители Лагранжа)λi ≥ 0 и составить новую целевую функцию F −

∑λiGi

Взять все производные по старым переменным (координатамx) и приравнять их к нулюС помощью получившихся уравнений выразить x черезλ1, . . . , λk

Для каждого ограничения-неравенства верно одно из двух:(1) или в том условии выполняется строгое равенство, или(2) соответствующий множитель λi равен нулю. Получаетсяk “или-уравнений” для k переменных

13 / 26

Page 26: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Множители Лагранжа (2/2)

Метод Лагранжа для нахождения минимума целевой функциипри нескольких условиях-неравенствах:

Ввести дополнительные переменные (множители Лагранжа)λi ≥ 0 и составить новую целевую функцию F −

∑λiGi

Взять все производные по старым переменным (координатамx) и приравнять их к нулюС помощью получившихся уравнений выразить x черезλ1, . . . , λk

Для каждого ограничения-неравенства верно одно из двух:(1) или в том условии выполняется строгое равенство, или(2) соответствующий множитель λi равен нулю. Получаетсяk “или-уравнений” для k переменных

13 / 26

Page 27: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Применим метод Лагранжа (1/3)

Исходная задача: при ограничениях

yi(w · xi − b) ≥ 1− ξi

минимизировать

w · w + C∑

ξi

По методу Лагранжа, нам нужен минимум по w , b, ξi имаксимум по λi новой целевой функции

w · w + C∑

ξi −∑

λi(ξi + yi(w · xi − b)− 1)

при условияхξi ≥ 0, λi ≥ 0

14 / 26

Page 28: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Применим метод Лагранжа (1/3)

Исходная задача: при ограничениях

yi(w · xi − b) ≥ 1− ξi

минимизировать

w · w + C∑

ξi

По методу Лагранжа, нам нужен минимум по w , b, ξi имаксимум по λi новой целевой функции

w · w + C∑

ξi −∑

λi(ξi + yi(w · xi − b)− 1)

при условияхξi ≥ 0, λi ≥ 0

14 / 26

Page 29: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Применим метод Лагранжа (2/3)

Вектор w выражается через множители Лагранжа:

w =∑

λiyixi

Уравнение разделяющей гиперплоскости:∑λiyix · xi + b = 0

Постойте, а как найти b?

15 / 26

Page 30: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Применим метод Лагранжа (2/3)

Вектор w выражается через множители Лагранжа:

w =∑

λiyixi

Уравнение разделяющей гиперплоскости:∑λiyix · xi + b = 0

Постойте, а как найти b?

15 / 26

Page 31: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Применим метод Лагранжа (3/3)

Решению исходной задачи оптимизации соответствуюттакие значения множителей, при которых достигаетсямаксимум ∑

λi −∑i ,j

λiλjyiyj(xi · xj)

при условиях ∑λiyi = 0, 0 ≤ λi ≤ C

16 / 26

Page 32: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Преимущества новой задачи

Новая (двойственная) задача: максимизировать∑λi −

∑i ,j

λiλjyiyj(xi · xj)

при условиях ∑λiyi = 0, 0 ≤ λi ≤ C

Важные свойства:Целевая функция зависит не от самих xi ,а от скалярных произведений между нимиТолько пограничные и “заграничные” учебныевлияют на итоговое правило

17 / 26

Page 33: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Как решать двойственную задачу

Алгоритм Джона Платта (Microsoft Research):1 Начать с набора λi удовлетворяющего ограничением2 Выбрать (используются хитрые эвристики) пару λi , λj

3 При фиксированных значениях остальных множителей иимеющихся ограничениях yiλi + yjλj = yiλ

oldi + yjλ

oldj и

0 ≤ λi , λj ≤ C выбрать оптимальную пару значений(мини-оптимизация)

4 Продолжать процесс до наступления стоп-условий

18 / 26

Page 34: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Часть III

Как применить разработанную технику к поискуоптимального разделяющего эллипса?

Обобщение метода оптимальной полосы напроизвольные поверхности, заданные

полиномиальными уравнениями

19 / 26

Page 35: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Идея расширенного пространства

Машина опорных векторов:Выбираем отбражение векторов в расширенноепространство x → φ(x)

Автоматически получается новая функцияскалярного произведения K (x , y) = φ(x) · φ(y)

Находим линейный разделитель w , b в расширенномпространствеПолучается классифицирующая поверхностьw · φ(x)− b в исходном пространстве

20 / 26

Page 36: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Два примера

φ(x) = φ((x1, x2)) → (x21 , x

22 ,√

2x1x2)

K (x , y) = x21y 2

1 + x22y 2

2 + 2x1x2y1y2 = (x · y)2

φ(x) = (1, c10...0x1, . . . , c110...0x1x2, . . . , c0...0dxdk )

K (x , y) = (1 + x · y)d

21 / 26

Page 37: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Два примера

φ(x) = φ((x1, x2)) → (x21 , x

22 ,√

2x1x2)

K (x , y) = x21y 2

1 + x22y 2

2 + 2x1x2y1y2 = (x · y)2

φ(x) = (1, c10...0x1, . . . , c110...0x1x2, . . . , c0...0dxdk )

K (x , y) = (1 + x · y)d

21 / 26

Page 38: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Полиномиальные разделители

Второй пример:φ(x) = (1, c10...0x1, . . . , c110...0x1x2, . . . , c0...0dx

dk )

K (x , y) = (1 + x · y)d

Разделяющая гиперплоскость w · φ(x)− b — этополином степени не выше d . То есть мы ищем

оптимальную полиномиальную разделяющуюповерхность!

22 / 26

Page 39: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Анализ метода SVM

Преимущества:

+ На тестахпревосходит другиеметоды

+ При различныхвыборах ядерможноэмулироватьдругие подходы

+ Теоретическоеобоснование

Недостатки:

- Мало параметровдля настройки

- Как выбиратьядро?

- Медленноеобучение

23 / 26

Page 40: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Анализ метода SVM

Преимущества:+ На тестах

превосходит другиеметоды

+ При различныхвыборах ядерможноэмулироватьдругие подходы

+ Теоретическоеобоснование

Недостатки:

- Мало параметровдля настройки

- Как выбиратьядро?

- Медленноеобучение

23 / 26

Page 41: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Анализ метода SVM

Преимущества:+ На тестах

превосходит другиеметоды

+ При различныхвыборах ядерможноэмулироватьдругие подходы

+ Теоретическоеобоснование

Недостатки:

- Мало параметровдля настройки

- Как выбиратьядро?

- Медленноеобучение

23 / 26

Page 42: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Анализ метода SVM

Преимущества:+ На тестах

превосходит другиеметоды

+ При различныхвыборах ядерможноэмулироватьдругие подходы

+ Теоретическоеобоснование

Недостатки:

- Мало параметровдля настройки

- Как выбиратьядро?

- Медленноеобучение

23 / 26

Page 43: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Анализ метода SVM

Преимущества:+ На тестах

превосходит другиеметоды

+ При различныхвыборах ядерможноэмулироватьдругие подходы

+ Теоретическоеобоснование

Недостатки:

- Мало параметровдля настройки

- Как выбиратьядро?

- Медленноеобучение

23 / 26

Page 44: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Анализ метода SVM

Преимущества:+ На тестах

превосходит другиеметоды

+ При различныхвыборах ядерможноэмулироватьдругие подходы

+ Теоретическоеобоснование

Недостатки:

- Мало параметровдля настройки

- Как выбиратьядро?

- Медленноеобучение

23 / 26

Page 45: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Анализ метода SVM

Преимущества:+ На тестах

превосходит другиеметоды

+ При различныхвыборах ядерможноэмулироватьдругие подходы

+ Теоретическоеобоснование

Недостатки:- Мало параметров

для настройки

- Как выбиратьядро?

- Медленноеобучение

23 / 26

Page 46: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Анализ метода SVM

Преимущества:+ На тестах

превосходит другиеметоды

+ При различныхвыборах ядерможноэмулироватьдругие подходы

+ Теоретическоеобоснование

Недостатки:- Мало параметров

для настройки- Как выбирать

ядро?

- Медленноеобучение

23 / 26

Page 47: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Анализ метода SVM

Преимущества:+ На тестах

превосходит другиеметоды

+ При различныхвыборах ядерможноэмулироватьдругие подходы

+ Теоретическоеобоснование

Недостатки:- Мало параметров

для настройки- Как выбирать

ядро?- Медленное

обучение

23 / 26

Page 48: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Задача

Докажите, что гиперплоскость с максимальнойшириной разделяющей полосы единственна

24 / 26

Page 49: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Главные моменты

Сегодня мы узнали:Метод опорных векторов сводит обучениеклассификатора к задаче квадратичнойоптимизации

Задача квадратичной оптимизации решаетсяэвристическими алгоритмами путемпоследовательного уменьшения целевой функцииДля построения нелинейных классификаторовиспользуется отображение исходных объектов врасширенное пространство признаков

Вопросы?

25 / 26

Page 50: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Главные моменты

Сегодня мы узнали:Метод опорных векторов сводит обучениеклассификатора к задаче квадратичнойоптимизацииЗадача квадратичной оптимизации решаетсяэвристическими алгоритмами путемпоследовательного уменьшения целевой функции

Для построения нелинейных классификаторовиспользуется отображение исходных объектов врасширенное пространство признаков

Вопросы?

25 / 26

Page 51: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Главные моменты

Сегодня мы узнали:Метод опорных векторов сводит обучениеклассификатора к задаче квадратичнойоптимизацииЗадача квадратичной оптимизации решаетсяэвристическими алгоритмами путемпоследовательного уменьшения целевой функцииДля построения нелинейных классификаторовиспользуется отображение исходных объектов врасширенное пространство признаков

Вопросы?

25 / 26

Page 52: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Главные моменты

Сегодня мы узнали:Метод опорных векторов сводит обучениеклассификатора к задаче квадратичнойоптимизацииЗадача квадратичной оптимизации решаетсяэвристическими алгоритмами путемпоследовательного уменьшения целевой функцииДля построения нелинейных классификаторовиспользуется отображение исходных объектов врасширенное пространство признаков

Вопросы?

25 / 26

Page 53: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Главные моменты

Сегодня мы узнали:Метод опорных векторов сводит обучениеклассификатора к задаче квадратичнойоптимизацииЗадача квадратичной оптимизации решаетсяэвристическими алгоритмами путемпоследовательного уменьшения целевой функцииДля построения нелинейных классификаторовиспользуется отображение исходных объектов врасширенное пространство признаков

Вопросы?25 / 26

Page 54: Метод опорных векторов - Yury Lifshitsyury.name › internet › 07ia.pdf · Метод опорных векторов Лекция n 7 курса “Алгоритмы

Источники

Страница курса http://logic.pdmi.ras.ru/˜yura/internet.html

Использованные материалы:

WikipediaSupport Vector machinehttp://en.wikipedia.org/wiki/Support_vector_machine

CJC BurgesA Tutorial on Support Vector Machines for Pattern Recognitionhttp://www.music.mcgill.ca/˜rfergu/adamTex/references/Burges98.pdf

Константин ВоронцовЛекция по методу опорных векторовhttp://www.ccas.ru/voron/download/SVM.pdf

John PlattSequential Minimal Optimizationhttp://research.microsoft.com/users/jplatt/smo.html

26 / 26