Минимизация функции без производной: метод золотого сечения, метод парабол; Гибридный метод минимизации Брента; Методы решения уравнения f’(x)=0: метод деления отрезка пополам, метод секущей; Минимизация функции с известной производной: кубическая аппроксимация и модифицированный метод Брента; Поиск ограничивающего сегмента; Условия Армихо-Голдштайна-Вольфа для неточного решения задачи одномерной оптимизации; Неточные методы одномерной оптимизации, backtracking.

Методы многомерной оптимизации

    Методы линейного поиска и доверительной области; Метод градиентного спуска: наискорейший спуск, спуск с неточной одномерной оптимизацией, скорость сходимости метода для сильно-выпуклых функций с липшицевым градиентом, зависимость от шкалы измерений признаков; Сходимость общего метода линейного поиска с неточной одномерной минимизацией; Метод Ньютона: схема метода, скорость сходимости для выпуклых функций с липшицевым гессианом, подбор длины шага, способы коррекции гессиана до положительно-определённой матрицы; Метод сопряженных градиентов для решения систем линейных уравнений, скорость сходимости метода, предобуславливание; Метод сопряженных градиентов для оптимизации неквадратичных функций, стратегии рестарта, зависимость от точной одномерной оптимизации; Неточный (безгессианный) метод Ньютона: схема метода, способы оценки произведения гессиана на вектор через вычисление градиента; Применение неточного метода Ньютона для обучения линейного классификатора и нелинейной регрессии, аппроксимация Гаусса-Ньютона и адаптивная стратегия Levenberg-Marquardt; Квазиньютоновские методы оптимизации: DFP, BFGS и L-BFGS;

Методы оптимизации с использованием глобальных верхних оценок, зависящих от параметра

НЕ нашли? Не то? Что вы ищете?
    Вероятностная модель линейной регрессии с различными регуляризациями: квадратичной, L1, Стьюдента; Идея метода оптимизации, основанного на использовании глобальных оценок, сходимость; Пример применения метода для обучения LASSO; Построение глобальных оценок с помощью неравенства Йенсена, ЕМ-алгоритм, его применение для вероятностных моделей линейной регрессии; Построение оценок с помощью касательных и замены переменной; Оценка Jaakkola-Jordan для логистической функции, оценки для распределений Лапласа и Стьюдента; Применение оценок для обучения вероятностных моделей линейной регрессии; Выпукло-вогнутая процедура, примеры использования.

Методы внутренней точки

    Необходимые и достаточные условия оптимальности в задачах условной оптимизации, условия Куна-Таккера и условия Джона, соотношение между ними; Выпуклые задачи условной оптимизации, двойственная функция Лагранжа, двойственная задача оптимизации; Решение задач условной оптимизации с линейными ограничениями вида равенство, метод Ньютона; Прямо-двойственный метод Ньютона, неточный вариант метода; Метод логарифмических барьерных функций; Методы первой фазы; Прямо-двойственный метод внутренней точки; Использование методов внутренней точки для обучения SVM.

Разреженные методы машинного обучения

    Модели линейной/логистической регрессии с регуляризациями L1 и L1/L2; Понятие субградиента выпуклой функции, его связь с производной по направлению, необходимое и достаточное условие экстремума для выпуклых негладких задач безусловной оптимизации; Метод наискорейшего субградиентного спуска; Проксимальный метод; Метод покоординатного спуска и блочной покоординатной оптимизации.

Методы отсекающих плоскостей

    Понятие отделяющего оракула, базовый метод отсекающих плоскостей (cutting plane); Надграфная форма метода отсекающих плоскостей; Bundle-версия метода отсекающих плоскостей, зависимость от настраиваемых параметров; Применение bundle-метода для задачи обучения SVM; Добавление эффективной процедуры одномерного поиска; Реализация метода с использованием параллельных вычислений и в условиях ограничений по памяти.

Стохастическая оптимизация

    Общая постановка задачи стохастической оптимизации, пример использования; Задачи минимизации среднего и эмпирического риска; Метод стохастического градиентного спуска, две фазы итерационного процесса, использование усреднения и инерции; Стохастический градиентный спуск как метод оптимизации и как метод обучения; Метод SAG; Применение стохастического градиентного спуска для SVM (алгоритм PEGASOS);


Литература


Optimization for Machine Learning. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2012. J. Nocedal, S. J. Wright. Numerical Optimization, Springer, 2006. S. Boyd, L. Vandenberghe. Convex Optimization, Cambridge University Press, 2004. Yu. Nesterov. Introductory Lectures on Convex Programming, 1998. A. Antoniou, W.-S. Lu. Practical Optimization: Algorithms and Engineering Applications, Springer, 2007. Numerical Recipes. The Art of Scientific Computing, Cambridge University Press, 2007. M. Schmidt. Limited-Memory Quasi-Newton and Hessian-Free Newton Methods for Non-Smooth Optimization // NIPS workshop on optimization for machine learning, 2010. D. Bertsekas. Convex Analysis and Optimization, Athena Scientific, 2003. M. Schmidt. Notes on Big-n Problems, 2012.

Курс «Метрические методы интеллектуального анализа данных»

Аннотация

В курсе рассматриваются фундаментальные и прикладные задачи интеллектуального анализа данных, на которых иллюстрируется применение различных приемов и методов, базирующихся на понятиях сходства, близости, аналогии. Представлена теоретическая основа для построения, реализации и анализа широкого спектра методов, которые в настоящее время принято называть метрическими. Примеры из прикладных областей демонстрируют возникновение рассматриваемых идей или их использование. Многие примеры будут из области компьютерного зрения и обработки текстов.

Идея сходства свойственна человеческому мышлению, соответственно, для всех фундаментальных задач ИАД возник целый комплекс подходов и методов, опирающихся на эту идею. Специфика различных предметных областей добавляет к фундаментальным задачам новые требования или заставляет решать новые задачи. В курсе особое внимание уделено задачам идентификации, верификации, кластеризации. Рассмотрены методы построения и вычисления функций сходства, согласование сходства на различных множествах объектов, синтез новых способов сравнения объектов на базе уже имеющихся. Рассмотрен комплекс технологий, предназначенный для эффективного представления и обработки метрической информации вычислительными системами.

Проводятся аналогии с задачами, которые возникают в традиционной статистике многих переменных. Такое сопоставление позволяет одновременно улучшить освоение материала спецкурса и материала по статистике.

Программа

Основные подходы к заданию сходства. Функциональный подход: двуместные функции, удовлетворяющие аксиомам. Геометрический подход: определение в пространстве множеств точек. Табличный подход: матрицы попарного сходства над конечными множествами.

Классическое определение метрики и метрического пространства. Аксиоматическое задание метрики. Построение топологии по метрике. Пространства сходящихся последовательностей. Фундаментальные последовательности и полные пространства. Роль аксиомы треугольника и непрерывность метрики. Роль аксиомы сепарабельности и единственность предела сходящейся последовательности. Сопоставление метрик и отношений эквивалентности, 0,1-метрики. Различные модификации системы аксиом метрики и их интерпретация: расстояние, полуметрика, ультра-метрика, квази-метрика, неравенство Птолемея.

Локальные метрики и их продолжение на всё пространство. Формализация понятия «между» в метрическом пространстве. Выпуклость метрического пространства по Менгеру. Аксиомы существования и единственности точек между заданными точками. Аксиомы существования и единственности продолжения луча. Теорема о единственности продолжения локально совпадающих метрик. Практический пример проверки аксиом и использования локального продолжения метрики.

Геометрические подмножества общих метрических пространств. Понятия открытого и замкнутого шара, их согласованность с топологией метрического пространства. Понятия открытого и замкнутого обобщенного эллипсоида. Клетки Дирихле («сферы влияния»), автоматическое исправление ошибок. Геометрическое место точек, равноудаленных от заданных точек, проблема меры указанного подмножества. Понятие кривой в метрическом пространстве, длина кривой. Геодезическая линия, кривая наименьшей длины, сегмент. Свойство совпадения геодезических с множествами равноудаленных точек в обобщенных евклидовых пространствах.

Примеры метрических пространств. Пространство изолированных точек, дискретная топология. Метрики (городских кварталов), (евклидова), (Чебышёва). Их физический смысл. Метрика (Минковского). Форма шаров, вложенность единичных шаров. Зависимость объема шара от размерности пространства. Проблема сопоставления объема шаров в разных метриках с ростом размерности. Проблема единственности кратчайшего пути. Хаусдорфова метрика и другие метрики между подмножествами метрического пространства, индуцированные исходной метрикой между точками. Расстояния между функциями (графиками). Метрики на декартовом произведении метрических пространств. Случай конечного и бесконечного числа сомножителей, метрики на последовательностях.

Классификация функций сходства. Сопоставление значений: номинальные, порядковые, арифметические (интервальные, относительные, разностные, абсолютные) шкалы. Понятие о граничных объектах. Аксиомы сходства, главный и вспомогательный аргументы. Классификация мер сходства по одному свойству (признаку). Функции сходства на декартовом произведении пространств со значениями в различных шкалах.

Из за большого объема этот материал размещен на нескольких страницах:
1 2 3 4 5 6