Задача 10A. Устный экзамен
Условие
Билет выбирается независимо и случайно из следующего списка:
Генетический алгоритм.
- Многопараметрическая оптимизация. Доминантность и оптимальность по Парето.
- Функция качества (fitness).
- Общая идея генетического алгоритма.
- Представление особи.
- Методы селекции: пропорционально качеству, stochastic universal sampling, с наследием, турнирная, элитизм.
- Методы кроссовера: 1,2,k-точечный, равномерный, для перестановок.
- Мутация. Влияние на скорость обучения.
- Управление популяцией. Сегрегация, старение, распараллеливание.
Обобщённые линейные модели.
- Сигмоида и логит.
- Метод наибольшего правдоподобия.
- Логистическая регрессия. Вариант для меток -1, 1.
- Функции связи. Регрессия Пуассона.
Байесовский классификатор.
- Условная вероятность. Теорема Байеса.
- Наивный классификатор.
- Оценка функции плотности.
- Мультиномиальный классификатор, сглаживание оценок. Классификация спама.
- Гауссовый байесовский классификатор.
Метод k ближайших соседей.
- Базовая идея. Классификатор k-NN. Преимущества и недостатки.
- Кроссвалидация методом "без одного" (leave-one-out).
- Показатель пограничности (Border ratio).
- Понятия выброса, прототипа, усвоенной точки. Алгоритм Харта.
- Регрессия методом k-NN.
- Взвешенные соседи.
- Эффективные методы поиска ближайших соседей (краткое описание).
Кластеризация.
- Постановка задачи кластеризации.
- Метод k-средних (K-means). Выбор начального состояния.
- Алгоритмы, основанные на плотности, основная идея. DBSCAN, OPTICS.
Деревья решений.
- Понятие энтропии, определение информации по Шеннону.
- Понятие дерева решений. Процесс обучения.
- Gini impurity, information gain.
- Случайный лес (Random forest).
- Bagging, выборка признаков.
- Дерево регрессии.
- Сокращение дерева (pruning).
Бустинг (Boosting).
- Понятие бустинга.
- Градиентный бустинг.
- OneRule Boosting.
- Adaboost.
- Бустинг деревьев.
Метод опорных векторов (SVM)
- Постановка задачи линейного SVM для линейно разделимой выборки.
- Линейный SVM в случае линейно неразделимой выборки.
- Задача оптимизации SVM. Двойственная задача.
- Kernel trick. Виды ядер.
Классическое машинное зрение.
- Фильтрация изображений. Sobel, Gauss.
- Алгоритм детекции границ Canny.
- Алгоритм Хаффа поиска прямых (Hough lines).
- Алгоритм Хаффа поиска окружностей (Hough circles).
Нейронные сети.
- Полносвязный слой. (Dense, Fully connected).
- Свёрточный слой. (Convolution).
- Pooling.
- Функции активации.
- Метод обратного распространения ошибки.
Экзамен проводится очно. В случае невозможности очного присутствия необходимо заранее договориться с преподавателем о дистанционной сдаче.
После взятия билета студент готовится в ответу. При подготовке можно использовать произвольные материалы и доступ в Интернет.
В докладе необходимо максимально кратко упомянуть все важные элементы доставшейся темы/вопроса. После доклада преподаватель задаёт несколько уточняющих вопросов. Время на ответ 10 минут + 5 минут на вопросы.