Задача 10A. Устный экзамен

Максимальный балл:10   Ограничение времени:1 сек
  Ограничение памяти:512 Мб

Условие

Билет выбирается независимо и случайно из следующего списка:

Генетический алгоритм.
  • Многопараметрическая оптимизация. Доминантность и оптимальность по Парето.
  • Функция качества (fitness).
  • Общая идея генетического алгоритма.
  • Представление особи.
  • Методы селекции: пропорционально качеству, stochastic universal sampling, с наследием, турнирная, элитизм.
  • Методы кроссовера: 1,2,k-точечный, равномерный, для перестановок.
  • Мутация. Влияние на скорость обучения.
  • Управление популяцией. Сегрегация, старение, распараллеливание.
Обобщённые линейные модели.
  • Сигмоида и логит.
  • Метод наибольшего правдоподобия.
  • Логистическая регрессия. Вариант для меток -1, 1.
  • Функции связи. Регрессия Пуассона.
Байесовский классификатор.
  • Условная вероятность. Теорема Байеса.
  • Наивный классификатор.
  • Оценка функции плотности.
  • Мультиномиальный классификатор, сглаживание оценок. Классификация спама.
  • Гауссовый байесовский классификатор.
Метод k ближайших соседей.
  • Базовая идея. Классификатор k-NN. Преимущества и недостатки.
  • Кроссвалидация методом "без одного" (leave-one-out).
  • Показатель пограничности (Border ratio).
  • Понятия выброса, прототипа, усвоенной точки. Алгоритм Харта.
  • Регрессия методом k-NN.
  • Взвешенные соседи.
  • Эффективные методы поиска ближайших соседей (краткое описание).
Кластеризация.
  • Постановка задачи кластеризации.
  • Метод k-средних (K-means). Выбор начального состояния.
  • Алгоритмы, основанные на плотности, основная идея. DBSCAN, OPTICS.
Деревья решений.
  • Понятие энтропии, определение информации по Шеннону.
  • Понятие дерева решений. Процесс обучения.
  • Gini impurity, information gain.
  • Случайный лес (Random forest).
  • Bagging, выборка признаков.
  • Дерево регрессии.
  • Сокращение дерева (pruning).
Бустинг (Boosting).
  • Понятие бустинга.
  • Градиентный бустинг.
  • OneRule Boosting.
  • Adaboost.
  • Бустинг деревьев.
Метод опорных векторов (SVM)
  • Постановка задачи линейного SVM для линейно разделимой выборки.
  • Линейный SVM в случае линейно неразделимой выборки.
  • Задача оптимизации SVM. Двойственная задача.
  • Kernel trick. Виды ядер.
Классическое машинное зрение.
  • Фильтрация изображений. Sobel, Gauss.
  • Алгоритм детекции границ Canny.
  • Алгоритм Хаффа поиска прямых (Hough lines).
  • Алгоритм Хаффа поиска окружностей (Hough circles).
Нейронные сети.
  • Полносвязный слой. (Dense, Fully connected).
  • Свёрточный слой. (Convolution).
  • Pooling.
  • Функции активации.
  • Метод обратного распространения ошибки.

Экзамен проводится очно. В случае невозможности очного присутствия необходимо заранее договориться с преподавателем о дистанционной сдаче.

После взятия билета студент готовится в ответу. При подготовке можно использовать произвольные материалы и доступ в Интернет.

В докладе необходимо максимально кратко упомянуть все важные элементы доставшейся темы/вопроса. После доклада преподаватель задаёт несколько уточняющих вопросов. Время на ответ 10 минут + 5 минут на вопросы.


0.049s 0.008s 13