2. Обучение без учителя
- 2.3. Кластеризация
-
2.5 Декомпозиция сигналов на компоненты (Проблема матричной факторизации)
- 2.5.1. Анализ главных компонентов (PCA)
- 2.5.2. Разложение усеченного единственного числа и скрытый семантический анализ
- 2.5.3. Изучение словаря
- 2.5.4. Факторный анализ
- 2.5.5. Независимый компонентный анализ (ICA)
- 2.5.6. Неотрицательная матричная факторизация (NMF или NNMF)
- 2.5.7. Скрытое распределение Дирихле (LDA)
- 2.1. Модели гауссовой смеси (Gaussian Mixture Model (GMM))
-
2.2. Обучение многообразию
- 2.2.1. Вступление
- 2.2.2. Isomap
- 2.2.3. Локально линейное вложение
- 2.2.4. Модифицированное локально линейное вложение
- 2.2.5. Hessian Eigenmapping
- 2.2.6. Спектральное вложение
- 2.2.7. Выравнивание местного касательного пространства
- 2.2.8. Многомерное масштабирование (MDS)
- 2.2.9. t-распределенное стохастическое соседнее вложение (t-SNE)
- 2.2.10. Советы по практическому использованию
- 2.4. Бинарная кластеризация
- 2.6. Оценка ковариации
- 2.7. Обнаружение новизны и выбросов
- 2.8. Оценка плотности
- 2.9. Модели нейронных сетей (без учителя)