2. Обучение без учителя¶
- 2.1. Модели гауссовских смесей (Gaussian mixture models)
- 2.2. Manifold learning
- 2.2.1. Введение
- 2.2.2. Isomap
- 2.2.3. Локально-линейные ембединги
- 2.2.4. Модифицированное Локально-линейные ембединги
- 2.2.5. Собственное отображение Гессиана
- 2.2.6. Спектральные ембединги
- 2.2.7. Локальное выравнивание касательного пространства (Local Tangent Space Alignment)
- 2.2.8. Многомерное масштабирование (Multi-dimensional Scaling - MDS)
- 2.2.9. Стохастическое вложение соседей с t-распределением (t-distributed Stochastic Neighbor Embedding - t-SNE)
- 2.2.10. Советы по практическому использованию
- 2.3. Кластеризация
- 2.3.1. Методы кластеризации (Aлгоритмы кластеризации)
- 2.3.2. K-means (K-средних)
- 2.3.3. Affinity propagation (AP, метод распространения близости)
- 2.3.4. Средний сдвиг (Mean Shift)
- 2.3.5. Спектральная кластеризация
- 2.3.6. Иерархическая кластеризация
- 2.3.7. DBSCAN
- 2.3.8. HDBSCAN
- 2.3.9. OPTICS
- 2.3.10. BIRCH
- 2.3.11. Оценка производительности кластеризации
- 2.4. Бинарная кластеризация
- 2.5. Декомпозиция сигналов на компоненты (Матричная факторизация)
- 2.5.1. Анализ главных компонент (Principal component analysis - PCA)
- 2.5.2. Ядерный анализ главных компонент (kPCA)
- 2.5.3. Усеченное разложение сингулярных значений и латентный семантический анализ (Latent Semantic Analysis - LSA)
- 2.5.4. Обучение на основе словоря
- 2.5.5. Факторный анализ
- 2.5.6. Независимый компонентный анализ (Independent component analysis - ICA)
- 2.5.7. Факторизация неотрицательных матриц (Non-negative matrix factorization - NMF или NNMF)
- 2.5.8. Латентное размещение Дирихле (Latent Dirichlet Allocation - LDA)
- 2.6. Оценка ковариации
- 2.7. Обнаружение новизны и выбросов
- 2.8. Оценка плотности
- 2.9. Модели нейронных сетей (без контроля)