Содержание
-
1. Обучение с учителем
- 1.1. Линейные модели
- 1.2. Линейный и квадратичный дискриминантный анализ
- 1.3. Регрессия гребня ядра
- 1.4. Метод опорных векторов SVM
- 1.5. Стохастический градиентный спуск
- 1.6. Ближайшие соседи
- 1.7. Гауссовские процессы
- 1.8. Кросс-разложение
- 1.9. Наивные методы Байеса
- 1.10. Деревья решений
- 1.11. Ансамблевые методы
- 1.12. Мультиклассовые и множественные алгоритмы вывода
- 1.13. Выбор признаков
- 1.14. Полу-контролируемое обучение
- 1.15. Изотоническая регрессия
- 1.16. Калибровка вероятности
- 1.17. Модели нейронных сетей (с учителем)
-
2. Обучение без учителя
- 2.3. Кластеризация
- 2.5 Декомпозиция сигналов на компоненты (Проблема матричной факторизации)
- 2.1. Модели гауссовой смеси (Gaussian Mixture Model (GMM))
- 2.2. Обучение многообразию
- 2.4. Бинарная кластеризация
- 2.6. Оценка ковариации
- 2.7. Обнаружение новизны и выбросов
- 2.8. Оценка плотности
- 2.9. Модели нейронных сетей (без учителя)
- 3. Выбор и оценка модели
- 4. Осмотр
- 5. Визуализации
-
6. Преобразования данных
- 6.1. Пайплайны и составные оценщики
- 6.2. Извлечение признаков
- 6.3. Предварительная обработка данных
- 6.4. Восстановление пропущенных значений
- 6.5. Неконтролируемое уменьшение размерности
- 6.6. Случайная проекция
- 6.7. Аппроксимация ядра
- 6.8. Парные метрики, родство и ядра
- 6.9. Преобразование цели прогноза (y)
- 7. Утилиты загрузки набора данных
- 8. Вычисления с помощью scikit-learn
- 9. Устойчивость модели
- 10. Распространенные ошибки и рекомендуемые практики