Содержание
-
Uncategorized
-
1. Обучение с учителем
- 1.1. Линейные модели
- 1.2. Линейный и квадратичный дискриминантный анализ
- 1.3. Регрессия гребня ядра
- 1.4. Метод опорных векторов SVM
- 1.5. Стохастический градиентный спуск
- 1.6. Ближайшие соседи
- 1.7. Гауссовские процессы
- 1.8. Кросс-разложение
- 1.9. Наивные методы Байеса
- 1.10. Деревья решений
- 1.11. Ансамблевые методы
- 1.12. Мультиклассовые и множественные алгоритмы вывода
- 1.13. Выбор признаков
- 1.14. Полу-контролируемое обучение
- 1.15. Изотоническая регрессия
- 1.16. Калибровка вероятности
- 1.17. Модели нейронных сетей (с учителем)
- 2. Обучение без учителя
- 3. Выбор и оценка модели
- 4. Осмотр
- 5. Визуализации
-
6. Преобразования данных
- 6.1. Пайплайны и составные оценщики
- 6.2. Извлечение признаков
- 6.3. Предварительная обработка данных
- 6.4. Восстановление пропущенных значений
- 6.5. Неконтролируемое уменьшение размерности
- 6.6. Случайная проекция
- 6.7. Аппроксимация ядра
- 6.8. Парные метрики, родство и ядра
- 6.9. Преобразование цели прогноза (y)
- 7. Утилиты загрузки набора данных
- 8. Вычисления с помощью scikit-learn
- 9. Учточивость модели
- 10. Распространенные ошибки и рекомендуемые практики