1. Обучение с учителем
-
1.1. Линейные модели
- 1.1.1. Обычные наименьшие квадраты
- 1.1.2. Регрессия и классификация хребта
- 1.1.3. Лассо
- 1.1.4. Многозадачное лассо
- 1.1.5. Эластичная сетка
- 1.1.6. Многозадачная Elastic-Net
- 1.1.7. Наименьшая угловая регрессия
- 1.1.8. ЛАРС Лассо
- 1.1.9. Ортогональное соответствие (OMP)
- 1.1.10. Байесовская регрессия
- 1.1.11. Логистическая регрессия
- 1.1.12. Обобщенная линейная регрессия
- 1.1.13. Стохастический градиентный спуск - SGD
- 1.1.14. Перцептрон
- 1.1.15. Пассивные агрессивные алгоритмы
- 1.1.16. Регрессия устойчивости: выбросы и ошибки моделирования
- 1.1.17. Полиномиальная регрессия: расширение линейных моделей с помощью базисных функций
- 1.2. Линейный и квадратичный дискриминантный анализ
-
1.3. Регрессия гребня ядра
- 1.4. Метод опорных векторов SVM
- 1.5. Стохастический градиентный спуск
- 1.6. Ближайшие соседи
- 1.7. Гауссовские процессы
- 1.8. Кросс-разложение
- 1.9. Наивные методы Байеса
- 1.10. Деревья решений
- 1.11. Ансамблевые методы
- 1.12. Мультиклассовые и множественные алгоритмы вывода
- 1.13. Выбор признаков
- 1.14. Полу-контролируемое обучение
-
1.15. Изотоническая регрессия
- 1.16. Калибровка вероятности
- 1.17. Модели нейронных сетей (с учителем)