Машинное обучение кластеризация и классификация на Python (2020) Скачать журнал бесплатно
30.03.2020, 13:54
Название: Машинное обучение кластеризация и классификация на Python Автор: Центр digital-профессий ITtensive Год издания: 2020 Язык: Русский Жанр: Видеокурс, программирование, разработка, обучение Формат: MP4 | 1280x720 | AVC
Продолжительность: 03:04:13 Размер: 3.3 Gb
Описание: Выигрываем соревнование Kaggle с kNN, SVM, логистической регрессией, случайным лесом, XGBoost, CatBoost и LightGBM. Мы разберем прикладные подходы к кластеризации и классификации данных с помощью машинного обучения для страхового скоринга Prudential в соревновании на Kaggle вплоть до формирования конечного результата.
Материалы курса: 1. Задача страхового скоринга - Страховой скоринг - F1 и Каппа оценки классификации - Метод ближайших соседей - kNN скоринг 2. Логистическая регрессия и опорные векторы - Обработка данных и оптимизация памяти - Логистическая регрессия - Иерархия логистической регрессии - SVM: метод опорных векторов - Сравнение классификации 3. Решающие деревья и ансамбли бэггинга и бустинга - Решающие деревья - Случайный лес - Бустинг с XGBoost - Градиентный бустинг 4. Ансамбль стекинга и финальное решение - LightGBM - CatBoost - Ансамбль классификации - Расчет результатов - Финальное решение
Чему вы научитесь: - EDA: исследовательский анализ данных - Точность, полнота, F1 и каппа метрики - Простая кластеризация данных - Логистическая регрессия: простая и многоуровневая - Метод ближайших соседей: kNN - Наивный Байес - Метод опорных векторов: SVM - Решающие деревья м случайный лес - XGBoost и градиентный бустинг - CatBoost и LightGBM - Ансамбль голосования и стекинга
Требования: - Продвинутый Python - Основы математической статистики - Основы машинного обучения
В этом курсе: - Проведение исследовательского анализа данных для поиска зависимостей: EDA. - Метрики классификации: точность, полнота, F1, квадратичная каппа и матрица неточностей. - Очистка данных и оптимизация потребления памяти. - Кластеризация данных и метод ближайших соседей. - Простая и иерархическая логистическая регрессия. - Метод ближайших соседей и поиск оптимальной модели. - Метод опорных векторов: SVM. - Дерево принятия решения и случайный лес (бэггинг). - XGBosot и градиентный бустинг. - LightGBM и CatBoost - Ансамбль стекинга для голосования и выбора лучшего результата. - Выгрузка результата для соревнования на Kaggle.
Для кого этот курс: - Аналитики Python, изучающие машинное обучение - Программисты больших данных - Исследователи больших данных
Данная версия журнала предназначена только для ознакомления! Помните, что электронная версия журнала не может конкурировать с печатным изданием! Настоятельно рекомендуется удалить данные файлы после ознакомления.
Всего комментариев: 0
Добавлять комментарии могут только зарегистрированные пользователи. [ Регистрация | Вход ]
Личный кабинет
Привет: Гость
Сообщения:
Гость, мы рады вас видеть. Пожалуйста зарегистрируйтесь или авторизуйтесь!