Главная » Программирование » OTUS - Игорь Стурейко, Андрей Канашов → Reinforcement Learning
OTUS - Игорь Стурейко, Андрей Канашов → Reinforcement Learning

5 б
Облако Mail
179 P
Артикул: 14084
В наличии
Автор курса: OTUS
Категория: Программирование
Дата выхода: 2023
Продажник от автора: Перейти
Описание
Для кого этот курс?
Reinforcement Learning — это одна из трех основных парадигм машинного обучения, в котором агент учится взаимодействовать с окружающей средой методом проб и ошибок.
Reinforcement Learning можно использовать в разных областях:
Введение в Reinforcement Learning
Модуль начинается с общего введения, охватывает ключевые особенности обучения с подкреплением, основные алгоритмы. Вы рассмотрите, как построить модель окружения и агента, и примените свои знания на простых сценариях.
Тема 1: Знакомство с Reinforcement Learning
Тема 2: Ключевые понятия RL: агент, среда, награда, политика. Построение среды
Тема 3: Основные алгоритмы RL: Value based
Тема 4: Основные алгоритмы RL: Policy based
Deep Reinforcement Learning
В этом модуле вы рассмотрите введение в глубокое обучение с подкреплением, которое объясняет значимость глубоких Q-сетей, представляет алгоритмы на основе политик. Затем объединяет методы на основе политик и значений с использованием алгоритма Actor-Critic. И, наконец, охватывает то, как нейронные сети могут использоваться для аппроксимации функций вознаграждения и политик.
Тема 1: Введение в Deep Reinforcement Learning
Тема 2: Deep Q-Network (DQN) алгоритм
Тема 3: Deep Policy Gradient (PG) алгоритм
Тема 4: Actor-Critic алгоритм
Тема 5: TRPO -> PPO
Тема 6: DDPG -> TD3 -> LSTM-TD3
Advanced Reinforcement Learning
Модуль содержит более сложные темы и глубже раскрывает пройденный материал. Здесь рассматривается применение алгоритмов к более сложным ситуациям, например наличие фиксированных правил (model-based) или взаимодействие нескольких агентов между собой для достижения общей темы.
Тема 1: Обучение с использованием модели среды (model-based rl)
Тема 2: Model-based, часть 2
Тема 3: Иерархическое обучение с подкреплением
Тема 4: Выбор темы и организация проектной работы
Тема 5: Многоагентное обучение и кооперация агентов
Тема 6: Трансформеры в RL: decision transformers и action transformers
Применение RL в реальных задачах
Модуль посвящен обзору практических примеров применения RL. Вы познакомитесь с игровой индустрией и рассмотрите какие задачи здесь можно решать с помощью RL. Поговорите о робототехнике, поймете какое применение RL находит в рекомендательных системах и более подробно рассмотрите финансовые модели на примере задачи балансировки портфеля активов и задачи кредитного скоринга.
Тема 1: Применение RL в игровой индустрии
Тема 2: Применение RL в робототехнике
Тема 3: RL в рекомендательных системах
Тема 4: RL в задаче скоринга
Тема 5: Применение RL в управлении финансовым портфелем
Проектная работа
Заключительный месяц курса посвящен проектной работе. Свой проект — это то, над чем интересно поработать слушателю. То, что можно создать на основе знаний, полученных на курсе. При этом не обязательно закончить его за месяц. В процессе написания по проекту можно получить консультации преподавателей.
Тема 1: Консультация по проектам и домашним заданиям
Тема 2: Предзащита
Тема 3: Защита проектных работ. Подведение итогов курса
Преподаватели
Эксперты-практики делятся опытом, разбирают кейсы студентов и дают развернутый фидбэк на домашние задания
Игорь Стурейко. (к.ф.-м.н.) Teamlead, главный инженер. FinTech
Андрей Канашов. Senior Data Scientist. Самолет
Сергей Доронин. Ведущий инженер-программист. ЗАО Астраханские Цифровые Технологии
Анастасия Капралова. CEO и соотнователь IT компании
Анатолий Чудаков. Team Lead. Онлайн-кинотеатр Wink
ИСТОЧНИК
СКАЧАТЬ
- Для ML-инженеров, которые хотят научиться внедрять RL в продакшн: оптимизация систем, алгоритмический трейдинг, управление ресурсами. А также стремятся к эффективному развертыванию и масштабированию RL-моделей
- Для специалистов по Data Science, которые используют RL для задач, где классический ML неэффективен — адаптивные системы, динамические среды. А также интересуются комбинацией RL с NLP, рекомендательными системами
- Для Fullstack-разработчиков, которые хотят освоить RL для создания интеллектуальных приложений — от игровых AI до автоматизации процессов или перейти в ML-направление
- Для системных аналитиков, которые изучают RL, чтобы проектировать AI-решения для бизнеса: автоматизация процессов, логистика, финансы. А также хотят понимать возможности и ограничения RL для принятия решений
- Для Deep Learning инженеров, которые работают с Deep RL в сложных доменах — робототехника, игровые AI, компьютерное зрение, и нацелены на research и передовые гибридные архитектуры
- базовое знакомство с Python
- базовые знания линейной алгебры (матрицы, векторы, градиентный спуск)
- базовые навыки работы с ML (pandas, sklearn, линейная регрессия, логистическая регрессия)
Reinforcement Learning — это одна из трех основных парадигм машинного обучения, в котором агент учится взаимодействовать с окружающей средой методом проб и ошибок.
Reinforcement Learning можно использовать в разных областях:
- В играх, чтобы создавать ботов, которые могут победить даже лучших игроков.
- В робототехнике, чтобы роботы могли учиться и улучшать свои навыки без постоянного программирования.
- В финансах, чтобы создавать алгоритмы, которые могут сами покупать и продавать активы и приносить прибыль.
- В электронной коммерции, чтобы создавать системы, которые предлагают товары, которые нравятся покупателям.
- В промышленности, чтобы оптимизировать работу заводов и снизить расход энергии.
- Понимать, как работает обучение с подкреплением, и применять классические алгоритмы типа Q-learning, SARSA и Monte Carlo.
- Создавать модели окружения и обучать агентов RL для решения задач в ваших условиях.
- Использовать нейронные сети в RL и применять алгоритмы Deep RL, от самых простых, таких как DeepQ-Network (DQN) до самых сложных, таких как Proximal policy optimization (PPO).
- Использовать продвинутые методы RL, такие как оптимальное управление, обучение со скользящим горизонтом и Model-based RL, для сложных задач.
- Решать конкретные задачи с помощью RL и понимать, как это работает на практике.
- Создавать ботов и NPC для игр, которые будут обучаться и подстраиваться под игрока, делая игру интереснее и неожиданнее.
- Делать роботов, которые смогут сами ориентироваться в пространстве, двигать предметы и выполнять задачи в разных условиях.
- Создавать алгоритмы, которые будут автоматически торговать на финансовых рынках, анализируя данные и принимая решения о покупке и продаже, чтобы заработать побольше и не рисковать.
- Делать персонализированные рекомендации, которые будут учитывать вкусы пользователей и предлагать им подходящие товары, услуги или контент.
- Решать разные задачи по оптимизации и управлению в разных сферах: от производства до энергопотребления. RL поможет автоматизировать процессы и сделать их эффективнее.
Введение в Reinforcement Learning
Модуль начинается с общего введения, охватывает ключевые особенности обучения с подкреплением, основные алгоритмы. Вы рассмотрите, как построить модель окружения и агента, и примените свои знания на простых сценариях.
Тема 1: Знакомство с Reinforcement Learning
Тема 2: Ключевые понятия RL: агент, среда, награда, политика. Построение среды
Тема 3: Основные алгоритмы RL: Value based
Тема 4: Основные алгоритмы RL: Policy based
Deep Reinforcement Learning
В этом модуле вы рассмотрите введение в глубокое обучение с подкреплением, которое объясняет значимость глубоких Q-сетей, представляет алгоритмы на основе политик. Затем объединяет методы на основе политик и значений с использованием алгоритма Actor-Critic. И, наконец, охватывает то, как нейронные сети могут использоваться для аппроксимации функций вознаграждения и политик.
Тема 1: Введение в Deep Reinforcement Learning
Тема 2: Deep Q-Network (DQN) алгоритм
Тема 3: Deep Policy Gradient (PG) алгоритм
Тема 4: Actor-Critic алгоритм
Тема 5: TRPO -> PPO
Тема 6: DDPG -> TD3 -> LSTM-TD3
Advanced Reinforcement Learning
Модуль содержит более сложные темы и глубже раскрывает пройденный материал. Здесь рассматривается применение алгоритмов к более сложным ситуациям, например наличие фиксированных правил (model-based) или взаимодействие нескольких агентов между собой для достижения общей темы.
Тема 1: Обучение с использованием модели среды (model-based rl)
Тема 2: Model-based, часть 2
Тема 3: Иерархическое обучение с подкреплением
Тема 4: Выбор темы и организация проектной работы
Тема 5: Многоагентное обучение и кооперация агентов
Тема 6: Трансформеры в RL: decision transformers и action transformers
Применение RL в реальных задачах
Модуль посвящен обзору практических примеров применения RL. Вы познакомитесь с игровой индустрией и рассмотрите какие задачи здесь можно решать с помощью RL. Поговорите о робототехнике, поймете какое применение RL находит в рекомендательных системах и более подробно рассмотрите финансовые модели на примере задачи балансировки портфеля активов и задачи кредитного скоринга.
Тема 1: Применение RL в игровой индустрии
Тема 2: Применение RL в робототехнике
Тема 3: RL в рекомендательных системах
Тема 4: RL в задаче скоринга
Тема 5: Применение RL в управлении финансовым портфелем
Проектная работа
Заключительный месяц курса посвящен проектной работе. Свой проект — это то, над чем интересно поработать слушателю. То, что можно создать на основе знаний, полученных на курсе. При этом не обязательно закончить его за месяц. В процессе написания по проекту можно получить консультации преподавателей.
Тема 1: Консультация по проектам и домашним заданиям
Тема 2: Предзащита
Тема 3: Защита проектных работ. Подведение итогов курса
Преподаватели
Эксперты-практики делятся опытом, разбирают кейсы студентов и дают развернутый фидбэк на домашние задания
Игорь Стурейко. (к.ф.-м.н.) Teamlead, главный инженер. FinTech
Андрей Канашов. Senior Data Scientist. Самолет
Сергей Доронин. Ведущий инженер-программист. ЗАО Астраханские Цифровые Технологии
Анастасия Капралова. CEO и соотнователь IT компании
Анатолий Чудаков. Team Lead. Онлайн-кинотеатр Wink
ИСТОЧНИК
СКАЧАТЬ
Вы находитесь на странице товара «OTUS - Игорь Стурейко, Андрей Канашов → Reinforcement Learning», это материал 2023 года, который, мы надеемся, принесет вам пользу. Все курсы доступны по очень низкой цене, в отличии от оригинальной цены автора в размере рублей. Вы же получаете этот курс, купив в нашем магазине Coursx.net, с огромной скидкой, всего 179 рублей. На каждый курс Вы можете посмотреть оригинальный продажник, после чего принять решение о покупке. Обучающий курс входит в рубрику «Программирование», спросом которой пользуется множество покупателей. В нашем магазине Вы найдёте ещё много курсов от автора «OTUS», достаточно ввести в поиск имя автора.
✅ После оплаты система мгновенно направит на вашу почту ссылку(и) на курс, регистрация необязательна!
🛑 Авторизуйтесь или зарегистрируйтесь и Вы получите ссылку не только на почту, но и на странице товара.
🛑 Авторизуйтесь или зарегистрируйтесь и Вы получите ссылку не только на почту, но и на странице товара.
📲 Наши отзывы на сайте | в Telegram (кликабельно)
🤔 Есть сомнения в инфопродукте? В качестве гарантии можем отправить дополнительные скриншоты, любой видео файл или сделать запись с экрана содержимого на облаке.
🔆 Нашли дешевле в другом месте? Сделаем цену ещё ниже чем там где вы нашли!
✍🏻 По всем вопросам, в том числе с оплатой и получением - писать в Telegram (кликабельно), в чат на сайте (в нижнем правом углу) или на почту admin@coursx.net Мы всегда на связи!
🤔 Есть сомнения в инфопродукте? В качестве гарантии можем отправить дополнительные скриншоты, любой видео файл или сделать запись с экрана содержимого на облаке.
🔆 Нашли дешевле в другом месте? Сделаем цену ещё ниже чем там где вы нашли!
✍🏻 По всем вопросам, в том числе с оплатой и получением - писать в Telegram (кликабельно), в чат на сайте (в нижнем правом углу) или на почту admin@coursx.net Мы всегда на связи!
Поделиться страницей
Также смотрите
Чертежи.ру - Библиотека чертежей для проектирования, архитектуры и строительстваGoogle Antigravity для начинающих: экспресс / Антон Воронюк - курс по программированию с ИИЕва Лорман - Профессиональный Авторский Мега Курс Колористики EXPERT. Тариф СамостоятельныйАзамат Ушанов - Золотой актив AI: связка олдскула и ньюскулаUdemy / School of AI - Архитектура агентных ИИ-систем с Open Claw. Продвинутый уровень
Часто задаваемые вопросы
Как приобрести инфопродукт?
Выберите желаемый инфопродукт, добавьте его в корзину либо нажмите сразу "Купить" для быстрого перехода к странице оформления заказа. Выберите удобный платежный метод и перейдите к оплате. После успешной покупки вы получите ссылку на вашу почту. Вы можете выбрать и оплатить сразу несколько курсов. Рекомендуем перед покупкой создать аккаунт, на него за каждую покупку вам будут приходить бонусы. 1 бонус = 1 руб. В дальнейшем вы можете оплачивать бонусами 100% от стоимости заказа.
Почему такая низкая цена?
Каждый из инфопродуктов который представлен в нашем магазине приобретался в складчину, соответственно и цена намного ниже чем у автора. Для вас доступна полная запись инфопродукта со всеми раздаточными материалами для самостоятельного прохождения, но без обратной связи от автора.
Какие у меня гарантии?
В качестве гарантии, вы можете написать нам на любой из контактов и мы предоставим вам доказательства наличия курсов в виде скриншотов / записи экрана / одного из уроков. Также рекоменудем ознакомится с нашими отзывами, все отзывы от реальных клиентов.
С каких стран можно оплатить?
Оплатить можно с любой из стран. Если не получилось оплатить через сайт, напишите откуда вы и мы найдём подходящий способ вам для оплаты.
На какое время выдается доступ?
К материалам на облаке мы никогда не закрываем доступ. Но есть вероятность, что ссылка может стать заблокированной по причине жалобы от правообладателя. Самый надёжный вариант после получения сохранить материалы себе или скачать. В случае, если материалы курса вам выдали в Telegram канале, доступ к нему не пропадет.
Возможен ли возврат средств за купленный товар?
Да. В случае если вы не получили ссылку на купленный товар.
Другие инфопродукты
SEO и SMM / YouTube
Вадим Закиров - Заработок на американском ютубе с использованием нейросетей
790 ₽
Бизнес, менеджмент, продажи
Продюсер нейродевочек - Создай и монетизируй нейромодель 18+. Тариф Базовый
549 ₽
Бизнес, менеджмент, продажи / Нейросети
Modelcore Ai. Создание и монетизация ИИ моделей генерация, продажа 18+ контента. Тариф Фулл-пакет
690 ₽
Быстрая доставка
Гарантируем быструю доставку заказа на ваш Email.
Лучшие цены
Гарантируем самые низкие цены. Сделаем цену ниже если нашли дешевле.
Прием заказов 24/7
Заказы принимаются круглосуточно!
100% Безопасная оплата
Безопасная оплата и получение заказа.














