id int64 18 21.1k | created_at timestamp[ns, tz=UTC]date 2026-02-23 07:30:20 2026-02-24 16:54:39 | updated_at timestamp[ns, tz=UTC]date 2026-02-23 08:08:14 2026-02-24 16:54:39 | doc_name stringclasses 1
value | input stringlengths 11 9.24k | output stringlengths 0 738 | is_personal bool 2
classes | is_sentence bool 2
classes | is_corrected bool 2
classes |
|---|---|---|---|---|---|---|---|---|
6,807 | 2026-02-24T08:07:34.339000Z | 2026-02-24T08:07:34.340000Z | Lec. | Финансовый сектор (American Express Company) | false | true | false | |
6,806 | 2026-02-24T08:07:32.497000Z | 2026-02-24T08:07:32.497000Z | Lec. | Аэрокосмическая промышленность (The Boeing Company) | false | true | false | |
6,805 | 2026-02-24T08:07:30.842000Z | 2026-02-24T08:07:30.842000Z | Lec. | Финансовый сектор (Bank of America Corporation) | false | true | false | |
6,804 | 2026-02-24T08:07:29.133000Z | 2026-02-24T08:07:29.133000Z | Lec. | Развлечения (The Walt Disney Company) | false | true | false | |
6,803 | 2026-02-24T08:07:27.453000Z | 2026-02-24T08:07:27.453000Z | Lec. | Потребительские товары (Procter & Gamble Co.) | false | true | false | |
6,802 | 2026-02-24T08:07:25.608000Z | 2026-02-24T08:07:25.608000Z | Lec. | Сектор экономики | false | true | false | |
6,801 | 2026-02-24T08:07:24.007000Z | 2026-02-24T08:07:24.007000Z | Lec. | Данные о названиях выбранных компаний представлены в таблице 1. ticker | false | true | false | |
6,800 | 2026-02-24T08:07:22.549000Z | 2026-02-24T08:07:22.549000Z | Lec. | Для рынка акций были выбраны котировки крупных компаний США из различных секторов экономики для формирования диверсифицированного портфеля | false | true | false | |
6,799 | 2026-02-24T08:07:20.780000Z | 2026-02-24T08:07:20.780000Z | Lec. | В исследовании предполагается определить эффективность работы алгоритмов A2C и DDPG в разных рыночных условиях, а именно на рынке акций и на рынке криптовалют | false | true | false | |
6,798 | 2026-02-24T08:07:18.939000Z | 2026-02-24T08:07:18.939000Z | Lec. | В текущей главе будут рассмотрен процесс обучения агентов и анализ полученных результатов | false | true | false | |
6,797 | 2026-02-24T08:07:17.170000Z | 2026-02-24T08:07:17.170000Z | Lec. | Для расчета метрик и визуализации полученных результатов был разработан класс ResultsInfo, который включается в себя следующие методы:. portfolio_value_graph() – скрипт, визуализирующий график зависимости стоимости портфеля от времени. compute_metrics() – функция для расчета метрик оценки качества портфеля, включая год... | false | false | false | |
6,796 | 2026-02-24T08:07:14.802000Z | 2026-02-24T08:07:14.802000Z | Lec. | Обучение агентов происходило в разработанной среде PortfolioEnv, реализованной на основе API Gymnasium | false | true | false | |
6,795 | 2026-02-24T08:07:13.024000Z | 2026-02-24T08:07:13.024000Z | Lec. | Для реализации алгоритмов обучения с подкреплением использовалась библиотека Stable-Baselines3, основанная на PyTorch | false | true | false | |
6,794 | 2026-02-24T08:07:11.378000Z | 2026-02-24T08:07:11.378000Z | Lec. | Каждый из этих методов обеспечивает полное взаимодействие агента со средой: формирование наблюдений, обработку действий, расчет вознаграждения и переход к следующему состоянию | false | true | false | |
6,793 | 2026-02-24T08:07:09.821000Z | 2026-02-24T08:07:09.821000Z | Lec. | Извлекает нормализованные цены активов и вектор технических признаков и объединяет два вектора в один. step() – описывает основной шаг агента со средой, а именно рассчитывает относительный прирост портфеля на основе текущих и последующих в окне цен, обновляет историю доходностей, сохраняет полученный прирост, вычисляет... | false | true | false | |
6,792 | 2026-02-24T08:07:07.587000Z | 2026-02-24T08:07:07.587000Z | Lec. | Класс со средой обучения PortfolioEnv включает в себя следующие методы:. reset() – инициализирует новый эпизод во время обучения. _get_observation() – формирует состояние среды на текущей итерации | false | true | false | |
6,791 | 2026-02-24T08:07:05.824000Z | 2026-02-24T08:07:05.824000Z | Lec. | Это помогает ускорить и улучшить процесс обучения | false | true | false | |
6,790 | 2026-02-24T08:07:04.241000Z | 2026-02-24T08:07:04.241000Z | Lec. | Благодаря этому агент видит не только цену актива, а целый набор осмысленных сигналов о рынке | false | true | false | |
6,789 | 2026-02-24T08:07:02.516000Z | 2026-02-24T08:07:02.516000Z | Lec. | Указанные выше индикаторы формируют множество признаков, которые будут подаваться как параметры, характеризующую среду, во время обучения агента | false | true | false | |
6,788 | 2026-02-24T08:07:00.916000Z | 2026-02-24T08:07:00.916000Z | Lec. | Нормализация ускоряет и стабилизирует обучение агентов и происходит по следующей формуле:. – среднее (mean). – стандартное отклонение. compute_features – функция для обогащения данных с расчетом дополнительных признаков: логарифмическая доходность, индикатор RSI (Relative Strength Index), скользящие средние SMA (Si... | false | false | false | |
6,787 | 2026-02-24T08:06:58.954000Z | 2026-02-24T08:06:58.954000Z | Lec. | Цены активов могут серьезно отличаться по порядку величины: акции крупных компаний торгуются по стоимости в сотни долларов, а криптовалюты зачастую могут иметь пики цен в тысячах, и десятках тысяч в сравнении с средним значением | false | true | false | |
6,786 | 2026-02-24T08:06:57.167000Z | 2026-02-24T08:06:57.167000Z | Lec. | Сырые данные могут быть с привязкой к различным часовым поясам, что может вызвать несовпадение временных меток при объединении нескольких источников. price_scaler – функция для масштабирования цен активов | false | true | false | |
6,785 | 2026-02-24T08:06:55.464000Z | 2026-02-24T08:06:55.464000Z | Lec. | Этот класс в себя следующие методы:. drop_nulls – удаление неполных данных и пропусков. safety_remove_timezone – функция для унификации индекса времени | false | true | false | |
6,784 | 2026-02-24T08:06:53.794000Z | 2026-02-24T08:06:53.794000Z | Lec. | Для предобработки реализован класс DataPreparation | false | true | false | |
6,783 | 2026-02-24T08:06:52.268000Z | 2026-02-24T08:06:52.268000Z | Lec. | Для обучения торговых агентов важно правильно предобработать данные, так как от качества данных напрямую зависит качество работы торгового агента, обученного на основе алгоритмов глубокого машинного обучения | false | true | false | |
6,782 | 2026-02-24T08:06:50.489000Z | 2026-02-24T08:06:50.489000Z | Lec. | Результат выполнения метода fetch() переменная типа DataFrame с временными рядами цен в момент закрытия торгов | false | true | false | |
6,781 | 2026-02-24T08:06:48.822000Z | 2026-02-24T08:06:48.822000Z | Lec. | Важной особенностью класса CryptoDataCollector в отличии класса StockDataCollector является то, что из-за ограничения API происходит автоматическое разбиение запроса данных на периоды по 2000 дней с последующем объединением результатов запросов | false | true | false | |
6,780 | 2026-02-24T08:06:47.169000Z | 2026-02-24T08:06:47.169000Z | Lec. | Таким образом, при повторном вызове метода fetch() данные считываются из кэша, а не загружаются повторно | false | true | false | |
6,779 | 2026-02-24T08:06:45.615000Z | 2026-02-24T08:06:45.615000Z | Lec. | Для вызова метода необходимо передать три параметра: список с наименованиями тикеров, дата начала и дата конца, рассматриваемого периода | false | true | false | |
6,778 | 2026-02-24T08:06:44.051000Z | 2026-02-24T08:06:44.051000Z | Lec. | При первичном использовании метода fetch() в обоих классах происходит загрузка данных с последующим сохранением в локальный кэш | false | true | false | |
6,777 | 2026-02-24T08:06:42.008000Z | 2026-02-24T08:06:42.008000Z | Lec. | Класс CryptoDataCollector отвечает за загрузку цен акций по указанным тикерам c помощью API CryptoCompare | false | true | false | |
6,776 | 2026-02-24T08:06:40.467000Z | 2026-02-24T08:06:40.467000Z | Lec. | Класс StockDataCollector отвечает за загрузку цен акций по указанным тикерам через библиотеку yfinance | false | true | false | |
6,775 | 2026-02-24T08:06:38.920000Z | 2026-02-24T08:06:38.920000Z | Lec. | Эта система состоит из двух классов: | false | true | false | |
6,774 | 2026-02-24T08:06:37.345000Z | 2026-02-24T08:06:37.345000Z | Lec. | Для формирования портфеля на различных рынках была реализована система сбора данных | false | true | false | |
6,773 | 2026-02-24T08:06:35.501000Z | 2026-02-24T08:06:35.501000Z | Lec. | Это позволило получить структурированный код, разбитый на независимые модули с возможностью его дальнейшего расширения | false | true | false | |
6,772 | 2026-02-24T08:06:33.747000Z | 2026-02-24T08:06:33.747000Z | Lec. | При написании кода была учтена парадигма объектно-ориентированного программирования (ООП) | false | true | false | |
6,771 | 2026-02-24T08:06:32.082000Z | 2026-02-24T08:06:32.082000Z | Lec. | Разработка программного кода проводилась в среде Google Colaboratory, которая представляет собой облачную инфраструктуру для разработки и выполнения Python-кода | false | true | false | |
6,770 | 2026-02-24T08:06:30.324000Z | 2026-02-24T08:06:30.324000Z | Lec. | Для реализации поставленной в предыдущей главе задачи по оптимизации инвестиционного портфеля на языке программирования Python версии 3.11.12 был реализован соответствующий функционал, описание и тестирование которого будет приведено в текущей главе | false | true | false | |
6,769 | 2026-02-24T08:06:27.494000Z | 2026-02-24T08:06:27.494000Z | Lec. | Рис. 3 Псевдокод алгоритма DDPG | false | true | false | |
6,768 | 2026-02-24T08:06:25.692000Z | 2026-02-24T08:06:25.692000Z | Lec. | При это соответствует прямому копированию | false | true | false | |
6,767 | 2026-02-24T08:06:24.202000Z | 2026-02-24T08:06:24.202000Z | Lec. | Функция потерь актора задают как:. в DDPG применяются таргетные сети критика и актора с параметрами и которые обновляются выполняется «мягко» [15] (soft update) по правилу:. ,. где (типично ) | false | true | false | |
6,766 | 2026-02-24T08:06:22.570000Z | 2026-02-24T08:06:22.570000Z | Lec. | Актор задает детерминированную политику , отображающую состояние в действие | false | true | false | |
6,765 | 2026-02-24T08:06:20.846000Z | 2026-02-24T08:06:20.846000Z | Lec. | Функцию потерь модели критика вводят как среднеквадратичную ошибку по мини-батчу N и минимизируют по параметрам :. (16). – текущая оценка критика. – целевое значение | false | true | false | |
6,764 | 2026-02-24T08:06:19.265000Z | 2026-02-24T08:06:19.265000Z | Lec. | Мини-батч в контексте алгоритма DDPG это подмножество из N случайно выбранных переходов, т. е. кортежей вида из буфера повторения опыта (replay buffer), где. — состояние в момент времени t,. — действие, выбранное агентом,. — награда, полученная после действия,. — следующее состояние | false | true | false | |
6,763 | 2026-02-24T08:06:17.232000Z | 2026-02-24T08:06:17.232000Z | Lec. | Целевое значение функции ценности действия определяется как:. (15). – параметры cетей таргет-критика и таргет-актора | false | true | false | |
6,762 | 2026-02-24T08:06:15.694000Z | 2026-02-24T08:06:15.694000Z | Lec. | В методе DDQG значение функции приближается таргет-сетями | false | true | false | |
6,761 | 2026-02-24T08:06:14.068000Z | 2026-02-24T08:06:14.068000Z | Lec. | Для модели критика в DDPG используется уравнение Беллмана для формирования детерминированной политики:. (14). — оценка ценности действия в состоянии ;. — вознаграждение, полученное на шаге ;. — коэффициент дисконтирования будущих наград;. — следующее состояние после выполнения действия;. — стратегия, определяющая сле... | false | true | false | |
6,760 | 2026-02-24T08:06:11.984000Z | 2026-02-24T08:06:11.984000Z | Lec. | Общая цель агента аналогично разделу 2.2 максимизировать уравнение (4) | false | true | false | |
6,759 | 2026-02-24T08:06:10.261000Z | 2026-02-24T08:06:10.261000Z | Lec. | Это увеличивает sample efficiency (выборочную эффективность) по сравнению с on-policy методами | false | true | false | |
6,758 | 2026-02-24T08:06:08.528000Z | 2026-02-24T08:06:08.528000Z | Lec. | Отличие заключается в том, что рассматриваемый алгоритм использует off-policy обучение, что позволяет повторно использовать прошедший опыт, хранящийся в буфере обмена | false | true | false | |
6,757 | 2026-02-24T08:06:06.926000Z | 2026-02-24T08:06:06.926000Z | Lec. | Так же, как и алгоритм A2C, DDPG относится к классу “actor-critic” алгоритмов | false | true | false | |
6,756 | 2026-02-24T08:06:05.162000Z | 2026-02-24T08:06:05.162000Z | Lec. | Алгоритм DDPG (Deep Deterministic Policy Gradient) является model-free методом обучения с подкреплением, который рассчитан на задачи с непрерывном пространством действий [14] | false | true | false | |
6,755 | 2026-02-24T08:06:03.407000Z | 2026-02-24T08:06:03.407000Z | Lec. | Вместо одношаговой TD-ошибки в A2C часто используется шаговое приближение возврата:. (13) | false | true | false | |
6,754 | 2026-02-24T08:06:01.847000Z | 2026-02-24T08:06:01.847000Z | Lec. | Рис. 2 Псевдокод алгоритма A2C | false | true | false | |
6,753 | 2026-02-24T08:06:00.035000Z | 2026-02-24T08:06:00.035000Z | Lec. | Как результат алгоритм постепенно снижает (12), что эквивалентно росту целевой функции (4) | false | true | false | |
6,752 | 2026-02-24T08:05:57.969000Z | 2026-02-24T08:05:57.969000Z | Lec. | Параметры актора и критика обновляются совместно через суммарную функцию потерь для всей модели:. (12). – коэффициент, который определяет вклад “критика” в градиент обновления | false | true | false | |
6,751 | 2026-02-24T08:05:56.269000Z | 2026-02-24T08:05:56.269000Z | Lec. | Функция потерь критика задается как мат. ожидание квадрата TD-ошибки:. (11) | false | true | false | |
6,750 | 2026-02-24T08:05:54.470000Z | 2026-02-24T08:05:54.470000Z | Lec. | Стоит отметить, что для стабилизации обучения и улучшения исследования среды к функции потерь актора добавляется энтропийный регуляризатор:. (10) | false | true | false | |
6,749 | 2026-02-24T08:05:52.849000Z | 2026-02-24T08:05:52.849000Z | Lec. | Политик актора обучается не напрямую градиентном подъемом , а при помощи минимизации функции потерь:. (9) | false | true | false | |
6,748 | 2026-02-24T08:05:51.218000Z | 2026-02-24T08:05:51.218000Z | Lec. | Согласно теореме политики-градиента [13] градиент функции (4) можно выразить следующим образом:. (8) | false | true | false | |
6,747 | 2026-02-24T08:05:49.671000Z | 2026-02-24T08:05:49.671000Z | Lec. | Для максимизации величины (4) используются методы политики-градиента с корректировкой параметров политики в направлении увеличения | false | true | false | |
6,746 | 2026-02-24T08:05:48.104000Z | 2026-02-24T08:05:48.104000Z | Lec. | За счет этого обучение актора становится стабильнее и более эффективным | false | true | false | |
6,745 | 2026-02-24T08:05:46.384000Z | 2026-02-24T08:05:46.384000Z | Lec. | Таким образом, TD-ошибка является оценкой преимущества совершенного действия | false | true | false | |
6,744 | 2026-02-24T08:05:44.594000Z | 2026-02-24T08:05:44.594000Z | Lec. | Подставляя определение (6) в формулу (5), получим:. (7) | false | true | false | |
6,743 | 2026-02-24T08:05:42.972000Z | 2026-02-24T08:05:42.972000Z | Lec. | В алгоритме A2C не вычисляется непосредственно | false | true | false | |
6,742 | 2026-02-24T08:05:41.262000Z | 2026-02-24T08:05:41.262000Z | Lec. | Таким образом, показывает, насколько действие в состоянии лучше или хуже среднего поведения согласно политике. , то действие приносит больше награды, чем в среднем ожидается в состоянии. , то действие менее выгодно, чем усредненное поведение политики | false | true | false | |
6,741 | 2026-02-24T08:05:39.557000Z | 2026-02-24T08:05:39.557000Z | Lec. | В алгоритме A2C функция преимущества определяется как:. – функция ценности состояния (state-value), равная ожидаемому вознаграждению при начале в состоянии и дальнейшем следовании политике. – функция ценности действия (action-value), равная ожидаемому суммарному вознаграждению при нахождении в состоянии выполнении де... | false | true | false | |
6,740 | 2026-02-24T08:05:37.498000Z | 2026-02-24T08:05:37.498000Z | Lec. | Для каждого шага , TD-ошибка определяется как:. – состояние в момент времени t,. – выбранное действие,. – вознаграждение, полученное при переходе в новое состояние ,. – оценка ценности состояния (state-value), выдаваемая критиком с параметрами ,. – коэффициент дисконтирования | false | true | false | |
6,739 | 2026-02-24T08:05:35.800000Z | 2026-02-24T08:05:35.800000Z | Lec. | Для обучения модели критика применяется метод временных разностей (temporal difference, TD) | false | true | false | |
6,738 | 2026-02-24T08:05:34.178000Z | 2026-02-24T08:05:34.178000Z | Lec. | Рис. 1 Классификация алгоритмов A2C и DDPG | false | true | false | |
6,737 | 2026-02-24T08:05:32.384000Z | 2026-02-24T08:05:32.384000Z | Lec. | В обновлении актора используется оценка функции преимущества (Advantage Function), которая показывает, насколько полученная награда превышает среднее ожидаемое значение | false | true | false | |
6,736 | 2026-02-24T08:05:30.692000Z | 2026-02-24T08:05:30.692000Z | Lec. | Алгоритм A2C (Advantage Actor-Critic) основан на архитектуре “актор-критик” и включает два компонента: актор – модель, которая определяет политику и на основе состояния среды выбирает действие; критик –модель, которая приближенно оценивает ценностную функцию (Value Function) и оценивает качество действий [12] | false | true | false | |
6,735 | 2026-02-24T08:05:28.886000Z | 2026-02-24T08:05:28.886000Z | Lec. | Таким образом, называется ожидаемым совокупным вознаграждением (expected return) при следовании политике с параметрами | false | true | false | |
6,734 | 2026-02-24T08:05:27.240000Z | 2026-02-24T08:05:27.240000Z | Lec. | Предел суммирования T может обозначать либо время окончания эпизода, либо стремиться к бесконечности в случае непрерывного взаимодействия (при бесконечная сумма сходится) [9] | false | true | false | |
6,733 | 2026-02-24T08:05:25.586000Z | 2026-02-24T08:05:25.586000Z | Lec. | Формально цель агента определяется как максимизация величины:. (4). где случайная величина – награда, полученная на шаге , мат. ожидание рассчитывается с учётом случайного характера среды, а при использовании стохастической модели, с учётом вероятностного выбора действий самим агентом | false | true | false | |
6,732 | 2026-02-24T08:05:23.221000Z | 2026-02-24T08:05:23.221000Z | Lec. | Для политики (стратегии) агента , параметризованной , обычно вводится функция качества политики – математическое ожидание дисконтированной суммы вознаграждений, полученных агентом с течением времени [9] | false | true | false | |
6,731 | 2026-02-24T08:05:21.658000Z | 2026-02-24T08:05:21.658000Z | Lec. | Агент, действующий в среде MDP, стремится максимизировать кумулятивное (суммарное) вознаграждение при взаимодействии со средой | false | true | false | |
6,730 | 2026-02-24T08:05:19.665000Z | 2026-02-24T08:05:19.665000Z | Lec. | Граничные случаи: означает, что агент оценивает только непосредственную награду, делает агента, который учитывает долгосрочные последствия | false | true | false | |
6,729 | 2026-02-24T08:05:17.963000Z | 2026-02-24T08:05:17.963000Z | Lec. | Если < 1, награды на n шагов в будущем дисконтируются как и тем самым отдалённые во времени результаты учитываются слабее ближайших [9] | false | true | false | |
6,728 | 2026-02-24T08:05:16.351000Z | 2026-02-24T08:05:16.351000Z | Lec. | Определяет, насколько агент учитывает будущие награды при принятии решений | false | true | false | |
6,727 | 2026-02-24T08:05:14.807000Z | 2026-02-24T08:05:14.807000Z | Lec. | Таким образом, функция моделирует как внешние рыночные изменения, так и обновление долей портфеля под действием агента. – коэффициент дисконтирования 0 1 | false | false | false | |
6,726 | 2026-02-24T08:05:13.036000Z | 2026-02-24T08:05:13.036000Z | Lec. | Состояние включает также внутренние переменные (структуру портфеля), которые прямо определяются действием | false | true | false | |
6,725 | 2026-02-24T08:05:11.512000Z | 2026-02-24T08:05:11.512000Z | Lec. | В текущей работе предполагается, что динамика цен стохастическая и не зависит от действий агента, в предположении того, что объём торгов агента мал | false | true | false | |
6,724 | 2026-02-24T08:05:09.810000Z | 2026-02-24T08:05:09.810000Z | Lec. | Распределение вероятностей – вероятность перехода в состояние при выполнении действия из состояния Эта функция показывает изменение цен на рынке: например, как изменятся котировки и состояние портфеля к следующему шагу после принятия решения | false | true | false | |
6,723 | 2026-02-24T08:05:07.846000Z | 2026-02-24T08:05:07.846000Z | Lec. | В простейшем случае можно определить – разницу стоимости портфеля до и после совершения действия. – функция, задающая динамику среды | false | true | false | |
6,722 | 2026-02-24T08:05:06.287000Z | 2026-02-24T08:05:06.287000Z | Lec. | Часто используют относительный прирост капитала (доходность за период) или его логарифм | false | true | false | |
6,721 | 2026-02-24T08:05:04.690000Z | 2026-02-24T08:05:04.690000Z | Lec. | Цель агента – максимизировать суммарно полученную награду | false | true | false | |
6,720 | 2026-02-24T08:05:03.181000Z | 2026-02-24T08:05:03.181000Z | Lec. | Вознаграждение – это численный ответ от среды агенту после совершения действия | false | true | false | |
6,719 | 2026-02-24T08:05:01.244000Z | 2026-02-24T08:05:01.244000Z | Lec. | В контексте портфеля действие соответствует ребалансировке портфеля на шаге. – функция вознаграждения | false | true | false | |
6,718 | 2026-02-24T08:04:59.683000Z | 2026-02-24T08:04:59.683000Z | Lec. | Элемент – решение агента в состоянии | false | true | false | |
6,717 | 2026-02-24T08:04:57.807000Z | 2026-02-24T08:04:57.807000Z | Lec. | В задачах инвестирования состояние обычно включает признаки рынка (финансовые индикаторы, цены акций за последние дни и т.д.) и распределение капитала между активами на шаге. – множество действий | false | true | false | |
6,716 | 2026-02-24T08:04:55.951000Z | 2026-02-24T08:04:55.951000Z | Lec. | Элемент описывает информацию о системе в текущий момент времени (например, состояние рыночной среды и портфеля) | false | true | false | |
6,715 | 2026-02-24T08:04:54.160000Z | 2026-02-24T08:04:54.160000Z | Lec. | Формальным языком MDP для оптимизации портфеля можно определить как кортеж , где:. – множество состояний | false | true | false | |
6,714 | 2026-02-24T08:04:52.387000Z | 2026-02-24T08:04:52.387000Z | Lec. | Таким образом, полностью описывает динамику без учёта предшествующих состояний | false | true | false | |
6,713 | 2026-02-24T08:04:50.703000Z | 2026-02-24T08:04:50.703000Z | Lec. | Это подразумевает вся необходимая информацию о прошлых взаимодействиях уже учтена состояние , и не нужна информация о предыдущих шагах при известном текущем состоянии [10] | false | true | false | |
6,712 | 2026-02-24T08:04:49.047000Z | 2026-02-24T08:04:49.047000Z | Lec. | Процесс называется марковским, если вероятность перехода в новое состояние зависит только от выбранного действия и текущего состояния [10]:. (3) | false | true | false | |
6,711 | 2026-02-24T08:04:47.560000Z | 2026-02-24T08:04:47.560000Z | Lec. | Агент (в данном случае трейдинговый алгоритм) последовательно шаг за шагом принимает решения по ребалансировке портфеля, наблюдая состояние рынка и получая вознаграждение за увеличение капитала | false | true | false | |
6,710 | 2026-02-24T08:04:45.789000Z | 2026-02-24T08:04:45.789000Z | Lec. | Задача управления портфелем при использовании алгоритмов глубокого машинного обучения с подкреплением может быть сформулирована как марковский процесс принятия решений (Markov Decision Process, MDP) | false | true | false | |
6,709 | 2026-02-24T08:04:43.970000Z | 2026-02-24T08:04:43.970000Z | Lec. | Как итог, можно сделать, вывод, что методы глубокого машинного обучения с подкреплением в ряде исследований обходят классические стратегии по основным метрикам, однако их эффективность существенно зависит от настройки алгоритмов | false | true | false | |
6,708 | 2026-02-24T08:04:42.184000Z | 2026-02-24T08:04:42.184000Z | Lec. | PPO, наоборот, в отличие от DDPG, оказался наименее эффективным без добавления скрытых слоев, а эффективность TD3 увеличивалась по мере увеличения скрытых слоев | false | true | false |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.