id
int64
18
21.1k
created_at
timestamp[ns, tz=UTC]date
2026-02-23 07:30:20
2026-02-24 16:54:39
updated_at
timestamp[ns, tz=UTC]date
2026-02-23 08:08:14
2026-02-24 16:54:39
doc_name
stringclasses
1 value
input
stringlengths
11
9.24k
output
stringlengths
0
738
is_personal
bool
2 classes
is_sentence
bool
2 classes
is_corrected
bool
2 classes
6,807
2026-02-24T08:07:34.339000Z
2026-02-24T08:07:34.340000Z
Lec.
Финансовый сектор (American Express Company)
false
true
false
6,806
2026-02-24T08:07:32.497000Z
2026-02-24T08:07:32.497000Z
Lec.
Аэрокосмическая промышленность (The Boeing Company)
false
true
false
6,805
2026-02-24T08:07:30.842000Z
2026-02-24T08:07:30.842000Z
Lec.
Финансовый сектор (Bank of America Corporation)
false
true
false
6,804
2026-02-24T08:07:29.133000Z
2026-02-24T08:07:29.133000Z
Lec.
Развлечения (The Walt Disney Company)
false
true
false
6,803
2026-02-24T08:07:27.453000Z
2026-02-24T08:07:27.453000Z
Lec.
Потребительские товары (Procter & Gamble Co.)
false
true
false
6,802
2026-02-24T08:07:25.608000Z
2026-02-24T08:07:25.608000Z
Lec.
Сектор экономики
false
true
false
6,801
2026-02-24T08:07:24.007000Z
2026-02-24T08:07:24.007000Z
Lec.
Данные о названиях выбранных компаний представлены в таблице 1. ticker
false
true
false
6,800
2026-02-24T08:07:22.549000Z
2026-02-24T08:07:22.549000Z
Lec.
Для рынка акций были выбраны котировки крупных компаний США из различных секторов экономики для формирования диверсифицированного портфеля
false
true
false
6,799
2026-02-24T08:07:20.780000Z
2026-02-24T08:07:20.780000Z
Lec.
В исследовании предполагается определить эффективность работы алгоритмов A2C и DDPG в разных рыночных условиях, а именно на рынке акций и на рынке криптовалют
false
true
false
6,798
2026-02-24T08:07:18.939000Z
2026-02-24T08:07:18.939000Z
Lec.
В текущей главе будут рассмотрен процесс обучения агентов и анализ полученных результатов
false
true
false
6,797
2026-02-24T08:07:17.170000Z
2026-02-24T08:07:17.170000Z
Lec.
Для расчета метрик и визуализации полученных результатов был разработан класс ResultsInfo, который включается в себя следующие методы:. portfolio_value_graph() – скрипт, визуализирующий график зависимости стоимости портфеля от времени. compute_metrics() – функция для расчета метрик оценки качества портфеля, включая годовую доходность, доходность на весь период, стандартное отклонение, коэффициент Шарпа. plot_cumulative_returns() – скрипт, для визуализации доходности активов
false
false
false
6,796
2026-02-24T08:07:14.802000Z
2026-02-24T08:07:14.802000Z
Lec.
Обучение агентов происходило в разработанной среде PortfolioEnv, реализованной на основе API Gymnasium
false
true
false
6,795
2026-02-24T08:07:13.024000Z
2026-02-24T08:07:13.024000Z
Lec.
Для реализации алгоритмов обучения с подкреплением использовалась библиотека Stable-Baselines3, основанная на PyTorch
false
true
false
6,794
2026-02-24T08:07:11.378000Z
2026-02-24T08:07:11.378000Z
Lec.
Каждый из этих методов обеспечивает полное взаимодействие агента со средой: формирование наблюдений, обработку действий, расчет вознаграждения и переход к следующему состоянию
false
true
false
6,793
2026-02-24T08:07:09.821000Z
2026-02-24T08:07:09.821000Z
Lec.
Извлекает нормализованные цены активов и вектор технических признаков и объединяет два вектора в один. step() – описывает основной шаг агента со средой, а именно рассчитывает относительный прирост портфеля на основе текущих и последующих в окне цен, обновляет историю доходностей, сохраняет полученный прирост, вычисляет награду (reward) на основе Sharp Ratio с учетом энтропийного бонуса
false
true
false
6,792
2026-02-24T08:07:07.587000Z
2026-02-24T08:07:07.587000Z
Lec.
Класс со средой обучения PortfolioEnv включает в себя следующие методы:. reset() – инициализирует новый эпизод во время обучения. _get_observation() – формирует состояние среды на текущей итерации
false
true
false
6,791
2026-02-24T08:07:05.824000Z
2026-02-24T08:07:05.824000Z
Lec.
Это помогает ускорить и улучшить процесс обучения
false
true
false
6,790
2026-02-24T08:07:04.241000Z
2026-02-24T08:07:04.241000Z
Lec.
Благодаря этому агент видит не только цену актива, а целый набор осмысленных сигналов о рынке
false
true
false
6,789
2026-02-24T08:07:02.516000Z
2026-02-24T08:07:02.516000Z
Lec.
Указанные выше индикаторы формируют множество признаков, которые будут подаваться как параметры, характеризующую среду, во время обучения агента
false
true
false
6,788
2026-02-24T08:07:00.916000Z
2026-02-24T08:07:00.916000Z
Lec.
Нормализация ускоряет и стабилизирует обучение агентов и происходит по следующей формуле:. – среднее (mean). – стандартное отклонение. compute_features – функция для обогащения данных с расчетом дополнительных признаков: логарифмическая доходность, индикатор RSI (Relative Strength Index), скользящие средние SMA (Simple Moving Average), EMA (Exponential Moving Average), MACD (Moving Average Convergence Divergence), ROC (Rate of Change), Волатильность (скользящее стандартное отклонение логарифмической доходности за окно), Sharpe Ratio
false
false
false
6,787
2026-02-24T08:06:58.954000Z
2026-02-24T08:06:58.954000Z
Lec.
Цены активов могут серьезно отличаться по порядку величины: акции крупных компаний торгуются по стоимости в сотни долларов, а криптовалюты зачастую могут иметь пики цен в тысячах, и десятках тысяч в сравнении с средним значением
false
true
false
6,786
2026-02-24T08:06:57.167000Z
2026-02-24T08:06:57.167000Z
Lec.
Сырые данные могут быть с привязкой к различным часовым поясам, что может вызвать несовпадение временных меток при объединении нескольких источников. price_scaler – функция для масштабирования цен активов
false
true
false
6,785
2026-02-24T08:06:55.464000Z
2026-02-24T08:06:55.464000Z
Lec.
Этот класс в себя следующие методы:. drop_nulls – удаление неполных данных и пропусков. safety_remove_timezone – функция для унификации индекса времени
false
true
false
6,784
2026-02-24T08:06:53.794000Z
2026-02-24T08:06:53.794000Z
Lec.
Для предобработки реализован класс DataPreparation
false
true
false
6,783
2026-02-24T08:06:52.268000Z
2026-02-24T08:06:52.268000Z
Lec.
Для обучения торговых агентов важно правильно предобработать данные, так как от качества данных напрямую зависит качество работы торгового агента, обученного на основе алгоритмов глубокого машинного обучения
false
true
false
6,782
2026-02-24T08:06:50.489000Z
2026-02-24T08:06:50.489000Z
Lec.
Результат выполнения метода fetch() переменная типа DataFrame с временными рядами цен в момент закрытия торгов
false
true
false
6,781
2026-02-24T08:06:48.822000Z
2026-02-24T08:06:48.822000Z
Lec.
Важной особенностью класса CryptoDataCollector в отличии класса StockDataCollector является то, что из-за ограничения API происходит автоматическое разбиение запроса данных на периоды по 2000 дней с последующем объединением результатов запросов
false
true
false
6,780
2026-02-24T08:06:47.169000Z
2026-02-24T08:06:47.169000Z
Lec.
Таким образом, при повторном вызове метода fetch() данные считываются из кэша, а не загружаются повторно
false
true
false
6,779
2026-02-24T08:06:45.615000Z
2026-02-24T08:06:45.615000Z
Lec.
Для вызова метода необходимо передать три параметра: список с наименованиями тикеров, дата начала и дата конца, рассматриваемого периода
false
true
false
6,778
2026-02-24T08:06:44.051000Z
2026-02-24T08:06:44.051000Z
Lec.
При первичном использовании метода fetch() в обоих классах происходит загрузка данных с последующим сохранением в локальный кэш
false
true
false
6,777
2026-02-24T08:06:42.008000Z
2026-02-24T08:06:42.008000Z
Lec.
Класс CryptoDataCollector отвечает за загрузку цен акций по указанным тикерам c помощью API CryptoCompare
false
true
false
6,776
2026-02-24T08:06:40.467000Z
2026-02-24T08:06:40.467000Z
Lec.
Класс StockDataCollector отвечает за загрузку цен акций по указанным тикерам через библиотеку yfinance
false
true
false
6,775
2026-02-24T08:06:38.920000Z
2026-02-24T08:06:38.920000Z
Lec.
Эта система состоит из двух классов:
false
true
false
6,774
2026-02-24T08:06:37.345000Z
2026-02-24T08:06:37.345000Z
Lec.
Для формирования портфеля на различных рынках была реализована система сбора данных
false
true
false
6,773
2026-02-24T08:06:35.501000Z
2026-02-24T08:06:35.501000Z
Lec.
Это позволило получить структурированный код, разбитый на независимые модули с возможностью его дальнейшего расширения
false
true
false
6,772
2026-02-24T08:06:33.747000Z
2026-02-24T08:06:33.747000Z
Lec.
При написании кода была учтена парадигма объектно-ориентированного программирования (ООП)
false
true
false
6,771
2026-02-24T08:06:32.082000Z
2026-02-24T08:06:32.082000Z
Lec.
Разработка программного кода проводилась в среде Google Colaboratory, которая представляет собой облачную инфраструктуру для разработки и выполнения Python-кода
false
true
false
6,770
2026-02-24T08:06:30.324000Z
2026-02-24T08:06:30.324000Z
Lec.
Для реализации поставленной в предыдущей главе задачи по оптимизации инвестиционного портфеля на языке программирования Python версии 3.11.12 был реализован соответствующий функционал, описание и тестирование которого будет приведено в текущей главе
false
true
false
6,769
2026-02-24T08:06:27.494000Z
2026-02-24T08:06:27.494000Z
Lec.
Рис. 3 Псевдокод алгоритма DDPG
false
true
false
6,768
2026-02-24T08:06:25.692000Z
2026-02-24T08:06:25.692000Z
Lec.
При это соответствует прямому копированию
false
true
false
6,767
2026-02-24T08:06:24.202000Z
2026-02-24T08:06:24.202000Z
Lec.
Функция потерь актора задают как:. в DDPG применяются таргетные сети критика и актора с параметрами и которые обновляются выполняется «мягко» [15] (soft update) по правилу:. ,. где (типично )
false
true
false
6,766
2026-02-24T08:06:22.570000Z
2026-02-24T08:06:22.570000Z
Lec.
Актор задает детерминированную политику , отображающую состояние в действие
false
true
false
6,765
2026-02-24T08:06:20.846000Z
2026-02-24T08:06:20.846000Z
Lec.
Функцию потерь модели критика вводят как среднеквадратичную ошибку по мини-батчу N и минимизируют по параметрам :. (16). – текущая оценка критика. – целевое значение
false
true
false
6,764
2026-02-24T08:06:19.265000Z
2026-02-24T08:06:19.265000Z
Lec.
Мини-батч в контексте алгоритма DDPG это подмножество из N случайно выбранных переходов, т. е. кортежей вида из буфера повторения опыта (replay buffer), где. — состояние в момент времени t,. — действие, выбранное агентом,. — награда, полученная после действия,. — следующее состояние
false
true
false
6,763
2026-02-24T08:06:17.232000Z
2026-02-24T08:06:17.232000Z
Lec.
Целевое значение функции ценности действия определяется как:. (15). – параметры cетей таргет-критика и таргет-актора
false
true
false
6,762
2026-02-24T08:06:15.694000Z
2026-02-24T08:06:15.694000Z
Lec.
В методе DDQG значение функции приближается таргет-сетями
false
true
false
6,761
2026-02-24T08:06:14.068000Z
2026-02-24T08:06:14.068000Z
Lec.
Для модели критика в DDPG используется уравнение Беллмана для формирования детерминированной политики:. (14). — оценка ценности действия в состоянии ;. — вознаграждение, полученное на шаге ;. — коэффициент дисконтирования будущих наград;. — следующее состояние после выполнения действия;. — стратегия, определяющая следующее действие в состоянии ;
false
true
false
6,760
2026-02-24T08:06:11.984000Z
2026-02-24T08:06:11.984000Z
Lec.
Общая цель агента аналогично разделу 2.2 максимизировать уравнение (4)
false
true
false
6,759
2026-02-24T08:06:10.261000Z
2026-02-24T08:06:10.261000Z
Lec.
Это увеличивает sample efficiency (выборочную эффективность) по сравнению с on-policy методами
false
true
false
6,758
2026-02-24T08:06:08.528000Z
2026-02-24T08:06:08.528000Z
Lec.
Отличие заключается в том, что рассматриваемый алгоритм использует off-policy обучение, что позволяет повторно использовать прошедший опыт, хранящийся в буфере обмена
false
true
false
6,757
2026-02-24T08:06:06.926000Z
2026-02-24T08:06:06.926000Z
Lec.
Так же, как и алгоритм A2C, DDPG относится к классу “actor-critic” алгоритмов
false
true
false
6,756
2026-02-24T08:06:05.162000Z
2026-02-24T08:06:05.162000Z
Lec.
Алгоритм DDPG (Deep Deterministic Policy Gradient) является model-free методом обучения с подкреплением, который рассчитан на задачи с непрерывном пространством действий [14]
false
true
false
6,755
2026-02-24T08:06:03.407000Z
2026-02-24T08:06:03.407000Z
Lec.
Вместо одношаговой TD-ошибки в A2C часто используется шаговое приближение возврата:. (13)
false
true
false
6,754
2026-02-24T08:06:01.847000Z
2026-02-24T08:06:01.847000Z
Lec.
Рис. 2 Псевдокод алгоритма A2C
false
true
false
6,753
2026-02-24T08:06:00.035000Z
2026-02-24T08:06:00.035000Z
Lec.
Как результат алгоритм постепенно снижает (12), что эквивалентно росту целевой функции (4)
false
true
false
6,752
2026-02-24T08:05:57.969000Z
2026-02-24T08:05:57.969000Z
Lec.
Параметры актора и критика обновляются совместно через суммарную функцию потерь для всей модели:. (12). – коэффициент, который определяет вклад “критика” в градиент обновления
false
true
false
6,751
2026-02-24T08:05:56.269000Z
2026-02-24T08:05:56.269000Z
Lec.
Функция потерь критика задается как мат. ожидание квадрата TD-ошибки:. (11)
false
true
false
6,750
2026-02-24T08:05:54.470000Z
2026-02-24T08:05:54.470000Z
Lec.
Стоит отметить, что для стабилизации обучения и улучшения исследования среды к функции потерь актора добавляется энтропийный регуляризатор:. (10)
false
true
false
6,749
2026-02-24T08:05:52.849000Z
2026-02-24T08:05:52.849000Z
Lec.
Политик актора обучается не напрямую градиентном подъемом , а при помощи минимизации функции потерь:. (9)
false
true
false
6,748
2026-02-24T08:05:51.218000Z
2026-02-24T08:05:51.218000Z
Lec.
Согласно теореме политики-градиента [13] градиент функции (4) можно выразить следующим образом:. (8)
false
true
false
6,747
2026-02-24T08:05:49.671000Z
2026-02-24T08:05:49.671000Z
Lec.
Для максимизации величины (4) используются методы политики-градиента с корректировкой параметров политики в направлении увеличения
false
true
false
6,746
2026-02-24T08:05:48.104000Z
2026-02-24T08:05:48.104000Z
Lec.
За счет этого обучение актора становится стабильнее и более эффективным
false
true
false
6,745
2026-02-24T08:05:46.384000Z
2026-02-24T08:05:46.384000Z
Lec.
Таким образом, TD-ошибка является оценкой преимущества совершенного действия
false
true
false
6,744
2026-02-24T08:05:44.594000Z
2026-02-24T08:05:44.594000Z
Lec.
Подставляя определение (6) в формулу (5), получим:. (7)
false
true
false
6,743
2026-02-24T08:05:42.972000Z
2026-02-24T08:05:42.972000Z
Lec.
В алгоритме A2C не вычисляется непосредственно
false
true
false
6,742
2026-02-24T08:05:41.262000Z
2026-02-24T08:05:41.262000Z
Lec.
Таким образом, показывает, насколько действие в состоянии лучше или хуже среднего поведения согласно политике. , то действие приносит больше награды, чем в среднем ожидается в состоянии. , то действие менее выгодно, чем усредненное поведение политики
false
true
false
6,741
2026-02-24T08:05:39.557000Z
2026-02-24T08:05:39.557000Z
Lec.
В алгоритме A2C функция преимущества определяется как:. – функция ценности состояния (state-value), равная ожидаемому вознаграждению при начале в состоянии и дальнейшем следовании политике. – функция ценности действия (action-value), равная ожидаемому суммарному вознаграждению при нахождении в состоянии выполнении действия и последующем следовании политике :. (6),
false
true
false
6,740
2026-02-24T08:05:37.498000Z
2026-02-24T08:05:37.498000Z
Lec.
Для каждого шага , TD-ошибка определяется как:. – состояние в момент времени t,. – выбранное действие,. – вознаграждение, полученное при переходе в новое состояние ,. – оценка ценности состояния (state-value), выдаваемая критиком с параметрами ,. – коэффициент дисконтирования
false
true
false
6,739
2026-02-24T08:05:35.800000Z
2026-02-24T08:05:35.800000Z
Lec.
Для обучения модели критика применяется метод временных разностей (temporal difference, TD)
false
true
false
6,738
2026-02-24T08:05:34.178000Z
2026-02-24T08:05:34.178000Z
Lec.
Рис. 1 Классификация алгоритмов A2C и DDPG
false
true
false
6,737
2026-02-24T08:05:32.384000Z
2026-02-24T08:05:32.384000Z
Lec.
В обновлении актора используется оценка функции преимущества (Advantage Function), которая показывает, насколько полученная награда превышает среднее ожидаемое значение
false
true
false
6,736
2026-02-24T08:05:30.692000Z
2026-02-24T08:05:30.692000Z
Lec.
Алгоритм A2C (Advantage Actor-Critic) основан на архитектуре “актор-критик” и включает два компонента: актор – модель, которая определяет политику и на основе состояния среды выбирает действие; критик –модель, которая приближенно оценивает ценностную функцию (Value Function) и оценивает качество действий [12]
false
true
false
6,735
2026-02-24T08:05:28.886000Z
2026-02-24T08:05:28.886000Z
Lec.
Таким образом, называется ожидаемым совокупным вознаграждением (expected return) при следовании политике с параметрами
false
true
false
6,734
2026-02-24T08:05:27.240000Z
2026-02-24T08:05:27.240000Z
Lec.
Предел суммирования T может обозначать либо время окончания эпизода, либо стремиться к бесконечности в случае непрерывного взаимодействия (при бесконечная сумма сходится) [9]
false
true
false
6,733
2026-02-24T08:05:25.586000Z
2026-02-24T08:05:25.586000Z
Lec.
Формально цель агента определяется как максимизация величины:. (4). где случайная величина – награда, полученная на шаге , мат. ожидание рассчитывается с учётом случайного характера среды, а при использовании стохастической модели, с учётом вероятностного выбора действий самим агентом
false
true
false
6,732
2026-02-24T08:05:23.221000Z
2026-02-24T08:05:23.221000Z
Lec.
Для политики (стратегии) агента , параметризованной , обычно вводится функция качества политики – математическое ожидание дисконтированной суммы вознаграждений, полученных агентом с течением времени [9]
false
true
false
6,731
2026-02-24T08:05:21.658000Z
2026-02-24T08:05:21.658000Z
Lec.
Агент, действующий в среде MDP, стремится максимизировать кумулятивное (суммарное) вознаграждение при взаимодействии со средой
false
true
false
6,730
2026-02-24T08:05:19.665000Z
2026-02-24T08:05:19.665000Z
Lec.
Граничные случаи: означает, что агент оценивает только непосредственную награду, делает агента, который учитывает долгосрочные последствия
false
true
false
6,729
2026-02-24T08:05:17.963000Z
2026-02-24T08:05:17.963000Z
Lec.
Если < 1, награды на n шагов в будущем дисконтируются как и тем самым отдалённые во времени результаты учитываются слабее ближайших [9]
false
true
false
6,728
2026-02-24T08:05:16.351000Z
2026-02-24T08:05:16.351000Z
Lec.
Определяет, насколько агент учитывает будущие награды при принятии решений
false
true
false
6,727
2026-02-24T08:05:14.807000Z
2026-02-24T08:05:14.807000Z
Lec.
Таким образом, функция моделирует как внешние рыночные изменения, так и обновление долей портфеля под действием агента. – коэффициент дисконтирования 0 1
false
false
false
6,726
2026-02-24T08:05:13.036000Z
2026-02-24T08:05:13.036000Z
Lec.
Состояние включает также внутренние переменные (структуру портфеля), которые прямо определяются действием
false
true
false
6,725
2026-02-24T08:05:11.512000Z
2026-02-24T08:05:11.512000Z
Lec.
В текущей работе предполагается, что динамика цен стохастическая и не зависит от действий агента, в предположении того, что объём торгов агента мал
false
true
false
6,724
2026-02-24T08:05:09.810000Z
2026-02-24T08:05:09.810000Z
Lec.
Распределение вероятностей – вероятность перехода в состояние при выполнении действия из состояния Эта функция показывает изменение цен на рынке: например, как изменятся котировки и состояние портфеля к следующему шагу после принятия решения
false
true
false
6,723
2026-02-24T08:05:07.846000Z
2026-02-24T08:05:07.846000Z
Lec.
В простейшем случае можно определить – разницу стоимости портфеля до и после совершения действия. – функция, задающая динамику среды
false
true
false
6,722
2026-02-24T08:05:06.287000Z
2026-02-24T08:05:06.287000Z
Lec.
Часто используют относительный прирост капитала (доходность за период) или его логарифм
false
true
false
6,721
2026-02-24T08:05:04.690000Z
2026-02-24T08:05:04.690000Z
Lec.
Цель агента – максимизировать суммарно полученную награду
false
true
false
6,720
2026-02-24T08:05:03.181000Z
2026-02-24T08:05:03.181000Z
Lec.
Вознаграждение – это численный ответ от среды агенту после совершения действия
false
true
false
6,719
2026-02-24T08:05:01.244000Z
2026-02-24T08:05:01.244000Z
Lec.
В контексте портфеля действие соответствует ребалансировке портфеля на шаге. – функция вознаграждения
false
true
false
6,718
2026-02-24T08:04:59.683000Z
2026-02-24T08:04:59.683000Z
Lec.
Элемент – решение агента в состоянии
false
true
false
6,717
2026-02-24T08:04:57.807000Z
2026-02-24T08:04:57.807000Z
Lec.
В задачах инвестирования состояние обычно включает признаки рынка (финансовые индикаторы, цены акций за последние дни и т.д.) и распределение капитала между активами на шаге. – множество действий
false
true
false
6,716
2026-02-24T08:04:55.951000Z
2026-02-24T08:04:55.951000Z
Lec.
Элемент описывает информацию о системе в текущий момент времени (например, состояние рыночной среды и портфеля)
false
true
false
6,715
2026-02-24T08:04:54.160000Z
2026-02-24T08:04:54.160000Z
Lec.
Формальным языком MDP для оптимизации портфеля можно определить как кортеж , где:. – множество состояний
false
true
false
6,714
2026-02-24T08:04:52.387000Z
2026-02-24T08:04:52.387000Z
Lec.
Таким образом, полностью описывает динамику без учёта предшествующих состояний
false
true
false
6,713
2026-02-24T08:04:50.703000Z
2026-02-24T08:04:50.703000Z
Lec.
Это подразумевает вся необходимая информацию о прошлых взаимодействиях уже учтена состояние , и не нужна информация о предыдущих шагах при известном текущем состоянии [10]
false
true
false
6,712
2026-02-24T08:04:49.047000Z
2026-02-24T08:04:49.047000Z
Lec.
Процесс называется марковским, если вероятность перехода в новое состояние зависит только от выбранного действия и текущего состояния [10]:. (3)
false
true
false
6,711
2026-02-24T08:04:47.560000Z
2026-02-24T08:04:47.560000Z
Lec.
Агент (в данном случае трейдинговый алгоритм) последовательно шаг за шагом принимает решения по ребалансировке портфеля, наблюдая состояние рынка и получая вознаграждение за увеличение капитала
false
true
false
6,710
2026-02-24T08:04:45.789000Z
2026-02-24T08:04:45.789000Z
Lec.
Задача управления портфелем при использовании алгоритмов глубокого машинного обучения с подкреплением может быть сформулирована как марковский процесс принятия решений (Markov Decision Process, MDP)
false
true
false
6,709
2026-02-24T08:04:43.970000Z
2026-02-24T08:04:43.970000Z
Lec.
Как итог, можно сделать, вывод, что методы глубокого машинного обучения с подкреплением в ряде исследований обходят классические стратегии по основным метрикам, однако их эффективность существенно зависит от настройки алгоритмов
false
true
false
6,708
2026-02-24T08:04:42.184000Z
2026-02-24T08:04:42.184000Z
Lec.
PPO, наоборот, в отличие от DDPG, оказался наименее эффективным без добавления скрытых слоев, а эффективность TD3 увеличивалась по мере увеличения скрытых слоев
false
true
false