id int64 18 21.1k | created_at timestamp[ns, tz=UTC]date 2026-02-23 07:30:20 2026-02-24 16:54:39 | updated_at timestamp[ns, tz=UTC]date 2026-02-23 08:08:14 2026-02-24 16:54:39 | doc_name stringclasses 1
value | input stringlengths 11 9.24k | output stringlengths 0 738 | is_personal bool 2
classes | is_sentence bool 2
classes | is_corrected bool 2
classes |
|---|---|---|---|---|---|---|---|---|
6,807 | 2026-02-24T08:07:34.339000Z | 2026-02-24T08:07:34.340000Z | Lec. | Финансовый сектор (American Express Company) | false | true | false | |
6,806 | 2026-02-24T08:07:32.497000Z | 2026-02-24T08:07:32.497000Z | Lec. | Аэрокосмическая промышленность (The Boeing Company) | false | true | false | |
6,805 | 2026-02-24T08:07:30.842000Z | 2026-02-24T08:07:30.842000Z | Lec. | Финансовый сектор (Bank of America Corporation) | false | true | false | |
6,804 | 2026-02-24T08:07:29.133000Z | 2026-02-24T08:07:29.133000Z | Lec. | Развлечения (The Walt Disney Company) | false | true | false | |
6,803 | 2026-02-24T08:07:27.453000Z | 2026-02-24T08:07:27.453000Z | Lec. | Потребительские товары (Procter & Gamble Co.) | false | true | false | |
6,802 | 2026-02-24T08:07:25.608000Z | 2026-02-24T08:07:25.608000Z | Lec. | Сектор экономики | false | true | false | |
6,801 | 2026-02-24T08:07:24.007000Z | 2026-02-24T08:07:24.007000Z | Lec. | Данные о названиях выбранных компаний представлены в таблице 1. ticker | false | true | false | |
6,800 | 2026-02-24T08:07:22.549000Z | 2026-02-24T08:07:22.549000Z | Lec. | Для рынка акций были выбраны котировки крупных компаний США из различных секторов экономики для формирования диверсифицированного портфеля | false | true | false | |
6,799 | 2026-02-24T08:07:20.780000Z | 2026-02-24T08:07:20.780000Z | Lec. | В исследовании предполагается определить эффективность работы алгоритмов A2C и DDPG в разных рыночных условиях, а именно на рынке акций и на рынке криптовалют | false | true | false | |
6,798 | 2026-02-24T08:07:18.939000Z | 2026-02-24T08:07:18.939000Z | Lec. | В текущей главе будут рассмотрен процесс обучения агентов и анализ полученных результатов | false | true | false | |
6,797 | 2026-02-24T08:07:17.170000Z | 2026-02-24T08:07:17.170000Z | Lec. | Для расчета метрик и визуализации полученных результатов был разработан класс ResultsInfo, который включается в себя следующие методы:. portfolio_value_graph() – скрипт, визуализирующий график зависимости стоимости портфеля от времени. compute_metrics() – функция для расчета метрик оценки качества портфеля, включая годовую доходность, доходность на весь период, стандартное отклонение, коэффициент Шарпа. plot_cumulative_returns() – скрипт, для визуализации доходности активов | false | false | false | |
6,796 | 2026-02-24T08:07:14.802000Z | 2026-02-24T08:07:14.802000Z | Lec. | Обучение агентов происходило в разработанной среде PortfolioEnv, реализованной на основе API Gymnasium | false | true | false | |
6,795 | 2026-02-24T08:07:13.024000Z | 2026-02-24T08:07:13.024000Z | Lec. | Для реализации алгоритмов обучения с подкреплением использовалась библиотека Stable-Baselines3, основанная на PyTorch | false | true | false | |
6,794 | 2026-02-24T08:07:11.378000Z | 2026-02-24T08:07:11.378000Z | Lec. | Каждый из этих методов обеспечивает полное взаимодействие агента со средой: формирование наблюдений, обработку действий, расчет вознаграждения и переход к следующему состоянию | false | true | false | |
6,793 | 2026-02-24T08:07:09.821000Z | 2026-02-24T08:07:09.821000Z | Lec. | Извлекает нормализованные цены активов и вектор технических признаков и объединяет два вектора в один. step() – описывает основной шаг агента со средой, а именно рассчитывает относительный прирост портфеля на основе текущих и последующих в окне цен, обновляет историю доходностей, сохраняет полученный прирост, вычисляет награду (reward) на основе Sharp Ratio с учетом энтропийного бонуса | false | true | false | |
6,792 | 2026-02-24T08:07:07.587000Z | 2026-02-24T08:07:07.587000Z | Lec. | Класс со средой обучения PortfolioEnv включает в себя следующие методы:. reset() – инициализирует новый эпизод во время обучения. _get_observation() – формирует состояние среды на текущей итерации | false | true | false | |
6,791 | 2026-02-24T08:07:05.824000Z | 2026-02-24T08:07:05.824000Z | Lec. | Это помогает ускорить и улучшить процесс обучения | false | true | false | |
6,790 | 2026-02-24T08:07:04.241000Z | 2026-02-24T08:07:04.241000Z | Lec. | Благодаря этому агент видит не только цену актива, а целый набор осмысленных сигналов о рынке | false | true | false | |
6,789 | 2026-02-24T08:07:02.516000Z | 2026-02-24T08:07:02.516000Z | Lec. | Указанные выше индикаторы формируют множество признаков, которые будут подаваться как параметры, характеризующую среду, во время обучения агента | false | true | false | |
6,788 | 2026-02-24T08:07:00.916000Z | 2026-02-24T08:07:00.916000Z | Lec. | Нормализация ускоряет и стабилизирует обучение агентов и происходит по следующей формуле:. – среднее (mean). – стандартное отклонение. compute_features – функция для обогащения данных с расчетом дополнительных признаков: логарифмическая доходность, индикатор RSI (Relative Strength Index), скользящие средние SMA (Simple Moving Average), EMA (Exponential Moving Average), MACD (Moving Average Convergence Divergence), ROC (Rate of Change), Волатильность (скользящее стандартное отклонение логарифмической доходности за окно), Sharpe Ratio | false | false | false | |
6,787 | 2026-02-24T08:06:58.954000Z | 2026-02-24T08:06:58.954000Z | Lec. | Цены активов могут серьезно отличаться по порядку величины: акции крупных компаний торгуются по стоимости в сотни долларов, а криптовалюты зачастую могут иметь пики цен в тысячах, и десятках тысяч в сравнении с средним значением | false | true | false | |
6,786 | 2026-02-24T08:06:57.167000Z | 2026-02-24T08:06:57.167000Z | Lec. | Сырые данные могут быть с привязкой к различным часовым поясам, что может вызвать несовпадение временных меток при объединении нескольких источников. price_scaler – функция для масштабирования цен активов | false | true | false | |
6,785 | 2026-02-24T08:06:55.464000Z | 2026-02-24T08:06:55.464000Z | Lec. | Этот класс в себя следующие методы:. drop_nulls – удаление неполных данных и пропусков. safety_remove_timezone – функция для унификации индекса времени | false | true | false | |
6,784 | 2026-02-24T08:06:53.794000Z | 2026-02-24T08:06:53.794000Z | Lec. | Для предобработки реализован класс DataPreparation | false | true | false | |
6,783 | 2026-02-24T08:06:52.268000Z | 2026-02-24T08:06:52.268000Z | Lec. | Для обучения торговых агентов важно правильно предобработать данные, так как от качества данных напрямую зависит качество работы торгового агента, обученного на основе алгоритмов глубокого машинного обучения | false | true | false | |
6,782 | 2026-02-24T08:06:50.489000Z | 2026-02-24T08:06:50.489000Z | Lec. | Результат выполнения метода fetch() переменная типа DataFrame с временными рядами цен в момент закрытия торгов | false | true | false | |
6,781 | 2026-02-24T08:06:48.822000Z | 2026-02-24T08:06:48.822000Z | Lec. | Важной особенностью класса CryptoDataCollector в отличии класса StockDataCollector является то, что из-за ограничения API происходит автоматическое разбиение запроса данных на периоды по 2000 дней с последующем объединением результатов запросов | false | true | false | |
6,780 | 2026-02-24T08:06:47.169000Z | 2026-02-24T08:06:47.169000Z | Lec. | Таким образом, при повторном вызове метода fetch() данные считываются из кэша, а не загружаются повторно | false | true | false | |
6,779 | 2026-02-24T08:06:45.615000Z | 2026-02-24T08:06:45.615000Z | Lec. | Для вызова метода необходимо передать три параметра: список с наименованиями тикеров, дата начала и дата конца, рассматриваемого периода | false | true | false | |
6,778 | 2026-02-24T08:06:44.051000Z | 2026-02-24T08:06:44.051000Z | Lec. | При первичном использовании метода fetch() в обоих классах происходит загрузка данных с последующим сохранением в локальный кэш | false | true | false | |
6,777 | 2026-02-24T08:06:42.008000Z | 2026-02-24T08:06:42.008000Z | Lec. | Класс CryptoDataCollector отвечает за загрузку цен акций по указанным тикерам c помощью API CryptoCompare | false | true | false | |
6,776 | 2026-02-24T08:06:40.467000Z | 2026-02-24T08:06:40.467000Z | Lec. | Класс StockDataCollector отвечает за загрузку цен акций по указанным тикерам через библиотеку yfinance | false | true | false | |
6,775 | 2026-02-24T08:06:38.920000Z | 2026-02-24T08:06:38.920000Z | Lec. | Эта система состоит из двух классов: | false | true | false | |
6,774 | 2026-02-24T08:06:37.345000Z | 2026-02-24T08:06:37.345000Z | Lec. | Для формирования портфеля на различных рынках была реализована система сбора данных | false | true | false | |
6,773 | 2026-02-24T08:06:35.501000Z | 2026-02-24T08:06:35.501000Z | Lec. | Это позволило получить структурированный код, разбитый на независимые модули с возможностью его дальнейшего расширения | false | true | false | |
6,772 | 2026-02-24T08:06:33.747000Z | 2026-02-24T08:06:33.747000Z | Lec. | При написании кода была учтена парадигма объектно-ориентированного программирования (ООП) | false | true | false | |
6,771 | 2026-02-24T08:06:32.082000Z | 2026-02-24T08:06:32.082000Z | Lec. | Разработка программного кода проводилась в среде Google Colaboratory, которая представляет собой облачную инфраструктуру для разработки и выполнения Python-кода | false | true | false | |
6,770 | 2026-02-24T08:06:30.324000Z | 2026-02-24T08:06:30.324000Z | Lec. | Для реализации поставленной в предыдущей главе задачи по оптимизации инвестиционного портфеля на языке программирования Python версии 3.11.12 был реализован соответствующий функционал, описание и тестирование которого будет приведено в текущей главе | false | true | false | |
6,769 | 2026-02-24T08:06:27.494000Z | 2026-02-24T08:06:27.494000Z | Lec. | Рис. 3 Псевдокод алгоритма DDPG | false | true | false | |
6,768 | 2026-02-24T08:06:25.692000Z | 2026-02-24T08:06:25.692000Z | Lec. | При это соответствует прямому копированию | false | true | false | |
6,767 | 2026-02-24T08:06:24.202000Z | 2026-02-24T08:06:24.202000Z | Lec. | Функция потерь актора задают как:. в DDPG применяются таргетные сети критика и актора с параметрами и которые обновляются выполняется «мягко» [15] (soft update) по правилу:. ,. где (типично ) | false | true | false | |
6,766 | 2026-02-24T08:06:22.570000Z | 2026-02-24T08:06:22.570000Z | Lec. | Актор задает детерминированную политику , отображающую состояние в действие | false | true | false | |
6,765 | 2026-02-24T08:06:20.846000Z | 2026-02-24T08:06:20.846000Z | Lec. | Функцию потерь модели критика вводят как среднеквадратичную ошибку по мини-батчу N и минимизируют по параметрам :. (16). – текущая оценка критика. – целевое значение | false | true | false | |
6,764 | 2026-02-24T08:06:19.265000Z | 2026-02-24T08:06:19.265000Z | Lec. | Мини-батч в контексте алгоритма DDPG это подмножество из N случайно выбранных переходов, т. е. кортежей вида из буфера повторения опыта (replay buffer), где. — состояние в момент времени t,. — действие, выбранное агентом,. — награда, полученная после действия,. — следующее состояние | false | true | false | |
6,763 | 2026-02-24T08:06:17.232000Z | 2026-02-24T08:06:17.232000Z | Lec. | Целевое значение функции ценности действия определяется как:. (15). – параметры cетей таргет-критика и таргет-актора | false | true | false | |
6,762 | 2026-02-24T08:06:15.694000Z | 2026-02-24T08:06:15.694000Z | Lec. | В методе DDQG значение функции приближается таргет-сетями | false | true | false | |
6,761 | 2026-02-24T08:06:14.068000Z | 2026-02-24T08:06:14.068000Z | Lec. | Для модели критика в DDPG используется уравнение Беллмана для формирования детерминированной политики:. (14). — оценка ценности действия в состоянии ;. — вознаграждение, полученное на шаге ;. — коэффициент дисконтирования будущих наград;. — следующее состояние после выполнения действия;. — стратегия, определяющая следующее действие в состоянии ; | false | true | false | |
6,760 | 2026-02-24T08:06:11.984000Z | 2026-02-24T08:06:11.984000Z | Lec. | Общая цель агента аналогично разделу 2.2 максимизировать уравнение (4) | false | true | false | |
6,759 | 2026-02-24T08:06:10.261000Z | 2026-02-24T08:06:10.261000Z | Lec. | Это увеличивает sample efficiency (выборочную эффективность) по сравнению с on-policy методами | false | true | false | |
6,758 | 2026-02-24T08:06:08.528000Z | 2026-02-24T08:06:08.528000Z | Lec. | Отличие заключается в том, что рассматриваемый алгоритм использует off-policy обучение, что позволяет повторно использовать прошедший опыт, хранящийся в буфере обмена | false | true | false | |
6,757 | 2026-02-24T08:06:06.926000Z | 2026-02-24T08:06:06.926000Z | Lec. | Так же, как и алгоритм A2C, DDPG относится к классу “actor-critic” алгоритмов | false | true | false | |
6,756 | 2026-02-24T08:06:05.162000Z | 2026-02-24T08:06:05.162000Z | Lec. | Алгоритм DDPG (Deep Deterministic Policy Gradient) является model-free методом обучения с подкреплением, который рассчитан на задачи с непрерывном пространством действий [14] | false | true | false | |
6,755 | 2026-02-24T08:06:03.407000Z | 2026-02-24T08:06:03.407000Z | Lec. | Вместо одношаговой TD-ошибки в A2C часто используется шаговое приближение возврата:. (13) | false | true | false | |
6,754 | 2026-02-24T08:06:01.847000Z | 2026-02-24T08:06:01.847000Z | Lec. | Рис. 2 Псевдокод алгоритма A2C | false | true | false | |
6,753 | 2026-02-24T08:06:00.035000Z | 2026-02-24T08:06:00.035000Z | Lec. | Как результат алгоритм постепенно снижает (12), что эквивалентно росту целевой функции (4) | false | true | false | |
6,752 | 2026-02-24T08:05:57.969000Z | 2026-02-24T08:05:57.969000Z | Lec. | Параметры актора и критика обновляются совместно через суммарную функцию потерь для всей модели:. (12). – коэффициент, который определяет вклад “критика” в градиент обновления | false | true | false | |
6,751 | 2026-02-24T08:05:56.269000Z | 2026-02-24T08:05:56.269000Z | Lec. | Функция потерь критика задается как мат. ожидание квадрата TD-ошибки:. (11) | false | true | false | |
6,750 | 2026-02-24T08:05:54.470000Z | 2026-02-24T08:05:54.470000Z | Lec. | Стоит отметить, что для стабилизации обучения и улучшения исследования среды к функции потерь актора добавляется энтропийный регуляризатор:. (10) | false | true | false | |
6,749 | 2026-02-24T08:05:52.849000Z | 2026-02-24T08:05:52.849000Z | Lec. | Политик актора обучается не напрямую градиентном подъемом , а при помощи минимизации функции потерь:. (9) | false | true | false | |
6,748 | 2026-02-24T08:05:51.218000Z | 2026-02-24T08:05:51.218000Z | Lec. | Согласно теореме политики-градиента [13] градиент функции (4) можно выразить следующим образом:. (8) | false | true | false | |
6,747 | 2026-02-24T08:05:49.671000Z | 2026-02-24T08:05:49.671000Z | Lec. | Для максимизации величины (4) используются методы политики-градиента с корректировкой параметров политики в направлении увеличения | false | true | false | |
6,746 | 2026-02-24T08:05:48.104000Z | 2026-02-24T08:05:48.104000Z | Lec. | За счет этого обучение актора становится стабильнее и более эффективным | false | true | false | |
6,745 | 2026-02-24T08:05:46.384000Z | 2026-02-24T08:05:46.384000Z | Lec. | Таким образом, TD-ошибка является оценкой преимущества совершенного действия | false | true | false | |
6,744 | 2026-02-24T08:05:44.594000Z | 2026-02-24T08:05:44.594000Z | Lec. | Подставляя определение (6) в формулу (5), получим:. (7) | false | true | false | |
6,743 | 2026-02-24T08:05:42.972000Z | 2026-02-24T08:05:42.972000Z | Lec. | В алгоритме A2C не вычисляется непосредственно | false | true | false | |
6,742 | 2026-02-24T08:05:41.262000Z | 2026-02-24T08:05:41.262000Z | Lec. | Таким образом, показывает, насколько действие в состоянии лучше или хуже среднего поведения согласно политике. , то действие приносит больше награды, чем в среднем ожидается в состоянии. , то действие менее выгодно, чем усредненное поведение политики | false | true | false | |
6,741 | 2026-02-24T08:05:39.557000Z | 2026-02-24T08:05:39.557000Z | Lec. | В алгоритме A2C функция преимущества определяется как:. – функция ценности состояния (state-value), равная ожидаемому вознаграждению при начале в состоянии и дальнейшем следовании политике. – функция ценности действия (action-value), равная ожидаемому суммарному вознаграждению при нахождении в состоянии выполнении действия и последующем следовании политике :. (6), | false | true | false | |
6,740 | 2026-02-24T08:05:37.498000Z | 2026-02-24T08:05:37.498000Z | Lec. | Для каждого шага , TD-ошибка определяется как:. – состояние в момент времени t,. – выбранное действие,. – вознаграждение, полученное при переходе в новое состояние ,. – оценка ценности состояния (state-value), выдаваемая критиком с параметрами ,. – коэффициент дисконтирования | false | true | false | |
6,739 | 2026-02-24T08:05:35.800000Z | 2026-02-24T08:05:35.800000Z | Lec. | Для обучения модели критика применяется метод временных разностей (temporal difference, TD) | false | true | false | |
6,738 | 2026-02-24T08:05:34.178000Z | 2026-02-24T08:05:34.178000Z | Lec. | Рис. 1 Классификация алгоритмов A2C и DDPG | false | true | false | |
6,737 | 2026-02-24T08:05:32.384000Z | 2026-02-24T08:05:32.384000Z | Lec. | В обновлении актора используется оценка функции преимущества (Advantage Function), которая показывает, насколько полученная награда превышает среднее ожидаемое значение | false | true | false | |
6,736 | 2026-02-24T08:05:30.692000Z | 2026-02-24T08:05:30.692000Z | Lec. | Алгоритм A2C (Advantage Actor-Critic) основан на архитектуре “актор-критик” и включает два компонента: актор – модель, которая определяет политику и на основе состояния среды выбирает действие; критик –модель, которая приближенно оценивает ценностную функцию (Value Function) и оценивает качество действий [12] | false | true | false | |
6,735 | 2026-02-24T08:05:28.886000Z | 2026-02-24T08:05:28.886000Z | Lec. | Таким образом, называется ожидаемым совокупным вознаграждением (expected return) при следовании политике с параметрами | false | true | false | |
6,734 | 2026-02-24T08:05:27.240000Z | 2026-02-24T08:05:27.240000Z | Lec. | Предел суммирования T может обозначать либо время окончания эпизода, либо стремиться к бесконечности в случае непрерывного взаимодействия (при бесконечная сумма сходится) [9] | false | true | false | |
6,733 | 2026-02-24T08:05:25.586000Z | 2026-02-24T08:05:25.586000Z | Lec. | Формально цель агента определяется как максимизация величины:. (4). где случайная величина – награда, полученная на шаге , мат. ожидание рассчитывается с учётом случайного характера среды, а при использовании стохастической модели, с учётом вероятностного выбора действий самим агентом | false | true | false | |
6,732 | 2026-02-24T08:05:23.221000Z | 2026-02-24T08:05:23.221000Z | Lec. | Для политики (стратегии) агента , параметризованной , обычно вводится функция качества политики – математическое ожидание дисконтированной суммы вознаграждений, полученных агентом с течением времени [9] | false | true | false | |
6,731 | 2026-02-24T08:05:21.658000Z | 2026-02-24T08:05:21.658000Z | Lec. | Агент, действующий в среде MDP, стремится максимизировать кумулятивное (суммарное) вознаграждение при взаимодействии со средой | false | true | false | |
6,730 | 2026-02-24T08:05:19.665000Z | 2026-02-24T08:05:19.665000Z | Lec. | Граничные случаи: означает, что агент оценивает только непосредственную награду, делает агента, который учитывает долгосрочные последствия | false | true | false | |
6,729 | 2026-02-24T08:05:17.963000Z | 2026-02-24T08:05:17.963000Z | Lec. | Если < 1, награды на n шагов в будущем дисконтируются как и тем самым отдалённые во времени результаты учитываются слабее ближайших [9] | false | true | false | |
6,728 | 2026-02-24T08:05:16.351000Z | 2026-02-24T08:05:16.351000Z | Lec. | Определяет, насколько агент учитывает будущие награды при принятии решений | false | true | false | |
6,727 | 2026-02-24T08:05:14.807000Z | 2026-02-24T08:05:14.807000Z | Lec. | Таким образом, функция моделирует как внешние рыночные изменения, так и обновление долей портфеля под действием агента. – коэффициент дисконтирования 0 1 | false | false | false | |
6,726 | 2026-02-24T08:05:13.036000Z | 2026-02-24T08:05:13.036000Z | Lec. | Состояние включает также внутренние переменные (структуру портфеля), которые прямо определяются действием | false | true | false | |
6,725 | 2026-02-24T08:05:11.512000Z | 2026-02-24T08:05:11.512000Z | Lec. | В текущей работе предполагается, что динамика цен стохастическая и не зависит от действий агента, в предположении того, что объём торгов агента мал | false | true | false | |
6,724 | 2026-02-24T08:05:09.810000Z | 2026-02-24T08:05:09.810000Z | Lec. | Распределение вероятностей – вероятность перехода в состояние при выполнении действия из состояния Эта функция показывает изменение цен на рынке: например, как изменятся котировки и состояние портфеля к следующему шагу после принятия решения | false | true | false | |
6,723 | 2026-02-24T08:05:07.846000Z | 2026-02-24T08:05:07.846000Z | Lec. | В простейшем случае можно определить – разницу стоимости портфеля до и после совершения действия. – функция, задающая динамику среды | false | true | false | |
6,722 | 2026-02-24T08:05:06.287000Z | 2026-02-24T08:05:06.287000Z | Lec. | Часто используют относительный прирост капитала (доходность за период) или его логарифм | false | true | false | |
6,721 | 2026-02-24T08:05:04.690000Z | 2026-02-24T08:05:04.690000Z | Lec. | Цель агента – максимизировать суммарно полученную награду | false | true | false | |
6,720 | 2026-02-24T08:05:03.181000Z | 2026-02-24T08:05:03.181000Z | Lec. | Вознаграждение – это численный ответ от среды агенту после совершения действия | false | true | false | |
6,719 | 2026-02-24T08:05:01.244000Z | 2026-02-24T08:05:01.244000Z | Lec. | В контексте портфеля действие соответствует ребалансировке портфеля на шаге. – функция вознаграждения | false | true | false | |
6,718 | 2026-02-24T08:04:59.683000Z | 2026-02-24T08:04:59.683000Z | Lec. | Элемент – решение агента в состоянии | false | true | false | |
6,717 | 2026-02-24T08:04:57.807000Z | 2026-02-24T08:04:57.807000Z | Lec. | В задачах инвестирования состояние обычно включает признаки рынка (финансовые индикаторы, цены акций за последние дни и т.д.) и распределение капитала между активами на шаге. – множество действий | false | true | false | |
6,716 | 2026-02-24T08:04:55.951000Z | 2026-02-24T08:04:55.951000Z | Lec. | Элемент описывает информацию о системе в текущий момент времени (например, состояние рыночной среды и портфеля) | false | true | false | |
6,715 | 2026-02-24T08:04:54.160000Z | 2026-02-24T08:04:54.160000Z | Lec. | Формальным языком MDP для оптимизации портфеля можно определить как кортеж , где:. – множество состояний | false | true | false | |
6,714 | 2026-02-24T08:04:52.387000Z | 2026-02-24T08:04:52.387000Z | Lec. | Таким образом, полностью описывает динамику без учёта предшествующих состояний | false | true | false | |
6,713 | 2026-02-24T08:04:50.703000Z | 2026-02-24T08:04:50.703000Z | Lec. | Это подразумевает вся необходимая информацию о прошлых взаимодействиях уже учтена состояние , и не нужна информация о предыдущих шагах при известном текущем состоянии [10] | false | true | false | |
6,712 | 2026-02-24T08:04:49.047000Z | 2026-02-24T08:04:49.047000Z | Lec. | Процесс называется марковским, если вероятность перехода в новое состояние зависит только от выбранного действия и текущего состояния [10]:. (3) | false | true | false | |
6,711 | 2026-02-24T08:04:47.560000Z | 2026-02-24T08:04:47.560000Z | Lec. | Агент (в данном случае трейдинговый алгоритм) последовательно шаг за шагом принимает решения по ребалансировке портфеля, наблюдая состояние рынка и получая вознаграждение за увеличение капитала | false | true | false | |
6,710 | 2026-02-24T08:04:45.789000Z | 2026-02-24T08:04:45.789000Z | Lec. | Задача управления портфелем при использовании алгоритмов глубокого машинного обучения с подкреплением может быть сформулирована как марковский процесс принятия решений (Markov Decision Process, MDP) | false | true | false | |
6,709 | 2026-02-24T08:04:43.970000Z | 2026-02-24T08:04:43.970000Z | Lec. | Как итог, можно сделать, вывод, что методы глубокого машинного обучения с подкреплением в ряде исследований обходят классические стратегии по основным метрикам, однако их эффективность существенно зависит от настройки алгоритмов | false | true | false | |
6,708 | 2026-02-24T08:04:42.184000Z | 2026-02-24T08:04:42.184000Z | Lec. | PPO, наоборот, в отличие от DDPG, оказался наименее эффективным без добавления скрытых слоев, а эффективность TD3 увеличивалась по мере увеличения скрытых слоев | false | true | false |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.