id
int64
18
21.1k
created_at
timestamp[ns, tz=UTC]date
2026-02-23 07:30:20
2026-02-24 16:54:39
updated_at
timestamp[ns, tz=UTC]date
2026-02-23 08:08:14
2026-02-24 16:54:39
doc_name
stringclasses
1 value
input
stringlengths
11
9.24k
output
stringlengths
0
738
is_personal
bool
2 classes
is_sentence
bool
2 classes
is_corrected
bool
2 classes
6,707
2026-02-24T08:04:40.386000Z
2026-02-24T08:04:40.386000Z
Lec.
Алгоритм DDPG показывал наибольший коэффициент Шарпа на базовой модификации, без добавления скрытых слоев
false
true
false
6,706
2026-02-24T08:04:38.628000Z
2026-02-24T08:04:38.628000Z
Lec.
Было установлено, что алгоритм A2C без добавления скрытых слоев имеет наибольшую накопленную доходность, а при добавлении слоев в работе агента улучшается управление риском (увеличение коэффициента Шарпа)
false
true
false
6,705
2026-02-24T08:04:37.059000Z
2026-02-24T08:04:37.059000Z
Lec.
Портфель в исследовании составлялся из 45 индонезийских акций
false
true
false
6,704
2026-02-24T08:04:35.308000Z
2026-02-24T08:04:35.308000Z
Lec.
В одном из самых свежих исследований [18] был проведен сравнительный анализ четырех алгоритмов RL (A2C, DDPG, PPO, TD3) c разным количеством скрытых слоев в нейросетях
false
true
false
6,703
2026-02-24T08:04:33.545000Z
2026-02-24T08:04:33.545000Z
Lec.
Работа агента была сравнена с классическим подходом MVO и по двум критериям (Sharp Ratio, накопленная доходность) агент RL оказался более эффективен
false
true
false
6,702
2026-02-24T08:04:31.765000Z
2026-02-24T08:04:31.765000Z
Lec.
В статье [17] был использован алгоритм DDPG в задаче торговли акциями
false
false
false
6,701
2026-02-24T08:04:29.366000Z
2026-02-24T08:04:29.366000Z
Lec.
Другие исследования подтверждают эффективность RL методов
false
true
false
6,700
2026-02-24T08:04:27.602000Z
2026-02-24T08:04:27.602000Z
Lec.
Это система была апробирована на криптовалютном рынке и в течение пятидесятидневного периода при комиссионной ставке 0.25% произошел четырехкратный рост капитала
false
true
false
6,699
2026-02-24T08:04:25.825000Z
2026-02-24T08:04:25.825000Z
Lec.
В исследовании [16] была представлена модель RL, основанную на ансамбле разных архитектур (CNN, RNN, LSTM)
false
true
false
6,698
2026-02-24T08:04:24.076000Z
2026-02-24T08:04:24.076000Z
Lec.
Глубокие нейронные сети и методы обучения с подкреплением становятся основой для адаптивных инвестиционных стратегий, способных учитывать сложную информацию касательно рынка
false
true
false
6,697
2026-02-24T08:04:22.315000Z
2026-02-24T08:04:22.315000Z
Lec.
Model-free алгоритмы учатся напрямую через процесс проб и ошибок, оценивая только ценности состояний и действий по полученным наградам
false
true
false
6,696
2026-02-24T08:04:20.766000Z
2026-02-24T08:04:20.766000Z
Lec.
Имея такую модель, агент может просчитывать шаги наперед, прогнозируя результаты своих действий
false
true
false
6,695
2026-02-24T08:04:19.020000Z
2026-02-24T08:04:19.020000Z
Lec.
Model-based методы предполагают, что агент строит модель среды
false
true
false
6,694
2026-02-24T08:04:17.448000Z
2026-02-24T08:04:17.448000Z
Lec.
Есть еще одна классификация алгоритмов глубокого обучения с подкреплением на два типа: model-based и model-free [11]
false
true
false
6,693
2026-02-24T08:04:15.698000Z
2026-02-24T08:04:15.698000Z
Lec.
Оn-policy методы улучшают ту политику, которой придерживается агент, тогда как в off-policy алгоритмах предполагается обучение таким образом, что оценка и улучшение могут относиться к иной политике, а не к той, которая собирает данные
false
true
false
6,692
2026-02-24T08:04:13.808000Z
2026-02-24T08:04:13.808000Z
Lec.
В свою очередь, off-policy алгоритмы обучаются на данных, которые были собранны другой поведенческой политикой [11]
false
true
false
6,691
2026-02-24T08:04:12.062000Z
2026-02-24T08:04:12.062000Z
Lec.
Другими словами обновление стратегии происходит на основе действий, совершаемых текущей политикой агента
false
true
false
6,690
2026-02-24T08:04:10.411000Z
2026-02-24T08:04:10.411000Z
Lec.
Считается, что алгоритм относится к типу on-policy, если он оценивает и улучшает ту же самую политику, которой следует
false
true
false
6,689
2026-02-24T08:04:08.804000Z
2026-02-24T08:04:08.804000Z
Lec.
Алгоритмы глубокого обучения с подкреплением (Reinforcement Learning, RL) можно разделить на два типа: on-policy и off-policy [11]
false
true
false
6,688
2026-02-24T08:04:06.984000Z
2026-02-24T08:04:06.984000Z
Lec.
Как итог, можно сделать вывод, что современные методы портфельной оптимизации сочетают в себе строгий математический аппарат, гибкость и высокую адаптивность к индивидуальным запросам инвесторов
false
true
false
6,687
2026-02-24T08:04:05.199000Z
2026-02-24T08:04:05.199000Z
Lec.
А прогнозирование параметров с помощью моделей ARIMA-GARCH и алгоритмов машинного обучения позволило улучшить точность оценки входных данных
false
true
false
6,686
2026-02-24T08:04:03.428000Z
2026-02-24T08:04:03.428000Z
Lec.
Модификации постановок задач, такие как включение целевой доходности или ограничения на состав портфеля, сделали модели более похожими на реальные условия рынка
false
true
false
6,685
2026-02-24T08:04:01.671000Z
2026-02-24T08:04:01.671000Z
Lec.
Применение коэффициента Шарпа и других относительных показателей эффективности улучшило способность оценивать риск при составлении инвестиционного портфеля
false
true
false
6,684
2026-02-24T08:03:59.913000Z
2026-02-24T08:03:59.913000Z
Lec.
Классическая модель Марковица была дополнена альтернативными метриками риска (VaR, CvaR, Max Drawdown), что позволило точнее учитывать неблагоприятные условия рынка
false
true
false
6,683
2026-02-24T08:03:58.147000Z
2026-02-24T08:03:58.147000Z
Lec.
Таким образом, методы оптимизации портфеля продолжают совершенствоваться, охватывая все больше подходов
false
true
false
6,682
2026-02-24T08:03:56.414000Z
2026-02-24T08:03:56.414000Z
Lec.
В систематическом обзоре литературы [8] отмечается, что при корректном и грамотном применении методы машинного обучения дают значительное преимущество: в рассмотренных исследованиях применение моделей прогнозирования на основе глубокого обучения повышало ожидаемую доходность портфеля и увеличивало диверсификацию в сравнении с традиционными подходами
false
true
false
6,681
2026-02-24T08:03:54.605000Z
2026-02-24T08:03:54.605000Z
Lec.
Стандартные эконометрические модели (ARIMA, GARCH) были дополнены методами машинного обучения: алгоритмы регрессии, случайный лес, градиентный бустинг
false
true
false
6,680
2026-02-24T08:03:52.962000Z
2026-02-24T08:03:52.962000Z
Lec.
Были улучшены средства прогнозирования входных параметров – ожидаемых доходностей, ковариации
false
false
false
6,679
2026-02-24T08:03:51.201000Z
2026-02-24T08:03:51.201000Z
Lec.
Data Science) оказало значительное влияние на развитие методов задачи оптимизации портфеля
false
true
false
6,678
2026-02-24T08:03:49.271000Z
2026-02-24T08:03:49.271000Z
Lec.
Стремительное развитие анализа данных (англ
false
true
false
6,677
2026-02-24T08:03:47.480000Z
2026-02-24T08:03:47.480000Z
Lec.
Рассмотренный подход показал себя как практичный, так как он позволил агенту собрать сбалансированный портфель, который согласуется с персональными финансовыми целями (задаваемый уровень доходности) при контроле уровня риска
false
true
false
6,676
2026-02-24T08:03:45.725000Z
2026-02-24T08:03:45.725000Z
Lec.
Прогнозирование средней доходности и волатильности каждого актива происходит на основе комбинации моделей ARIMA-GARCH, а после решается оптимизационная задача максимизации доходности при ограничениях VaR и заданного порога ожидаемой доходности
false
true
false
6,675
2026-02-24T08:03:44.074000Z
2026-02-24T08:03:44.074000Z
Lec.
В рассматриваемом исследовании в классическую Mean-VaR модель введено ограничение на целевую доходность портфеля
false
true
false
6,674
2026-02-24T08:03:42.316000Z
2026-02-24T08:03:42.316000Z
Lec.
Примером исследования, где классическая постановка задачи была скорректирована для цели исследования является работа [7]
false
true
false
6,673
2026-02-24T08:03:40.602000Z
2026-02-24T08:03:40.602000Z
Lec.
На практике в прикладных задачах оптимизации портфеля нередко задаются дополнительные задачи: обеспечение определенного уровня дохода (aнгл. target return), соблюдение точечных правил (как правило ограничения на концентрацию какого-либо актива в портфеле), учет налоговых издержек
false
true
false
6,672
2026-02-24T08:03:38.797000Z
2026-02-24T08:03:38.797000Z
Lec.
Авторы исследования делают вывод, что в периоды высокой рыночной волатильности стратегия управления портфеля, опирающаяся на использование подхода минимизации максимальной просадки, несет меньшие убытки по сравнению с традиционными подходами, основанными только на волатильности или дисперсии
false
true
false
6,671
2026-02-24T08:03:37.013000Z
2026-02-24T08:03:37.013000Z
Lec.
В исследовании [6] было установлено, что оптимизация портфеля с использованием максимальной просадки как основной целевой функции позволяет снизить риски в периоды повышенной нестабильности рынка
false
true
false
6,670
2026-02-24T08:03:35.228000Z
2026-02-24T08:03:35.228000Z
Lec.
Другой важной метрикой для оценки риска инвестиционного портфеля является максимальная просадка (2) (Max Drawdown), которая отражает наибольшее снижение стоимости актива или портфеля начиная от момента предыдущего максимума до наименьшей точки в рассматриваемом периоде. (2). – стоимость портфеля в момент времени t. – продолжительность всего рассматриваемого периода. – момент времени до текущего момента t, в котором достигнут предыдущий пик стоимости портфеля
false
true
false
6,669
2026-02-24T08:03:33.576000Z
2026-02-24T08:03:33.576000Z
Lec.
В 1960-х годах Шарп представил модель ценообразования капитальных активов [5] (Capital Asset Pricing Model, CAMP) и ввел так называемый коэффициента Шарпа (1), который впоследствии был признан научным сообществом простым, но ценным инструментом для оценки эффективности портфеля с учетом корректировки на риск:. (1). – ожидаемая доходность портфеля. – безрисковая доходная ставка. – стандартное отклонение доходности портфеля
false
true
false
6,668
2026-02-24T08:03:31.652000Z
2026-02-24T08:03:31.652000Z
Lec.
Преимущество такого подхода оказалось не только в получении более стабильных результатов (т.е более консервативных портфелей), но и в возможности применения к широкому классу распределения доходностей
false
true
false
6,667
2026-02-24T08:03:29.952000Z
2026-02-24T08:03:29.952000Z
Lec.
Так, например, в исследовании [4] Рокафеллар и Урысев решили сформулировать задачу по оптимизации портфеля как задачу минимизации CvaR
false
true
false
6,666
2026-02-24T08:03:28.196000Z
2026-02-24T08:03:28.196000Z
Lec.
Величина CvaR характеризует средний убыток при превышении заданного порога потерь (VaR) на заданном уровне доверия
false
true
false
6,665
2026-02-24T08:03:26.575000Z
2026-02-24T08:03:26.575000Z
Lec.
Были разработаны критерии Value at Risk (VaR) и Conditional Value at Risk (CVaR), фокус которых держится на крайне неблагоприятных исходах
false
true
false
6,664
2026-02-24T08:03:24.800000Z
2026-02-24T08:03:24.800000Z
Lec.
В текущем разделе будут рассмотрены основные направления развития теории портфельного управления
false
true
false
6,663
2026-02-24T08:03:23.257000Z
2026-02-24T08:03:23.257000Z
Lec.
Было предложено немало методов, как расширяющих модель MVO, так и предлагающих альтернативу, c целью устранения накладываемых ограничений и повышения эффективности стратегий управления инвестиционными портфелями
false
true
false
6,662
2026-02-24T08:03:21.489000Z
2026-02-24T08:03:21.489000Z
Lec.
Как результат распределение капитала получается более диверсифицированным и устойчивым к ошибкам
false
true
false
6,661
2026-02-24T08:03:19.945000Z
2026-02-24T08:03:19.945000Z
Lec.
Субъективные оценки инвесторов в модели позволили получить более устойчивые оценки ожидаемой доходности активов
false
true
false
6,660
2026-02-24T08:03:18.201000Z
2026-02-24T08:03:18.201000Z
Lec.
Значительный прогресс в улучшении модели MVO произошел в модели Блэка-Литтермана посредством учета мнений инвесторов о будущем рынке [3]
false
true
false
6,659
2026-02-24T08:03:16.459000Z
2026-02-24T08:03:16.459000Z
Lec.
Такой подход, именуемый Asset Allocation, позволяет снизить размерность задачи и в свою очередь влияние ошибок оценки, так как количество оцениваемых параметров (ожидаемых доходностей и ковариаций) значительно меньше при агрегировании активов по классам
false
true
false
6,658
2026-02-24T08:03:14.825000Z
2026-02-24T08:03:14.825000Z
Lec.
На практике этот метод часто применяется на уровне классов активов, а не отдельно взятых ценных бумаг [2]
false
true
false
6,657
2026-02-24T08:03:13.267000Z
2026-02-24T08:03:13.267000Z
Lec.
Несмотря на указанные выше ограничения, подход MVO до сих пор является основой для большинства систем управления инвестициями
false
true
false
6,656
2026-02-24T08:03:11.702000Z
2026-02-24T08:03:11.702000Z
Lec.
Во-вторых, в базовой постановке задачи Марковиц не учитывает многие прикладные аспекты, такие как транзакционные издержки, налоги, ограничение на состав портфеля и др
false
true
false
6,655
2026-02-24T08:03:10.109000Z
2026-02-24T08:03:10.109000Z
Lec.
Во-первых, в классической модели Марковица предполагается, что доходности распределены по нормальному закону, а корреляция между активами постоянна во времени, что зачастую не выполняется на практике
false
true
false
6,654
2026-02-24T08:03:08.508000Z
2026-02-24T08:03:08.508000Z
Lec.
На практике при использовании MVO могут возникнуть сложности
false
true
false
6,653
2026-02-24T08:03:06.963000Z
2026-02-24T08:03:06.963000Z
Lec.
Эта модель стала основой для многих дальнейших исследований
false
true
false
6,652
2026-02-24T08:03:05.236000Z
2026-02-24T08:03:05.236000Z
Lec.
В модели MVO подразумевается, что инвестор рационален и старается получить максимальную ожидаемую доходность при фиксированном, заданном уровне риска посредством перераспределения долей капитала между активами
false
true
false
6,651
2026-02-24T08:03:03.578000Z
2026-02-24T08:03:03.578000Z
Lec.
Марковиц заложил основы современной портфельной теории, представив модель оптимизации среднего отклонения (Mean Variance Optimization, MVO), в которой реализуется оптимизация соотношения доходности и риска при помощи задания оптимальных весов активов [1]
false
true
false
6,650
2026-02-24T08:03:01.824000Z
2026-02-24T08:03:01.824000Z
Lec.
Еще в середине двадцатого века, в 1952 году Г
true
true
false
6,649
2026-02-24T08:03:00.337000Z
2026-02-24T08:03:00.337000Z
Lec.
Одной из основных задач финансового управления всегда считалась задача оптимизации инвестиционного портфеля
false
true
false
6,648
2026-02-24T08:02:58.604000Z
2026-02-24T08:02:58.604000Z
Lec.
В работе содержится п страниц, 7 рисунков, 6 таблиц и 6 приложений
false
true
false
6,647
2026-02-24T08:02:56.995000Z
2026-02-24T08:02:56.995000Z
Lec.
Произведен анализ ключевых метрик
false
true
false
6,646
2026-02-24T08:02:55.150000Z
2026-02-24T08:02:55.150000Z
Lec.
В заключительной главе представлены результаты обучения и бэкстестинга моделей A2C и DDPG
false
true
false
6,645
2026-02-24T08:02:53.441000Z
2026-02-24T08:02:53.441000Z
Lec.
Указаны особенности сбора и обработки данных, методы извлечения признаков
false
true
false
6,644
2026-02-24T08:02:51.508000Z
2026-02-24T08:02:51.508000Z
Lec.
Описана техническая реализация симулятора среды разработанного класса
false
true
false
6,643
2026-02-24T08:02:49.694000Z
2026-02-24T08:02:49.694000Z
Lec.
Во второй главе задача оптимизации инвестиционного портфеля формализуется как задача марковского процесса принятия решений
false
true
false
6,642
2026-02-24T08:02:47.935000Z
2026-02-24T08:02:47.935000Z
Lec.
Отдельный раздел посвящен архитектуре алгоритмов A2C и DDPG
false
true
false
6,641
2026-02-24T08:02:46.340000Z
2026-02-24T08:02:46.340000Z
Lec.
В перовой главе представлен обзор классических и современных подходов к задаче оптимизации портфеля, включая модель Марковица, критерии Var и CvaR, коэффициент Шарпа, а также методы глубокого обучения с подкреплением
false
true
false
6,640
2026-02-24T08:02:44.489000Z
2026-02-24T08:02:44.489000Z
Lec.
Дипломная работа включает введение, три главы, заключение список литературы и приложения
false
true
false
6,639
2026-02-24T08:02:42.502000Z
2026-02-24T08:02:42.502000Z
Lec.
Основные задачи дипломной работы:
false
true
false
6,638
2026-02-24T08:02:40.273000Z
2026-02-24T08:02:40.273000Z
Lec.
Алгоритмы обучения с подкреплением способны быть адаптивными как на рынке акций, так и на криптовалютном рынке
false
true
false
6,637
2026-02-24T08:02:38.521000Z
2026-02-24T08:02:38.521000Z
Lec.
Алгоритмы обучения с подкреплением способны формировать эффективные инвестиционные стратегии
false
true
false
6,636
2026-02-24T08:02:36.772000Z
2026-02-24T08:02:36.772000Z
Lec.
Выдвигается несколько гипотез:
false
true
false
6,635
2026-02-24T08:02:34.809000Z
2026-02-24T08:02:34.809000Z
Lec.
Цель работы – поиск и реализация оптимального алгоритма глубокого машинного обучения с подкреплением для задачи оптимизации инвестиционного портфеля, а также оценка эффективности разработанных стратегий на рынках акций и криптовалют
false
true
false
6,634
2026-02-24T08:02:33.035000Z
2026-02-24T08:02:33.035000Z
Lec.
Предмет исследования – алгоритмы глубокого обучения с подкреплением, применяемые для формирования и оптимизации инвестиционного портфеля на основе рыночных данных
false
true
false
6,633
2026-02-24T08:02:31.272000Z
2026-02-24T08:02:31.272000Z
Lec.
Объект исследования – процессы принятия решений по управлению инвестиционным портфелем в условиях нестабильной рыночной среды
false
true
false
6,632
2026-02-24T08:02:29.527000Z
2026-02-24T08:02:29.527000Z
Lec.
В связи с этим особый интерес представляют методы глубокого обучения с подкреплением (Deep Reinforcement Learning), которые предоставляют возможность динамического управления портфелем с учетом сложных нелинейных зависимостей со способностью к обучению на основе взаимодействия со средой
false
true
false
6,631
2026-02-24T08:02:27.732000Z
2026-02-24T08:02:27.732000Z
Lec.
Сложные макроэкономические события последних лет – пандемия COVID-19, периоды высокой инфляции и нестабильность криптовалютного рынка требуют от инвестиционных стратегий адаптивности и способности быстро подстраиваться под изменения рыночных условий
false
true
false
6,630
2026-02-24T08:02:25.759000Z
2026-02-24T08:02:25.759000Z
Lec.
Классические методы портфельной оптимизации, которые основываются на предположениях нормальности распределения доходностей или на стационарности процессов, зачастую оказываются недостаточно гибкими и не очень успешно справляются с моделированием нестабильной рыночной среды
false
true
false
6,629
2026-02-24T08:02:24.101000Z
2026-02-24T08:02:24.101000Z
Lec.
В условиях стремительного развития цифровых активов и растущей популярности индивидуального инвестирования задача по формированию оптимального инвестиционного портфеля становится особенно актуальной
false
true
false
6,628
2026-02-24T08:02:22.339000Z
2026-02-24T08:02:22.339000Z
Lec.
ПРИЛОЖЕНИЯ 43
false
false
false
6,627
2026-02-24T08:02:20.837000Z
2026-02-24T08:02:20.837000Z
Lec.
СПИСОК ЛИТЕРАТУРЫ 40
false
false
false
6,626
2026-02-24T08:02:19.107000Z
2026-02-24T08:02:19.107000Z
Lec.
Практическая реализация методов обучения агентов методами глубокого машинного обучения для формирования оптимального инвестиционного портфеля 31. 3.1 Выбор данных и описание задачи агента 31. 3.2 Метрики качества работы моделей 34. 3.3 Анализ эффективности выбранных методов глубокого машинного обучения в задаче оптимизации инвестиционного портфеля 36
false
false
false
6,625
2026-02-24T08:02:17.177000Z
2026-02-24T08:02:17.177000Z
Lec.
Функционал для первичной обработки данных и их последующего обогащения 27. 2.5.2 Среда для имитации условий рынка 29
false
false
false
6,624
2026-02-24T08:02:15.143000Z
2026-02-24T08:02:15.143000Z
Lec.
Методы 16. 2.1 Формализация задачи оптимизации инвестиционного портфеля как марковского процесса принятия решений в контексте применения алгоритмов глубокого машинного обучения с подкреплением 16. 2.2 Критерий оптимальности 18. 2.3 Алгоритм A2C 19. 2.4 Алгоритм DDPG 23. 2.5 Описание программных методов реализованных для обучения агентов 26. 2.5.1 Набор данных
false
false
false
6,623
2026-02-24T08:02:13.188000Z
2026-02-24T08:02:13.188000Z
Lec.
Литературный обзор 9. 1.1 Классические подходы оптимизации инвестиционного портфеля 9. 1.2 Эволюция методов портфельной оптимизации: от MVO к CVaR и машинному обучению 11. 1.3 Алгоритмы глубокого обучения с подкреплением для оптимизации инвестиционного портфеля 14. 1.3.1 Классификация алгоритмов глубокого обучения с подкреплением 14. 1.3.2 Последние исследования с применением алгоритмов глубокого обучения в задаче формирования оптимального портфеля 15
false
false
false
6,622
2026-02-24T08:02:11.082000Z
2026-02-24T08:02:11.082000Z
Lec.
The findings show the potential of reinforcement learning as a helpful tool for portfolio management
false
true
false
6,621
2026-02-24T08:02:09.355000Z
2026-02-24T08:02:09.355000Z
Lec.
The findings highlight key differences in performance of selected models considering different market conditions: stocks and cryptocurrency
false
true
false
6,620
2026-02-24T08:02:07.504000Z
2026-02-24T08:02:07.504000Z
Lec.
Two reinforcement learning algorithms-A2C and DDPG- were selected for a comparison as these algorithms reflect different approaches to learning strategies
false
true
false
6,619
2026-02-24T08:02:05.732000Z
2026-02-24T08:02:05.732000Z
Lec.
The study includes a review of traditional and modern portfolio methods
false
true
false
6,618
2026-02-24T08:02:04.014000Z
2026-02-24T08:02:04.014000Z
Lec.
This research paper explores the application of deep reinforcement learning algorithms for investment portfolio optimization in a high volatile market
false
true
false
6,617
2026-02-24T08:02:02.269000Z
2026-02-24T08:02:02.269000Z
Lec.
Результаты исследования дают позитивную оценку для использования методов машинного обучения с подкреплением в задачах построения инвестиционных стратегий
false
true
false
6,616
2026-02-24T08:02:00.503000Z
2026-02-24T08:02:00.503000Z
Lec.
Сравнительный анализ моделей показал различия в качестве принимаемых алгоритмом решений
false
true
false
6,615
2026-02-24T08:01:58.763000Z
2026-02-24T08:01:58.763000Z
Lec.
В качестве основных алгоритмов были выбраны алгоритмы A2C и DDPG, отражающие два разных подхода к обучению с подкреплением
false
true
false
6,614
2026-02-24T08:01:56.988000Z
2026-02-24T08:01:56.988000Z
Lec.
В рамках исследования проведен обзор существующих подходов к управлению капиталом, разработана программная среда для обучения агентов на основе двух типов рыночных данных: ценные бумаги и криптовалюта
false
true
false
6,613
2026-02-24T08:01:55.213000Z
2026-02-24T08:01:55.213000Z
Lec.
Дипломная работа посвящена исследованию возможности применения алгоритмов глубокого машинного обучения с подкреплением для задачи оптимизации инвестиционного портфеля в условиях нестабильной рыночной среды
false
true
false
6,612
2026-02-24T08:01:53.444000Z
2026-02-24T08:01:53.444000Z
Lec.
Задание принято к исполнению студентом. «11» ноября 2024 г. ______________ Н.В.Сизых
true
true
false
6,611
2026-02-24T08:01:51.783000Z
2026-02-24T08:01:51.783000Z
Lec.
Задание выдано студенту. «11» ноября 2024 г. ______________ Н.В.Сизых
true
true
false
6,610
2026-02-24T08:01:50.066000Z
2026-02-24T08:01:50.066000Z
Lec.
Научный руководитель ВКР. «29» апреля 2025г. ______________ Н.В.Сизых
true
true
false
6,609
2026-02-24T08:01:48.446000Z
2026-02-24T08:01:48.446000Z
Lec.
Итоговый вариант ВКР предоставлен студентом в срок до «30» апреля 2025г
false
true
false
6,608
2026-02-24T08:01:46.615000Z
2026-02-24T08:01:46.615000Z
Lec.
Научный руководитель ВКР. «22» апреля 2025г. ______________ Н.В.Сизых
true
true
false