id int64 18 21.1k | created_at timestamp[ns, tz=UTC]date 2026-02-23 07:30:20 2026-02-24 16:54:39 | updated_at timestamp[ns, tz=UTC]date 2026-02-23 08:08:14 2026-02-24 16:54:39 | doc_name stringclasses 1
value | input stringlengths 11 9.24k | output stringlengths 0 738 | is_personal bool 2
classes | is_sentence bool 2
classes | is_corrected bool 2
classes |
|---|---|---|---|---|---|---|---|---|
6,707 | 2026-02-24T08:04:40.386000Z | 2026-02-24T08:04:40.386000Z | Lec. | Алгоритм DDPG показывал наибольший коэффициент Шарпа на базовой модификации, без добавления скрытых слоев | false | true | false | |
6,706 | 2026-02-24T08:04:38.628000Z | 2026-02-24T08:04:38.628000Z | Lec. | Было установлено, что алгоритм A2C без добавления скрытых слоев имеет наибольшую накопленную доходность, а при добавлении слоев в работе агента улучшается управление риском (увеличение коэффициента Шарпа) | false | true | false | |
6,705 | 2026-02-24T08:04:37.059000Z | 2026-02-24T08:04:37.059000Z | Lec. | Портфель в исследовании составлялся из 45 индонезийских акций | false | true | false | |
6,704 | 2026-02-24T08:04:35.308000Z | 2026-02-24T08:04:35.308000Z | Lec. | В одном из самых свежих исследований [18] был проведен сравнительный анализ четырех алгоритмов RL (A2C, DDPG, PPO, TD3) c разным количеством скрытых слоев в нейросетях | false | true | false | |
6,703 | 2026-02-24T08:04:33.545000Z | 2026-02-24T08:04:33.545000Z | Lec. | Работа агента была сравнена с классическим подходом MVO и по двум критериям (Sharp Ratio, накопленная доходность) агент RL оказался более эффективен | false | true | false | |
6,702 | 2026-02-24T08:04:31.765000Z | 2026-02-24T08:04:31.765000Z | Lec. | В статье [17] был использован алгоритм DDPG в задаче торговли акциями | false | false | false | |
6,701 | 2026-02-24T08:04:29.366000Z | 2026-02-24T08:04:29.366000Z | Lec. | Другие исследования подтверждают эффективность RL методов | false | true | false | |
6,700 | 2026-02-24T08:04:27.602000Z | 2026-02-24T08:04:27.602000Z | Lec. | Это система была апробирована на криптовалютном рынке и в течение пятидесятидневного периода при комиссионной ставке 0.25% произошел четырехкратный рост капитала | false | true | false | |
6,699 | 2026-02-24T08:04:25.825000Z | 2026-02-24T08:04:25.825000Z | Lec. | В исследовании [16] была представлена модель RL, основанную на ансамбле разных архитектур (CNN, RNN, LSTM) | false | true | false | |
6,698 | 2026-02-24T08:04:24.076000Z | 2026-02-24T08:04:24.076000Z | Lec. | Глубокие нейронные сети и методы обучения с подкреплением становятся основой для адаптивных инвестиционных стратегий, способных учитывать сложную информацию касательно рынка | false | true | false | |
6,697 | 2026-02-24T08:04:22.315000Z | 2026-02-24T08:04:22.315000Z | Lec. | Model-free алгоритмы учатся напрямую через процесс проб и ошибок, оценивая только ценности состояний и действий по полученным наградам | false | true | false | |
6,696 | 2026-02-24T08:04:20.766000Z | 2026-02-24T08:04:20.766000Z | Lec. | Имея такую модель, агент может просчитывать шаги наперед, прогнозируя результаты своих действий | false | true | false | |
6,695 | 2026-02-24T08:04:19.020000Z | 2026-02-24T08:04:19.020000Z | Lec. | Model-based методы предполагают, что агент строит модель среды | false | true | false | |
6,694 | 2026-02-24T08:04:17.448000Z | 2026-02-24T08:04:17.448000Z | Lec. | Есть еще одна классификация алгоритмов глубокого обучения с подкреплением на два типа: model-based и model-free [11] | false | true | false | |
6,693 | 2026-02-24T08:04:15.698000Z | 2026-02-24T08:04:15.698000Z | Lec. | Оn-policy методы улучшают ту политику, которой придерживается агент, тогда как в off-policy алгоритмах предполагается обучение таким образом, что оценка и улучшение могут относиться к иной политике, а не к той, которая собирает данные | false | true | false | |
6,692 | 2026-02-24T08:04:13.808000Z | 2026-02-24T08:04:13.808000Z | Lec. | В свою очередь, off-policy алгоритмы обучаются на данных, которые были собранны другой поведенческой политикой [11] | false | true | false | |
6,691 | 2026-02-24T08:04:12.062000Z | 2026-02-24T08:04:12.062000Z | Lec. | Другими словами обновление стратегии происходит на основе действий, совершаемых текущей политикой агента | false | true | false | |
6,690 | 2026-02-24T08:04:10.411000Z | 2026-02-24T08:04:10.411000Z | Lec. | Считается, что алгоритм относится к типу on-policy, если он оценивает и улучшает ту же самую политику, которой следует | false | true | false | |
6,689 | 2026-02-24T08:04:08.804000Z | 2026-02-24T08:04:08.804000Z | Lec. | Алгоритмы глубокого обучения с подкреплением (Reinforcement Learning, RL) можно разделить на два типа: on-policy и off-policy [11] | false | true | false | |
6,688 | 2026-02-24T08:04:06.984000Z | 2026-02-24T08:04:06.984000Z | Lec. | Как итог, можно сделать вывод, что современные методы портфельной оптимизации сочетают в себе строгий математический аппарат, гибкость и высокую адаптивность к индивидуальным запросам инвесторов | false | true | false | |
6,687 | 2026-02-24T08:04:05.199000Z | 2026-02-24T08:04:05.199000Z | Lec. | А прогнозирование параметров с помощью моделей ARIMA-GARCH и алгоритмов машинного обучения позволило улучшить точность оценки входных данных | false | true | false | |
6,686 | 2026-02-24T08:04:03.428000Z | 2026-02-24T08:04:03.428000Z | Lec. | Модификации постановок задач, такие как включение целевой доходности или ограничения на состав портфеля, сделали модели более похожими на реальные условия рынка | false | true | false | |
6,685 | 2026-02-24T08:04:01.671000Z | 2026-02-24T08:04:01.671000Z | Lec. | Применение коэффициента Шарпа и других относительных показателей эффективности улучшило способность оценивать риск при составлении инвестиционного портфеля | false | true | false | |
6,684 | 2026-02-24T08:03:59.913000Z | 2026-02-24T08:03:59.913000Z | Lec. | Классическая модель Марковица была дополнена альтернативными метриками риска (VaR, CvaR, Max Drawdown), что позволило точнее учитывать неблагоприятные условия рынка | false | true | false | |
6,683 | 2026-02-24T08:03:58.147000Z | 2026-02-24T08:03:58.147000Z | Lec. | Таким образом, методы оптимизации портфеля продолжают совершенствоваться, охватывая все больше подходов | false | true | false | |
6,682 | 2026-02-24T08:03:56.414000Z | 2026-02-24T08:03:56.414000Z | Lec. | В систематическом обзоре литературы [8] отмечается, что при корректном и грамотном применении методы машинного обучения дают значительное преимущество: в рассмотренных исследованиях применение моделей прогнозирования на основе глубокого обучения повышало ожидаемую доходность портфеля и увеличивало диверсификацию в сравнении с традиционными подходами | false | true | false | |
6,681 | 2026-02-24T08:03:54.605000Z | 2026-02-24T08:03:54.605000Z | Lec. | Стандартные эконометрические модели (ARIMA, GARCH) были дополнены методами машинного обучения: алгоритмы регрессии, случайный лес, градиентный бустинг | false | true | false | |
6,680 | 2026-02-24T08:03:52.962000Z | 2026-02-24T08:03:52.962000Z | Lec. | Были улучшены средства прогнозирования входных параметров – ожидаемых доходностей, ковариации | false | false | false | |
6,679 | 2026-02-24T08:03:51.201000Z | 2026-02-24T08:03:51.201000Z | Lec. | Data Science) оказало значительное влияние на развитие методов задачи оптимизации портфеля | false | true | false | |
6,678 | 2026-02-24T08:03:49.271000Z | 2026-02-24T08:03:49.271000Z | Lec. | Стремительное развитие анализа данных (англ | false | true | false | |
6,677 | 2026-02-24T08:03:47.480000Z | 2026-02-24T08:03:47.480000Z | Lec. | Рассмотренный подход показал себя как практичный, так как он позволил агенту собрать сбалансированный портфель, который согласуется с персональными финансовыми целями (задаваемый уровень доходности) при контроле уровня риска | false | true | false | |
6,676 | 2026-02-24T08:03:45.725000Z | 2026-02-24T08:03:45.725000Z | Lec. | Прогнозирование средней доходности и волатильности каждого актива происходит на основе комбинации моделей ARIMA-GARCH, а после решается оптимизационная задача максимизации доходности при ограничениях VaR и заданного порога ожидаемой доходности | false | true | false | |
6,675 | 2026-02-24T08:03:44.074000Z | 2026-02-24T08:03:44.074000Z | Lec. | В рассматриваемом исследовании в классическую Mean-VaR модель введено ограничение на целевую доходность портфеля | false | true | false | |
6,674 | 2026-02-24T08:03:42.316000Z | 2026-02-24T08:03:42.316000Z | Lec. | Примером исследования, где классическая постановка задачи была скорректирована для цели исследования является работа [7] | false | true | false | |
6,673 | 2026-02-24T08:03:40.602000Z | 2026-02-24T08:03:40.602000Z | Lec. | На практике в прикладных задачах оптимизации портфеля нередко задаются дополнительные задачи: обеспечение определенного уровня дохода (aнгл. target return), соблюдение точечных правил (как правило ограничения на концентрацию какого-либо актива в портфеле), учет налоговых издержек | false | true | false | |
6,672 | 2026-02-24T08:03:38.797000Z | 2026-02-24T08:03:38.797000Z | Lec. | Авторы исследования делают вывод, что в периоды высокой рыночной волатильности стратегия управления портфеля, опирающаяся на использование подхода минимизации максимальной просадки, несет меньшие убытки по сравнению с традиционными подходами, основанными только на волатильности или дисперсии | false | true | false | |
6,671 | 2026-02-24T08:03:37.013000Z | 2026-02-24T08:03:37.013000Z | Lec. | В исследовании [6] было установлено, что оптимизация портфеля с использованием максимальной просадки как основной целевой функции позволяет снизить риски в периоды повышенной нестабильности рынка | false | true | false | |
6,670 | 2026-02-24T08:03:35.228000Z | 2026-02-24T08:03:35.228000Z | Lec. | Другой важной метрикой для оценки риска инвестиционного портфеля является максимальная просадка (2) (Max Drawdown), которая отражает наибольшее снижение стоимости актива или портфеля начиная от момента предыдущего максимума до наименьшей точки в рассматриваемом периоде. (2). – стоимость портфеля в момент времени t. – продолжительность всего рассматриваемого периода. – момент времени до текущего момента t, в котором достигнут предыдущий пик стоимости портфеля | false | true | false | |
6,669 | 2026-02-24T08:03:33.576000Z | 2026-02-24T08:03:33.576000Z | Lec. | В 1960-х годах Шарп представил модель ценообразования капитальных активов [5] (Capital Asset Pricing Model, CAMP) и ввел так называемый коэффициента Шарпа (1), который впоследствии был признан научным сообществом простым, но ценным инструментом для оценки эффективности портфеля с учетом корректировки на риск:. (1). – ожидаемая доходность портфеля. – безрисковая доходная ставка. – стандартное отклонение доходности портфеля | false | true | false | |
6,668 | 2026-02-24T08:03:31.652000Z | 2026-02-24T08:03:31.652000Z | Lec. | Преимущество такого подхода оказалось не только в получении более стабильных результатов (т.е более консервативных портфелей), но и в возможности применения к широкому классу распределения доходностей | false | true | false | |
6,667 | 2026-02-24T08:03:29.952000Z | 2026-02-24T08:03:29.952000Z | Lec. | Так, например, в исследовании [4] Рокафеллар и Урысев решили сформулировать задачу по оптимизации портфеля как задачу минимизации CvaR | false | true | false | |
6,666 | 2026-02-24T08:03:28.196000Z | 2026-02-24T08:03:28.196000Z | Lec. | Величина CvaR характеризует средний убыток при превышении заданного порога потерь (VaR) на заданном уровне доверия | false | true | false | |
6,665 | 2026-02-24T08:03:26.575000Z | 2026-02-24T08:03:26.575000Z | Lec. | Были разработаны критерии Value at Risk (VaR) и Conditional Value at Risk (CVaR), фокус которых держится на крайне неблагоприятных исходах | false | true | false | |
6,664 | 2026-02-24T08:03:24.800000Z | 2026-02-24T08:03:24.800000Z | Lec. | В текущем разделе будут рассмотрены основные направления развития теории портфельного управления | false | true | false | |
6,663 | 2026-02-24T08:03:23.257000Z | 2026-02-24T08:03:23.257000Z | Lec. | Было предложено немало методов, как расширяющих модель MVO, так и предлагающих альтернативу, c целью устранения накладываемых ограничений и повышения эффективности стратегий управления инвестиционными портфелями | false | true | false | |
6,662 | 2026-02-24T08:03:21.489000Z | 2026-02-24T08:03:21.489000Z | Lec. | Как результат распределение капитала получается более диверсифицированным и устойчивым к ошибкам | false | true | false | |
6,661 | 2026-02-24T08:03:19.945000Z | 2026-02-24T08:03:19.945000Z | Lec. | Субъективные оценки инвесторов в модели позволили получить более устойчивые оценки ожидаемой доходности активов | false | true | false | |
6,660 | 2026-02-24T08:03:18.201000Z | 2026-02-24T08:03:18.201000Z | Lec. | Значительный прогресс в улучшении модели MVO произошел в модели Блэка-Литтермана посредством учета мнений инвесторов о будущем рынке [3] | false | true | false | |
6,659 | 2026-02-24T08:03:16.459000Z | 2026-02-24T08:03:16.459000Z | Lec. | Такой подход, именуемый Asset Allocation, позволяет снизить размерность задачи и в свою очередь влияние ошибок оценки, так как количество оцениваемых параметров (ожидаемых доходностей и ковариаций) значительно меньше при агрегировании активов по классам | false | true | false | |
6,658 | 2026-02-24T08:03:14.825000Z | 2026-02-24T08:03:14.825000Z | Lec. | На практике этот метод часто применяется на уровне классов активов, а не отдельно взятых ценных бумаг [2] | false | true | false | |
6,657 | 2026-02-24T08:03:13.267000Z | 2026-02-24T08:03:13.267000Z | Lec. | Несмотря на указанные выше ограничения, подход MVO до сих пор является основой для большинства систем управления инвестициями | false | true | false | |
6,656 | 2026-02-24T08:03:11.702000Z | 2026-02-24T08:03:11.702000Z | Lec. | Во-вторых, в базовой постановке задачи Марковиц не учитывает многие прикладные аспекты, такие как транзакционные издержки, налоги, ограничение на состав портфеля и др | false | true | false | |
6,655 | 2026-02-24T08:03:10.109000Z | 2026-02-24T08:03:10.109000Z | Lec. | Во-первых, в классической модели Марковица предполагается, что доходности распределены по нормальному закону, а корреляция между активами постоянна во времени, что зачастую не выполняется на практике | false | true | false | |
6,654 | 2026-02-24T08:03:08.508000Z | 2026-02-24T08:03:08.508000Z | Lec. | На практике при использовании MVO могут возникнуть сложности | false | true | false | |
6,653 | 2026-02-24T08:03:06.963000Z | 2026-02-24T08:03:06.963000Z | Lec. | Эта модель стала основой для многих дальнейших исследований | false | true | false | |
6,652 | 2026-02-24T08:03:05.236000Z | 2026-02-24T08:03:05.236000Z | Lec. | В модели MVO подразумевается, что инвестор рационален и старается получить максимальную ожидаемую доходность при фиксированном, заданном уровне риска посредством перераспределения долей капитала между активами | false | true | false | |
6,651 | 2026-02-24T08:03:03.578000Z | 2026-02-24T08:03:03.578000Z | Lec. | Марковиц заложил основы современной портфельной теории, представив модель оптимизации среднего отклонения (Mean Variance Optimization, MVO), в которой реализуется оптимизация соотношения доходности и риска при помощи задания оптимальных весов активов [1] | false | true | false | |
6,650 | 2026-02-24T08:03:01.824000Z | 2026-02-24T08:03:01.824000Z | Lec. | Еще в середине двадцатого века, в 1952 году Г | true | true | false | |
6,649 | 2026-02-24T08:03:00.337000Z | 2026-02-24T08:03:00.337000Z | Lec. | Одной из основных задач финансового управления всегда считалась задача оптимизации инвестиционного портфеля | false | true | false | |
6,648 | 2026-02-24T08:02:58.604000Z | 2026-02-24T08:02:58.604000Z | Lec. | В работе содержится п страниц, 7 рисунков, 6 таблиц и 6 приложений | false | true | false | |
6,647 | 2026-02-24T08:02:56.995000Z | 2026-02-24T08:02:56.995000Z | Lec. | Произведен анализ ключевых метрик | false | true | false | |
6,646 | 2026-02-24T08:02:55.150000Z | 2026-02-24T08:02:55.150000Z | Lec. | В заключительной главе представлены результаты обучения и бэкстестинга моделей A2C и DDPG | false | true | false | |
6,645 | 2026-02-24T08:02:53.441000Z | 2026-02-24T08:02:53.441000Z | Lec. | Указаны особенности сбора и обработки данных, методы извлечения признаков | false | true | false | |
6,644 | 2026-02-24T08:02:51.508000Z | 2026-02-24T08:02:51.508000Z | Lec. | Описана техническая реализация симулятора среды разработанного класса | false | true | false | |
6,643 | 2026-02-24T08:02:49.694000Z | 2026-02-24T08:02:49.694000Z | Lec. | Во второй главе задача оптимизации инвестиционного портфеля формализуется как задача марковского процесса принятия решений | false | true | false | |
6,642 | 2026-02-24T08:02:47.935000Z | 2026-02-24T08:02:47.935000Z | Lec. | Отдельный раздел посвящен архитектуре алгоритмов A2C и DDPG | false | true | false | |
6,641 | 2026-02-24T08:02:46.340000Z | 2026-02-24T08:02:46.340000Z | Lec. | В перовой главе представлен обзор классических и современных подходов к задаче оптимизации портфеля, включая модель Марковица, критерии Var и CvaR, коэффициент Шарпа, а также методы глубокого обучения с подкреплением | false | true | false | |
6,640 | 2026-02-24T08:02:44.489000Z | 2026-02-24T08:02:44.489000Z | Lec. | Дипломная работа включает введение, три главы, заключение список литературы и приложения | false | true | false | |
6,639 | 2026-02-24T08:02:42.502000Z | 2026-02-24T08:02:42.502000Z | Lec. | Основные задачи дипломной работы: | false | true | false | |
6,638 | 2026-02-24T08:02:40.273000Z | 2026-02-24T08:02:40.273000Z | Lec. | Алгоритмы обучения с подкреплением способны быть адаптивными как на рынке акций, так и на криптовалютном рынке | false | true | false | |
6,637 | 2026-02-24T08:02:38.521000Z | 2026-02-24T08:02:38.521000Z | Lec. | Алгоритмы обучения с подкреплением способны формировать эффективные инвестиционные стратегии | false | true | false | |
6,636 | 2026-02-24T08:02:36.772000Z | 2026-02-24T08:02:36.772000Z | Lec. | Выдвигается несколько гипотез: | false | true | false | |
6,635 | 2026-02-24T08:02:34.809000Z | 2026-02-24T08:02:34.809000Z | Lec. | Цель работы – поиск и реализация оптимального алгоритма глубокого машинного обучения с подкреплением для задачи оптимизации инвестиционного портфеля, а также оценка эффективности разработанных стратегий на рынках акций и криптовалют | false | true | false | |
6,634 | 2026-02-24T08:02:33.035000Z | 2026-02-24T08:02:33.035000Z | Lec. | Предмет исследования – алгоритмы глубокого обучения с подкреплением, применяемые для формирования и оптимизации инвестиционного портфеля на основе рыночных данных | false | true | false | |
6,633 | 2026-02-24T08:02:31.272000Z | 2026-02-24T08:02:31.272000Z | Lec. | Объект исследования – процессы принятия решений по управлению инвестиционным портфелем в условиях нестабильной рыночной среды | false | true | false | |
6,632 | 2026-02-24T08:02:29.527000Z | 2026-02-24T08:02:29.527000Z | Lec. | В связи с этим особый интерес представляют методы глубокого обучения с подкреплением (Deep Reinforcement Learning), которые предоставляют возможность динамического управления портфелем с учетом сложных нелинейных зависимостей со способностью к обучению на основе взаимодействия со средой | false | true | false | |
6,631 | 2026-02-24T08:02:27.732000Z | 2026-02-24T08:02:27.732000Z | Lec. | Сложные макроэкономические события последних лет – пандемия COVID-19, периоды высокой инфляции и нестабильность криптовалютного рынка требуют от инвестиционных стратегий адаптивности и способности быстро подстраиваться под изменения рыночных условий | false | true | false | |
6,630 | 2026-02-24T08:02:25.759000Z | 2026-02-24T08:02:25.759000Z | Lec. | Классические методы портфельной оптимизации, которые основываются на предположениях нормальности распределения доходностей или на стационарности процессов, зачастую оказываются недостаточно гибкими и не очень успешно справляются с моделированием нестабильной рыночной среды | false | true | false | |
6,629 | 2026-02-24T08:02:24.101000Z | 2026-02-24T08:02:24.101000Z | Lec. | В условиях стремительного развития цифровых активов и растущей популярности индивидуального инвестирования задача по формированию оптимального инвестиционного портфеля становится особенно актуальной | false | true | false | |
6,628 | 2026-02-24T08:02:22.339000Z | 2026-02-24T08:02:22.339000Z | Lec. | ПРИЛОЖЕНИЯ 43 | false | false | false | |
6,627 | 2026-02-24T08:02:20.837000Z | 2026-02-24T08:02:20.837000Z | Lec. | СПИСОК ЛИТЕРАТУРЫ 40 | false | false | false | |
6,626 | 2026-02-24T08:02:19.107000Z | 2026-02-24T08:02:19.107000Z | Lec. | Практическая реализация методов обучения агентов методами глубокого машинного обучения для формирования оптимального инвестиционного портфеля 31. 3.1 Выбор данных и описание задачи агента 31. 3.2 Метрики качества работы моделей 34. 3.3 Анализ эффективности выбранных методов глубокого машинного обучения в задаче оптимизации инвестиционного портфеля 36 | false | false | false | |
6,625 | 2026-02-24T08:02:17.177000Z | 2026-02-24T08:02:17.177000Z | Lec. | Функционал для первичной обработки данных и их последующего обогащения 27. 2.5.2 Среда для имитации условий рынка 29 | false | false | false | |
6,624 | 2026-02-24T08:02:15.143000Z | 2026-02-24T08:02:15.143000Z | Lec. | Методы 16. 2.1 Формализация задачи оптимизации инвестиционного портфеля как марковского процесса принятия решений в контексте применения алгоритмов глубокого машинного обучения с подкреплением 16. 2.2 Критерий оптимальности 18. 2.3 Алгоритм A2C 19. 2.4 Алгоритм DDPG 23. 2.5 Описание программных методов реализованных для обучения агентов 26. 2.5.1 Набор данных | false | false | false | |
6,623 | 2026-02-24T08:02:13.188000Z | 2026-02-24T08:02:13.188000Z | Lec. | Литературный обзор 9. 1.1 Классические подходы оптимизации инвестиционного портфеля 9. 1.2 Эволюция методов портфельной оптимизации: от MVO к CVaR и машинному обучению 11. 1.3 Алгоритмы глубокого обучения с подкреплением для оптимизации инвестиционного портфеля 14. 1.3.1 Классификация алгоритмов глубокого обучения с подкреплением 14. 1.3.2 Последние исследования с применением алгоритмов глубокого обучения в задаче формирования оптимального портфеля 15 | false | false | false | |
6,622 | 2026-02-24T08:02:11.082000Z | 2026-02-24T08:02:11.082000Z | Lec. | The findings show the potential of reinforcement learning as a helpful tool for portfolio management | false | true | false | |
6,621 | 2026-02-24T08:02:09.355000Z | 2026-02-24T08:02:09.355000Z | Lec. | The findings highlight key differences in performance of selected models considering different market conditions: stocks and cryptocurrency | false | true | false | |
6,620 | 2026-02-24T08:02:07.504000Z | 2026-02-24T08:02:07.504000Z | Lec. | Two reinforcement learning algorithms-A2C and DDPG- were selected for a comparison as these algorithms reflect different approaches to learning strategies | false | true | false | |
6,619 | 2026-02-24T08:02:05.732000Z | 2026-02-24T08:02:05.732000Z | Lec. | The study includes a review of traditional and modern portfolio methods | false | true | false | |
6,618 | 2026-02-24T08:02:04.014000Z | 2026-02-24T08:02:04.014000Z | Lec. | This research paper explores the application of deep reinforcement learning algorithms for investment portfolio optimization in a high volatile market | false | true | false | |
6,617 | 2026-02-24T08:02:02.269000Z | 2026-02-24T08:02:02.269000Z | Lec. | Результаты исследования дают позитивную оценку для использования методов машинного обучения с подкреплением в задачах построения инвестиционных стратегий | false | true | false | |
6,616 | 2026-02-24T08:02:00.503000Z | 2026-02-24T08:02:00.503000Z | Lec. | Сравнительный анализ моделей показал различия в качестве принимаемых алгоритмом решений | false | true | false | |
6,615 | 2026-02-24T08:01:58.763000Z | 2026-02-24T08:01:58.763000Z | Lec. | В качестве основных алгоритмов были выбраны алгоритмы A2C и DDPG, отражающие два разных подхода к обучению с подкреплением | false | true | false | |
6,614 | 2026-02-24T08:01:56.988000Z | 2026-02-24T08:01:56.988000Z | Lec. | В рамках исследования проведен обзор существующих подходов к управлению капиталом, разработана программная среда для обучения агентов на основе двух типов рыночных данных: ценные бумаги и криптовалюта | false | true | false | |
6,613 | 2026-02-24T08:01:55.213000Z | 2026-02-24T08:01:55.213000Z | Lec. | Дипломная работа посвящена исследованию возможности применения алгоритмов глубокого машинного обучения с подкреплением для задачи оптимизации инвестиционного портфеля в условиях нестабильной рыночной среды | false | true | false | |
6,612 | 2026-02-24T08:01:53.444000Z | 2026-02-24T08:01:53.444000Z | Lec. | Задание принято к исполнению студентом. «11» ноября 2024 г. ______________ Н.В.Сизых | true | true | false | |
6,611 | 2026-02-24T08:01:51.783000Z | 2026-02-24T08:01:51.783000Z | Lec. | Задание выдано студенту. «11» ноября 2024 г. ______________ Н.В.Сизых | true | true | false | |
6,610 | 2026-02-24T08:01:50.066000Z | 2026-02-24T08:01:50.066000Z | Lec. | Научный руководитель ВКР. «29» апреля 2025г. ______________ Н.В.Сизых | true | true | false | |
6,609 | 2026-02-24T08:01:48.446000Z | 2026-02-24T08:01:48.446000Z | Lec. | Итоговый вариант ВКР предоставлен студентом в срок до «30» апреля 2025г | false | true | false | |
6,608 | 2026-02-24T08:01:46.615000Z | 2026-02-24T08:01:46.615000Z | Lec. | Научный руководитель ВКР. «22» апреля 2025г. ______________ Н.В.Сизых | true | true | false |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.