id int64 18 18.8k | created_at timestamp[ns, tz=UTC]date 2026-02-23 07:30:20 2026-02-24 14:51:09 | updated_at timestamp[ns, tz=UTC]date 2026-02-23 08:08:14 2026-02-24 14:51:09 | doc_name stringclasses 1
value | input stringlengths 11 9.24k | output stringlengths 0 738 | is_personal bool 2
classes | is_sentence bool 2
classes | is_corrected bool 2
classes |
|---|---|---|---|---|---|---|---|---|
6,757 | 2026-02-24T08:06:06.926000Z | 2026-02-24T08:06:06.926000Z | Lec. | Так же, как и алгоритм A2C, DDPG относится к классу “actor-critic” алгоритмов | false | true | false | |
6,756 | 2026-02-24T08:06:05.162000Z | 2026-02-24T08:06:05.162000Z | Lec. | Алгоритм DDPG (Deep Deterministic Policy Gradient) является model-free методом обучения с подкреплением, который рассчитан на задачи с непрерывном пространством действий [14] | false | true | false | |
6,755 | 2026-02-24T08:06:03.407000Z | 2026-02-24T08:06:03.407000Z | Lec. | Вместо одношаговой TD-ошибки в A2C часто используется шаговое приближение возврата:. (13) | false | true | false | |
6,754 | 2026-02-24T08:06:01.847000Z | 2026-02-24T08:06:01.847000Z | Lec. | Рис. 2 Псевдокод алгоритма A2C | false | true | false | |
6,753 | 2026-02-24T08:06:00.035000Z | 2026-02-24T08:06:00.035000Z | Lec. | Как результат алгоритм постепенно снижает (12), что эквивалентно росту целевой функции (4) | false | true | false | |
6,752 | 2026-02-24T08:05:57.969000Z | 2026-02-24T08:05:57.969000Z | Lec. | Параметры актора и критика обновляются совместно через суммарную функцию потерь для всей модели:. (12). – коэффициент, который определяет вклад “критика” в градиент обновления | false | true | false | |
6,751 | 2026-02-24T08:05:56.269000Z | 2026-02-24T08:05:56.269000Z | Lec. | Функция потерь критика задается как мат. ожидание квадрата TD-ошибки:. (11) | false | true | false | |
6,750 | 2026-02-24T08:05:54.470000Z | 2026-02-24T08:05:54.470000Z | Lec. | Стоит отметить, что для стабилизации обучения и улучшения исследования среды к функции потерь актора добавляется энтропийный регуляризатор:. (10) | false | true | false | |
6,749 | 2026-02-24T08:05:52.849000Z | 2026-02-24T08:05:52.849000Z | Lec. | Политик актора обучается не напрямую градиентном подъемом , а при помощи минимизации функции потерь:. (9) | false | true | false | |
6,748 | 2026-02-24T08:05:51.218000Z | 2026-02-24T08:05:51.218000Z | Lec. | Согласно теореме политики-градиента [13] градиент функции (4) можно выразить следующим образом:. (8) | false | true | false | |
6,747 | 2026-02-24T08:05:49.671000Z | 2026-02-24T08:05:49.671000Z | Lec. | Для максимизации величины (4) используются методы политики-градиента с корректировкой параметров политики в направлении увеличения | false | true | false | |
6,746 | 2026-02-24T08:05:48.104000Z | 2026-02-24T08:05:48.104000Z | Lec. | За счет этого обучение актора становится стабильнее и более эффективным | false | true | false | |
6,745 | 2026-02-24T08:05:46.384000Z | 2026-02-24T08:05:46.384000Z | Lec. | Таким образом, TD-ошибка является оценкой преимущества совершенного действия | false | true | false | |
6,744 | 2026-02-24T08:05:44.594000Z | 2026-02-24T08:05:44.594000Z | Lec. | Подставляя определение (6) в формулу (5), получим:. (7) | false | true | false | |
6,743 | 2026-02-24T08:05:42.972000Z | 2026-02-24T08:05:42.972000Z | Lec. | В алгоритме A2C не вычисляется непосредственно | false | true | false | |
6,742 | 2026-02-24T08:05:41.262000Z | 2026-02-24T08:05:41.262000Z | Lec. | Таким образом, показывает, насколько действие в состоянии лучше или хуже среднего поведения согласно политике. , то действие приносит больше награды, чем в среднем ожидается в состоянии. , то действие менее выгодно, чем усредненное поведение политики | false | true | false | |
6,741 | 2026-02-24T08:05:39.557000Z | 2026-02-24T08:05:39.557000Z | Lec. | В алгоритме A2C функция преимущества определяется как:. – функция ценности состояния (state-value), равная ожидаемому вознаграждению при начале в состоянии и дальнейшем следовании политике. – функция ценности действия (action-value), равная ожидаемому суммарному вознаграждению при нахождении в состоянии выполнении де... | false | true | false | |
6,740 | 2026-02-24T08:05:37.498000Z | 2026-02-24T08:05:37.498000Z | Lec. | Для каждого шага , TD-ошибка определяется как:. – состояние в момент времени t,. – выбранное действие,. – вознаграждение, полученное при переходе в новое состояние ,. – оценка ценности состояния (state-value), выдаваемая критиком с параметрами ,. – коэффициент дисконтирования | false | true | false | |
6,739 | 2026-02-24T08:05:35.800000Z | 2026-02-24T08:05:35.800000Z | Lec. | Для обучения модели критика применяется метод временных разностей (temporal difference, TD) | false | true | false | |
6,738 | 2026-02-24T08:05:34.178000Z | 2026-02-24T08:05:34.178000Z | Lec. | Рис. 1 Классификация алгоритмов A2C и DDPG | false | true | false | |
6,737 | 2026-02-24T08:05:32.384000Z | 2026-02-24T08:05:32.384000Z | Lec. | В обновлении актора используется оценка функции преимущества (Advantage Function), которая показывает, насколько полученная награда превышает среднее ожидаемое значение | false | true | false | |
6,736 | 2026-02-24T08:05:30.692000Z | 2026-02-24T08:05:30.692000Z | Lec. | Алгоритм A2C (Advantage Actor-Critic) основан на архитектуре “актор-критик” и включает два компонента: актор – модель, которая определяет политику и на основе состояния среды выбирает действие; критик –модель, которая приближенно оценивает ценностную функцию (Value Function) и оценивает качество действий [12] | false | true | false | |
6,735 | 2026-02-24T08:05:28.886000Z | 2026-02-24T08:05:28.886000Z | Lec. | Таким образом, называется ожидаемым совокупным вознаграждением (expected return) при следовании политике с параметрами | false | true | false | |
6,734 | 2026-02-24T08:05:27.240000Z | 2026-02-24T08:05:27.240000Z | Lec. | Предел суммирования T может обозначать либо время окончания эпизода, либо стремиться к бесконечности в случае непрерывного взаимодействия (при бесконечная сумма сходится) [9] | false | true | false | |
6,733 | 2026-02-24T08:05:25.586000Z | 2026-02-24T08:05:25.586000Z | Lec. | Формально цель агента определяется как максимизация величины:. (4). где случайная величина – награда, полученная на шаге , мат. ожидание рассчитывается с учётом случайного характера среды, а при использовании стохастической модели, с учётом вероятностного выбора действий самим агентом | false | true | false | |
6,732 | 2026-02-24T08:05:23.221000Z | 2026-02-24T08:05:23.221000Z | Lec. | Для политики (стратегии) агента , параметризованной , обычно вводится функция качества политики – математическое ожидание дисконтированной суммы вознаграждений, полученных агентом с течением времени [9] | false | true | false | |
6,731 | 2026-02-24T08:05:21.658000Z | 2026-02-24T08:05:21.658000Z | Lec. | Агент, действующий в среде MDP, стремится максимизировать кумулятивное (суммарное) вознаграждение при взаимодействии со средой | false | true | false | |
6,730 | 2026-02-24T08:05:19.665000Z | 2026-02-24T08:05:19.665000Z | Lec. | Граничные случаи: означает, что агент оценивает только непосредственную награду, делает агента, который учитывает долгосрочные последствия | false | true | false | |
6,729 | 2026-02-24T08:05:17.963000Z | 2026-02-24T08:05:17.963000Z | Lec. | Если < 1, награды на n шагов в будущем дисконтируются как и тем самым отдалённые во времени результаты учитываются слабее ближайших [9] | false | true | false | |
6,728 | 2026-02-24T08:05:16.351000Z | 2026-02-24T08:05:16.351000Z | Lec. | Определяет, насколько агент учитывает будущие награды при принятии решений | false | true | false | |
6,727 | 2026-02-24T08:05:14.807000Z | 2026-02-24T08:05:14.807000Z | Lec. | Таким образом, функция моделирует как внешние рыночные изменения, так и обновление долей портфеля под действием агента. – коэффициент дисконтирования 0 1 | false | false | false | |
6,726 | 2026-02-24T08:05:13.036000Z | 2026-02-24T08:05:13.036000Z | Lec. | Состояние включает также внутренние переменные (структуру портфеля), которые прямо определяются действием | false | true | false | |
6,725 | 2026-02-24T08:05:11.512000Z | 2026-02-24T08:05:11.512000Z | Lec. | В текущей работе предполагается, что динамика цен стохастическая и не зависит от действий агента, в предположении того, что объём торгов агента мал | false | true | false | |
6,724 | 2026-02-24T08:05:09.810000Z | 2026-02-24T08:05:09.810000Z | Lec. | Распределение вероятностей – вероятность перехода в состояние при выполнении действия из состояния Эта функция показывает изменение цен на рынке: например, как изменятся котировки и состояние портфеля к следующему шагу после принятия решения | false | true | false | |
6,723 | 2026-02-24T08:05:07.846000Z | 2026-02-24T08:05:07.846000Z | Lec. | В простейшем случае можно определить – разницу стоимости портфеля до и после совершения действия. – функция, задающая динамику среды | false | true | false | |
6,722 | 2026-02-24T08:05:06.287000Z | 2026-02-24T08:05:06.287000Z | Lec. | Часто используют относительный прирост капитала (доходность за период) или его логарифм | false | true | false | |
6,721 | 2026-02-24T08:05:04.690000Z | 2026-02-24T08:05:04.690000Z | Lec. | Цель агента – максимизировать суммарно полученную награду | false | true | false | |
6,720 | 2026-02-24T08:05:03.181000Z | 2026-02-24T08:05:03.181000Z | Lec. | Вознаграждение – это численный ответ от среды агенту после совершения действия | false | true | false | |
6,719 | 2026-02-24T08:05:01.244000Z | 2026-02-24T08:05:01.244000Z | Lec. | В контексте портфеля действие соответствует ребалансировке портфеля на шаге. – функция вознаграждения | false | true | false | |
6,718 | 2026-02-24T08:04:59.683000Z | 2026-02-24T08:04:59.683000Z | Lec. | Элемент – решение агента в состоянии | false | true | false | |
6,717 | 2026-02-24T08:04:57.807000Z | 2026-02-24T08:04:57.807000Z | Lec. | В задачах инвестирования состояние обычно включает признаки рынка (финансовые индикаторы, цены акций за последние дни и т.д.) и распределение капитала между активами на шаге. – множество действий | false | true | false | |
6,716 | 2026-02-24T08:04:55.951000Z | 2026-02-24T08:04:55.951000Z | Lec. | Элемент описывает информацию о системе в текущий момент времени (например, состояние рыночной среды и портфеля) | false | true | false | |
6,715 | 2026-02-24T08:04:54.160000Z | 2026-02-24T08:04:54.160000Z | Lec. | Формальным языком MDP для оптимизации портфеля можно определить как кортеж , где:. – множество состояний | false | true | false | |
6,714 | 2026-02-24T08:04:52.387000Z | 2026-02-24T08:04:52.387000Z | Lec. | Таким образом, полностью описывает динамику без учёта предшествующих состояний | false | true | false | |
6,713 | 2026-02-24T08:04:50.703000Z | 2026-02-24T08:04:50.703000Z | Lec. | Это подразумевает вся необходимая информацию о прошлых взаимодействиях уже учтена состояние , и не нужна информация о предыдущих шагах при известном текущем состоянии [10] | false | true | false | |
6,712 | 2026-02-24T08:04:49.047000Z | 2026-02-24T08:04:49.047000Z | Lec. | Процесс называется марковским, если вероятность перехода в новое состояние зависит только от выбранного действия и текущего состояния [10]:. (3) | false | true | false | |
6,711 | 2026-02-24T08:04:47.560000Z | 2026-02-24T08:04:47.560000Z | Lec. | Агент (в данном случае трейдинговый алгоритм) последовательно шаг за шагом принимает решения по ребалансировке портфеля, наблюдая состояние рынка и получая вознаграждение за увеличение капитала | false | true | false | |
6,710 | 2026-02-24T08:04:45.789000Z | 2026-02-24T08:04:45.789000Z | Lec. | Задача управления портфелем при использовании алгоритмов глубокого машинного обучения с подкреплением может быть сформулирована как марковский процесс принятия решений (Markov Decision Process, MDP) | false | true | false | |
6,709 | 2026-02-24T08:04:43.970000Z | 2026-02-24T08:04:43.970000Z | Lec. | Как итог, можно сделать, вывод, что методы глубокого машинного обучения с подкреплением в ряде исследований обходят классические стратегии по основным метрикам, однако их эффективность существенно зависит от настройки алгоритмов | false | true | false | |
6,708 | 2026-02-24T08:04:42.184000Z | 2026-02-24T08:04:42.184000Z | Lec. | PPO, наоборот, в отличие от DDPG, оказался наименее эффективным без добавления скрытых слоев, а эффективность TD3 увеличивалась по мере увеличения скрытых слоев | false | true | false | |
6,707 | 2026-02-24T08:04:40.386000Z | 2026-02-24T08:04:40.386000Z | Lec. | Алгоритм DDPG показывал наибольший коэффициент Шарпа на базовой модификации, без добавления скрытых слоев | false | true | false | |
6,706 | 2026-02-24T08:04:38.628000Z | 2026-02-24T08:04:38.628000Z | Lec. | Было установлено, что алгоритм A2C без добавления скрытых слоев имеет наибольшую накопленную доходность, а при добавлении слоев в работе агента улучшается управление риском (увеличение коэффициента Шарпа) | false | true | false | |
6,705 | 2026-02-24T08:04:37.059000Z | 2026-02-24T08:04:37.059000Z | Lec. | Портфель в исследовании составлялся из 45 индонезийских акций | false | true | false | |
6,704 | 2026-02-24T08:04:35.308000Z | 2026-02-24T08:04:35.308000Z | Lec. | В одном из самых свежих исследований [18] был проведен сравнительный анализ четырех алгоритмов RL (A2C, DDPG, PPO, TD3) c разным количеством скрытых слоев в нейросетях | false | true | false | |
6,703 | 2026-02-24T08:04:33.545000Z | 2026-02-24T08:04:33.545000Z | Lec. | Работа агента была сравнена с классическим подходом MVO и по двум критериям (Sharp Ratio, накопленная доходность) агент RL оказался более эффективен | false | true | false | |
6,702 | 2026-02-24T08:04:31.765000Z | 2026-02-24T08:04:31.765000Z | Lec. | В статье [17] был использован алгоритм DDPG в задаче торговли акциями | false | false | false | |
6,701 | 2026-02-24T08:04:29.366000Z | 2026-02-24T08:04:29.366000Z | Lec. | Другие исследования подтверждают эффективность RL методов | false | true | false | |
6,700 | 2026-02-24T08:04:27.602000Z | 2026-02-24T08:04:27.602000Z | Lec. | Это система была апробирована на криптовалютном рынке и в течение пятидесятидневного периода при комиссионной ставке 0.25% произошел четырехкратный рост капитала | false | true | false | |
6,699 | 2026-02-24T08:04:25.825000Z | 2026-02-24T08:04:25.825000Z | Lec. | В исследовании [16] была представлена модель RL, основанную на ансамбле разных архитектур (CNN, RNN, LSTM) | false | true | false | |
6,698 | 2026-02-24T08:04:24.076000Z | 2026-02-24T08:04:24.076000Z | Lec. | Глубокие нейронные сети и методы обучения с подкреплением становятся основой для адаптивных инвестиционных стратегий, способных учитывать сложную информацию касательно рынка | false | true | false | |
6,697 | 2026-02-24T08:04:22.315000Z | 2026-02-24T08:04:22.315000Z | Lec. | Model-free алгоритмы учатся напрямую через процесс проб и ошибок, оценивая только ценности состояний и действий по полученным наградам | false | true | false | |
6,696 | 2026-02-24T08:04:20.766000Z | 2026-02-24T08:04:20.766000Z | Lec. | Имея такую модель, агент может просчитывать шаги наперед, прогнозируя результаты своих действий | false | true | false | |
6,695 | 2026-02-24T08:04:19.020000Z | 2026-02-24T08:04:19.020000Z | Lec. | Model-based методы предполагают, что агент строит модель среды | false | true | false | |
6,694 | 2026-02-24T08:04:17.448000Z | 2026-02-24T08:04:17.448000Z | Lec. | Есть еще одна классификация алгоритмов глубокого обучения с подкреплением на два типа: model-based и model-free [11] | false | true | false | |
6,693 | 2026-02-24T08:04:15.698000Z | 2026-02-24T08:04:15.698000Z | Lec. | Оn-policy методы улучшают ту политику, которой придерживается агент, тогда как в off-policy алгоритмах предполагается обучение таким образом, что оценка и улучшение могут относиться к иной политике, а не к той, которая собирает данные | false | true | false | |
6,692 | 2026-02-24T08:04:13.808000Z | 2026-02-24T08:04:13.808000Z | Lec. | В свою очередь, off-policy алгоритмы обучаются на данных, которые были собранны другой поведенческой политикой [11] | false | true | false | |
6,691 | 2026-02-24T08:04:12.062000Z | 2026-02-24T08:04:12.062000Z | Lec. | Другими словами обновление стратегии происходит на основе действий, совершаемых текущей политикой агента | false | true | false | |
6,690 | 2026-02-24T08:04:10.411000Z | 2026-02-24T08:04:10.411000Z | Lec. | Считается, что алгоритм относится к типу on-policy, если он оценивает и улучшает ту же самую политику, которой следует | false | true | false | |
6,689 | 2026-02-24T08:04:08.804000Z | 2026-02-24T08:04:08.804000Z | Lec. | Алгоритмы глубокого обучения с подкреплением (Reinforcement Learning, RL) можно разделить на два типа: on-policy и off-policy [11] | false | true | false | |
6,688 | 2026-02-24T08:04:06.984000Z | 2026-02-24T08:04:06.984000Z | Lec. | Как итог, можно сделать вывод, что современные методы портфельной оптимизации сочетают в себе строгий математический аппарат, гибкость и высокую адаптивность к индивидуальным запросам инвесторов | false | true | false | |
6,687 | 2026-02-24T08:04:05.199000Z | 2026-02-24T08:04:05.199000Z | Lec. | А прогнозирование параметров с помощью моделей ARIMA-GARCH и алгоритмов машинного обучения позволило улучшить точность оценки входных данных | false | true | false | |
6,686 | 2026-02-24T08:04:03.428000Z | 2026-02-24T08:04:03.428000Z | Lec. | Модификации постановок задач, такие как включение целевой доходности или ограничения на состав портфеля, сделали модели более похожими на реальные условия рынка | false | true | false | |
6,685 | 2026-02-24T08:04:01.671000Z | 2026-02-24T08:04:01.671000Z | Lec. | Применение коэффициента Шарпа и других относительных показателей эффективности улучшило способность оценивать риск при составлении инвестиционного портфеля | false | true | false | |
6,684 | 2026-02-24T08:03:59.913000Z | 2026-02-24T08:03:59.913000Z | Lec. | Классическая модель Марковица была дополнена альтернативными метриками риска (VaR, CvaR, Max Drawdown), что позволило точнее учитывать неблагоприятные условия рынка | false | true | false | |
6,683 | 2026-02-24T08:03:58.147000Z | 2026-02-24T08:03:58.147000Z | Lec. | Таким образом, методы оптимизации портфеля продолжают совершенствоваться, охватывая все больше подходов | false | true | false | |
6,682 | 2026-02-24T08:03:56.414000Z | 2026-02-24T08:03:56.414000Z | Lec. | В систематическом обзоре литературы [8] отмечается, что при корректном и грамотном применении методы машинного обучения дают значительное преимущество: в рассмотренных исследованиях применение моделей прогнозирования на основе глубокого обучения повышало ожидаемую доходность портфеля и увеличивало диверсификацию в срав... | false | true | false | |
6,681 | 2026-02-24T08:03:54.605000Z | 2026-02-24T08:03:54.605000Z | Lec. | Стандартные эконометрические модели (ARIMA, GARCH) были дополнены методами машинного обучения: алгоритмы регрессии, случайный лес, градиентный бустинг | false | true | false | |
6,680 | 2026-02-24T08:03:52.962000Z | 2026-02-24T08:03:52.962000Z | Lec. | Были улучшены средства прогнозирования входных параметров – ожидаемых доходностей, ковариации | false | false | false | |
6,679 | 2026-02-24T08:03:51.201000Z | 2026-02-24T08:03:51.201000Z | Lec. | Data Science) оказало значительное влияние на развитие методов задачи оптимизации портфеля | false | true | false | |
6,678 | 2026-02-24T08:03:49.271000Z | 2026-02-24T08:03:49.271000Z | Lec. | Стремительное развитие анализа данных (англ | false | true | false | |
6,677 | 2026-02-24T08:03:47.480000Z | 2026-02-24T08:03:47.480000Z | Lec. | Рассмотренный подход показал себя как практичный, так как он позволил агенту собрать сбалансированный портфель, который согласуется с персональными финансовыми целями (задаваемый уровень доходности) при контроле уровня риска | false | true | false | |
6,676 | 2026-02-24T08:03:45.725000Z | 2026-02-24T08:03:45.725000Z | Lec. | Прогнозирование средней доходности и волатильности каждого актива происходит на основе комбинации моделей ARIMA-GARCH, а после решается оптимизационная задача максимизации доходности при ограничениях VaR и заданного порога ожидаемой доходности | false | true | false | |
6,675 | 2026-02-24T08:03:44.074000Z | 2026-02-24T08:03:44.074000Z | Lec. | В рассматриваемом исследовании в классическую Mean-VaR модель введено ограничение на целевую доходность портфеля | false | true | false | |
6,674 | 2026-02-24T08:03:42.316000Z | 2026-02-24T08:03:42.316000Z | Lec. | Примером исследования, где классическая постановка задачи была скорректирована для цели исследования является работа [7] | false | true | false | |
6,673 | 2026-02-24T08:03:40.602000Z | 2026-02-24T08:03:40.602000Z | Lec. | На практике в прикладных задачах оптимизации портфеля нередко задаются дополнительные задачи: обеспечение определенного уровня дохода (aнгл. target return), соблюдение точечных правил (как правило ограничения на концентрацию какого-либо актива в портфеле), учет налоговых издержек | false | true | false | |
6,672 | 2026-02-24T08:03:38.797000Z | 2026-02-24T08:03:38.797000Z | Lec. | Авторы исследования делают вывод, что в периоды высокой рыночной волатильности стратегия управления портфеля, опирающаяся на использование подхода минимизации максимальной просадки, несет меньшие убытки по сравнению с традиционными подходами, основанными только на волатильности или дисперсии | false | true | false | |
6,671 | 2026-02-24T08:03:37.013000Z | 2026-02-24T08:03:37.013000Z | Lec. | В исследовании [6] было установлено, что оптимизация портфеля с использованием максимальной просадки как основной целевой функции позволяет снизить риски в периоды повышенной нестабильности рынка | false | true | false | |
6,670 | 2026-02-24T08:03:35.228000Z | 2026-02-24T08:03:35.228000Z | Lec. | Другой важной метрикой для оценки риска инвестиционного портфеля является максимальная просадка (2) (Max Drawdown), которая отражает наибольшее снижение стоимости актива или портфеля начиная от момента предыдущего максимума до наименьшей точки в рассматриваемом периоде. (2). – стоимость портфеля в момент времени t. –... | false | true | false | |
6,669 | 2026-02-24T08:03:33.576000Z | 2026-02-24T08:03:33.576000Z | Lec. | В 1960-х годах Шарп представил модель ценообразования капитальных активов [5] (Capital Asset Pricing Model, CAMP) и ввел так называемый коэффициента Шарпа (1), который впоследствии был признан научным сообществом простым, но ценным инструментом для оценки эффективности портфеля с учетом корректировки на риск:. (1). –... | false | true | false | |
6,668 | 2026-02-24T08:03:31.652000Z | 2026-02-24T08:03:31.652000Z | Lec. | Преимущество такого подхода оказалось не только в получении более стабильных результатов (т.е более консервативных портфелей), но и в возможности применения к широкому классу распределения доходностей | false | true | false | |
6,667 | 2026-02-24T08:03:29.952000Z | 2026-02-24T08:03:29.952000Z | Lec. | Так, например, в исследовании [4] Рокафеллар и Урысев решили сформулировать задачу по оптимизации портфеля как задачу минимизации CvaR | false | true | false | |
6,666 | 2026-02-24T08:03:28.196000Z | 2026-02-24T08:03:28.196000Z | Lec. | Величина CvaR характеризует средний убыток при превышении заданного порога потерь (VaR) на заданном уровне доверия | false | true | false | |
6,665 | 2026-02-24T08:03:26.575000Z | 2026-02-24T08:03:26.575000Z | Lec. | Были разработаны критерии Value at Risk (VaR) и Conditional Value at Risk (CVaR), фокус которых держится на крайне неблагоприятных исходах | false | true | false | |
6,664 | 2026-02-24T08:03:24.800000Z | 2026-02-24T08:03:24.800000Z | Lec. | В текущем разделе будут рассмотрены основные направления развития теории портфельного управления | false | true | false | |
6,663 | 2026-02-24T08:03:23.257000Z | 2026-02-24T08:03:23.257000Z | Lec. | Было предложено немало методов, как расширяющих модель MVO, так и предлагающих альтернативу, c целью устранения накладываемых ограничений и повышения эффективности стратегий управления инвестиционными портфелями | false | true | false | |
6,662 | 2026-02-24T08:03:21.489000Z | 2026-02-24T08:03:21.489000Z | Lec. | Как результат распределение капитала получается более диверсифицированным и устойчивым к ошибкам | false | true | false | |
6,661 | 2026-02-24T08:03:19.945000Z | 2026-02-24T08:03:19.945000Z | Lec. | Субъективные оценки инвесторов в модели позволили получить более устойчивые оценки ожидаемой доходности активов | false | true | false | |
6,660 | 2026-02-24T08:03:18.201000Z | 2026-02-24T08:03:18.201000Z | Lec. | Значительный прогресс в улучшении модели MVO произошел в модели Блэка-Литтермана посредством учета мнений инвесторов о будущем рынке [3] | false | true | false | |
6,659 | 2026-02-24T08:03:16.459000Z | 2026-02-24T08:03:16.459000Z | Lec. | Такой подход, именуемый Asset Allocation, позволяет снизить размерность задачи и в свою очередь влияние ошибок оценки, так как количество оцениваемых параметров (ожидаемых доходностей и ковариаций) значительно меньше при агрегировании активов по классам | false | true | false | |
6,658 | 2026-02-24T08:03:14.825000Z | 2026-02-24T08:03:14.825000Z | Lec. | На практике этот метод часто применяется на уровне классов активов, а не отдельно взятых ценных бумаг [2] | false | true | false |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.