id
int64
18
18.8k
created_at
timestamp[ns, tz=UTC]date
2026-02-23 07:30:20
2026-02-24 14:51:09
updated_at
timestamp[ns, tz=UTC]date
2026-02-23 08:08:14
2026-02-24 14:51:09
doc_name
stringclasses
1 value
input
stringlengths
11
9.24k
output
stringlengths
0
738
is_personal
bool
2 classes
is_sentence
bool
2 classes
is_corrected
bool
2 classes
6,757
2026-02-24T08:06:06.926000Z
2026-02-24T08:06:06.926000Z
Lec.
Так же, как и алгоритм A2C, DDPG относится к классу “actor-critic” алгоритмов
false
true
false
6,756
2026-02-24T08:06:05.162000Z
2026-02-24T08:06:05.162000Z
Lec.
Алгоритм DDPG (Deep Deterministic Policy Gradient) является model-free методом обучения с подкреплением, который рассчитан на задачи с непрерывном пространством действий [14]
false
true
false
6,755
2026-02-24T08:06:03.407000Z
2026-02-24T08:06:03.407000Z
Lec.
Вместо одношаговой TD-ошибки в A2C часто используется шаговое приближение возврата:. (13)
false
true
false
6,754
2026-02-24T08:06:01.847000Z
2026-02-24T08:06:01.847000Z
Lec.
Рис. 2 Псевдокод алгоритма A2C
false
true
false
6,753
2026-02-24T08:06:00.035000Z
2026-02-24T08:06:00.035000Z
Lec.
Как результат алгоритм постепенно снижает (12), что эквивалентно росту целевой функции (4)
false
true
false
6,752
2026-02-24T08:05:57.969000Z
2026-02-24T08:05:57.969000Z
Lec.
Параметры актора и критика обновляются совместно через суммарную функцию потерь для всей модели:. (12). – коэффициент, который определяет вклад “критика” в градиент обновления
false
true
false
6,751
2026-02-24T08:05:56.269000Z
2026-02-24T08:05:56.269000Z
Lec.
Функция потерь критика задается как мат. ожидание квадрата TD-ошибки:. (11)
false
true
false
6,750
2026-02-24T08:05:54.470000Z
2026-02-24T08:05:54.470000Z
Lec.
Стоит отметить, что для стабилизации обучения и улучшения исследования среды к функции потерь актора добавляется энтропийный регуляризатор:. (10)
false
true
false
6,749
2026-02-24T08:05:52.849000Z
2026-02-24T08:05:52.849000Z
Lec.
Политик актора обучается не напрямую градиентном подъемом , а при помощи минимизации функции потерь:. (9)
false
true
false
6,748
2026-02-24T08:05:51.218000Z
2026-02-24T08:05:51.218000Z
Lec.
Согласно теореме политики-градиента [13] градиент функции (4) можно выразить следующим образом:. (8)
false
true
false
6,747
2026-02-24T08:05:49.671000Z
2026-02-24T08:05:49.671000Z
Lec.
Для максимизации величины (4) используются методы политики-градиента с корректировкой параметров политики в направлении увеличения
false
true
false
6,746
2026-02-24T08:05:48.104000Z
2026-02-24T08:05:48.104000Z
Lec.
За счет этого обучение актора становится стабильнее и более эффективным
false
true
false
6,745
2026-02-24T08:05:46.384000Z
2026-02-24T08:05:46.384000Z
Lec.
Таким образом, TD-ошибка является оценкой преимущества совершенного действия
false
true
false
6,744
2026-02-24T08:05:44.594000Z
2026-02-24T08:05:44.594000Z
Lec.
Подставляя определение (6) в формулу (5), получим:. (7)
false
true
false
6,743
2026-02-24T08:05:42.972000Z
2026-02-24T08:05:42.972000Z
Lec.
В алгоритме A2C не вычисляется непосредственно
false
true
false
6,742
2026-02-24T08:05:41.262000Z
2026-02-24T08:05:41.262000Z
Lec.
Таким образом, показывает, насколько действие в состоянии лучше или хуже среднего поведения согласно политике. , то действие приносит больше награды, чем в среднем ожидается в состоянии. , то действие менее выгодно, чем усредненное поведение политики
false
true
false
6,741
2026-02-24T08:05:39.557000Z
2026-02-24T08:05:39.557000Z
Lec.
В алгоритме A2C функция преимущества определяется как:. – функция ценности состояния (state-value), равная ожидаемому вознаграждению при начале в состоянии и дальнейшем следовании политике. – функция ценности действия (action-value), равная ожидаемому суммарному вознаграждению при нахождении в состоянии выполнении де...
false
true
false
6,740
2026-02-24T08:05:37.498000Z
2026-02-24T08:05:37.498000Z
Lec.
Для каждого шага , TD-ошибка определяется как:. – состояние в момент времени t,. – выбранное действие,. – вознаграждение, полученное при переходе в новое состояние ,. – оценка ценности состояния (state-value), выдаваемая критиком с параметрами ,. – коэффициент дисконтирования
false
true
false
6,739
2026-02-24T08:05:35.800000Z
2026-02-24T08:05:35.800000Z
Lec.
Для обучения модели критика применяется метод временных разностей (temporal difference, TD)
false
true
false
6,738
2026-02-24T08:05:34.178000Z
2026-02-24T08:05:34.178000Z
Lec.
Рис. 1 Классификация алгоритмов A2C и DDPG
false
true
false
6,737
2026-02-24T08:05:32.384000Z
2026-02-24T08:05:32.384000Z
Lec.
В обновлении актора используется оценка функции преимущества (Advantage Function), которая показывает, насколько полученная награда превышает среднее ожидаемое значение
false
true
false
6,736
2026-02-24T08:05:30.692000Z
2026-02-24T08:05:30.692000Z
Lec.
Алгоритм A2C (Advantage Actor-Critic) основан на архитектуре “актор-критик” и включает два компонента: актор – модель, которая определяет политику и на основе состояния среды выбирает действие; критик –модель, которая приближенно оценивает ценностную функцию (Value Function) и оценивает качество действий [12]
false
true
false
6,735
2026-02-24T08:05:28.886000Z
2026-02-24T08:05:28.886000Z
Lec.
Таким образом, называется ожидаемым совокупным вознаграждением (expected return) при следовании политике с параметрами
false
true
false
6,734
2026-02-24T08:05:27.240000Z
2026-02-24T08:05:27.240000Z
Lec.
Предел суммирования T может обозначать либо время окончания эпизода, либо стремиться к бесконечности в случае непрерывного взаимодействия (при бесконечная сумма сходится) [9]
false
true
false
6,733
2026-02-24T08:05:25.586000Z
2026-02-24T08:05:25.586000Z
Lec.
Формально цель агента определяется как максимизация величины:. (4). где случайная величина – награда, полученная на шаге , мат. ожидание рассчитывается с учётом случайного характера среды, а при использовании стохастической модели, с учётом вероятностного выбора действий самим агентом
false
true
false
6,732
2026-02-24T08:05:23.221000Z
2026-02-24T08:05:23.221000Z
Lec.
Для политики (стратегии) агента , параметризованной , обычно вводится функция качества политики – математическое ожидание дисконтированной суммы вознаграждений, полученных агентом с течением времени [9]
false
true
false
6,731
2026-02-24T08:05:21.658000Z
2026-02-24T08:05:21.658000Z
Lec.
Агент, действующий в среде MDP, стремится максимизировать кумулятивное (суммарное) вознаграждение при взаимодействии со средой
false
true
false
6,730
2026-02-24T08:05:19.665000Z
2026-02-24T08:05:19.665000Z
Lec.
Граничные случаи: означает, что агент оценивает только непосредственную награду, делает агента, который учитывает долгосрочные последствия
false
true
false
6,729
2026-02-24T08:05:17.963000Z
2026-02-24T08:05:17.963000Z
Lec.
Если < 1, награды на n шагов в будущем дисконтируются как и тем самым отдалённые во времени результаты учитываются слабее ближайших [9]
false
true
false
6,728
2026-02-24T08:05:16.351000Z
2026-02-24T08:05:16.351000Z
Lec.
Определяет, насколько агент учитывает будущие награды при принятии решений
false
true
false
6,727
2026-02-24T08:05:14.807000Z
2026-02-24T08:05:14.807000Z
Lec.
Таким образом, функция моделирует как внешние рыночные изменения, так и обновление долей портфеля под действием агента. – коэффициент дисконтирования 0 1
false
false
false
6,726
2026-02-24T08:05:13.036000Z
2026-02-24T08:05:13.036000Z
Lec.
Состояние включает также внутренние переменные (структуру портфеля), которые прямо определяются действием
false
true
false
6,725
2026-02-24T08:05:11.512000Z
2026-02-24T08:05:11.512000Z
Lec.
В текущей работе предполагается, что динамика цен стохастическая и не зависит от действий агента, в предположении того, что объём торгов агента мал
false
true
false
6,724
2026-02-24T08:05:09.810000Z
2026-02-24T08:05:09.810000Z
Lec.
Распределение вероятностей – вероятность перехода в состояние при выполнении действия из состояния Эта функция показывает изменение цен на рынке: например, как изменятся котировки и состояние портфеля к следующему шагу после принятия решения
false
true
false
6,723
2026-02-24T08:05:07.846000Z
2026-02-24T08:05:07.846000Z
Lec.
В простейшем случае можно определить – разницу стоимости портфеля до и после совершения действия. – функция, задающая динамику среды
false
true
false
6,722
2026-02-24T08:05:06.287000Z
2026-02-24T08:05:06.287000Z
Lec.
Часто используют относительный прирост капитала (доходность за период) или его логарифм
false
true
false
6,721
2026-02-24T08:05:04.690000Z
2026-02-24T08:05:04.690000Z
Lec.
Цель агента – максимизировать суммарно полученную награду
false
true
false
6,720
2026-02-24T08:05:03.181000Z
2026-02-24T08:05:03.181000Z
Lec.
Вознаграждение – это численный ответ от среды агенту после совершения действия
false
true
false
6,719
2026-02-24T08:05:01.244000Z
2026-02-24T08:05:01.244000Z
Lec.
В контексте портфеля действие соответствует ребалансировке портфеля на шаге. – функция вознаграждения
false
true
false
6,718
2026-02-24T08:04:59.683000Z
2026-02-24T08:04:59.683000Z
Lec.
Элемент – решение агента в состоянии
false
true
false
6,717
2026-02-24T08:04:57.807000Z
2026-02-24T08:04:57.807000Z
Lec.
В задачах инвестирования состояние обычно включает признаки рынка (финансовые индикаторы, цены акций за последние дни и т.д.) и распределение капитала между активами на шаге. – множество действий
false
true
false
6,716
2026-02-24T08:04:55.951000Z
2026-02-24T08:04:55.951000Z
Lec.
Элемент описывает информацию о системе в текущий момент времени (например, состояние рыночной среды и портфеля)
false
true
false
6,715
2026-02-24T08:04:54.160000Z
2026-02-24T08:04:54.160000Z
Lec.
Формальным языком MDP для оптимизации портфеля можно определить как кортеж , где:. – множество состояний
false
true
false
6,714
2026-02-24T08:04:52.387000Z
2026-02-24T08:04:52.387000Z
Lec.
Таким образом, полностью описывает динамику без учёта предшествующих состояний
false
true
false
6,713
2026-02-24T08:04:50.703000Z
2026-02-24T08:04:50.703000Z
Lec.
Это подразумевает вся необходимая информацию о прошлых взаимодействиях уже учтена состояние , и не нужна информация о предыдущих шагах при известном текущем состоянии [10]
false
true
false
6,712
2026-02-24T08:04:49.047000Z
2026-02-24T08:04:49.047000Z
Lec.
Процесс называется марковским, если вероятность перехода в новое состояние зависит только от выбранного действия и текущего состояния [10]:. (3)
false
true
false
6,711
2026-02-24T08:04:47.560000Z
2026-02-24T08:04:47.560000Z
Lec.
Агент (в данном случае трейдинговый алгоритм) последовательно шаг за шагом принимает решения по ребалансировке портфеля, наблюдая состояние рынка и получая вознаграждение за увеличение капитала
false
true
false
6,710
2026-02-24T08:04:45.789000Z
2026-02-24T08:04:45.789000Z
Lec.
Задача управления портфелем при использовании алгоритмов глубокого машинного обучения с подкреплением может быть сформулирована как марковский процесс принятия решений (Markov Decision Process, MDP)
false
true
false
6,709
2026-02-24T08:04:43.970000Z
2026-02-24T08:04:43.970000Z
Lec.
Как итог, можно сделать, вывод, что методы глубокого машинного обучения с подкреплением в ряде исследований обходят классические стратегии по основным метрикам, однако их эффективность существенно зависит от настройки алгоритмов
false
true
false
6,708
2026-02-24T08:04:42.184000Z
2026-02-24T08:04:42.184000Z
Lec.
PPO, наоборот, в отличие от DDPG, оказался наименее эффективным без добавления скрытых слоев, а эффективность TD3 увеличивалась по мере увеличения скрытых слоев
false
true
false
6,707
2026-02-24T08:04:40.386000Z
2026-02-24T08:04:40.386000Z
Lec.
Алгоритм DDPG показывал наибольший коэффициент Шарпа на базовой модификации, без добавления скрытых слоев
false
true
false
6,706
2026-02-24T08:04:38.628000Z
2026-02-24T08:04:38.628000Z
Lec.
Было установлено, что алгоритм A2C без добавления скрытых слоев имеет наибольшую накопленную доходность, а при добавлении слоев в работе агента улучшается управление риском (увеличение коэффициента Шарпа)
false
true
false
6,705
2026-02-24T08:04:37.059000Z
2026-02-24T08:04:37.059000Z
Lec.
Портфель в исследовании составлялся из 45 индонезийских акций
false
true
false
6,704
2026-02-24T08:04:35.308000Z
2026-02-24T08:04:35.308000Z
Lec.
В одном из самых свежих исследований [18] был проведен сравнительный анализ четырех алгоритмов RL (A2C, DDPG, PPO, TD3) c разным количеством скрытых слоев в нейросетях
false
true
false
6,703
2026-02-24T08:04:33.545000Z
2026-02-24T08:04:33.545000Z
Lec.
Работа агента была сравнена с классическим подходом MVO и по двум критериям (Sharp Ratio, накопленная доходность) агент RL оказался более эффективен
false
true
false
6,702
2026-02-24T08:04:31.765000Z
2026-02-24T08:04:31.765000Z
Lec.
В статье [17] был использован алгоритм DDPG в задаче торговли акциями
false
false
false
6,701
2026-02-24T08:04:29.366000Z
2026-02-24T08:04:29.366000Z
Lec.
Другие исследования подтверждают эффективность RL методов
false
true
false
6,700
2026-02-24T08:04:27.602000Z
2026-02-24T08:04:27.602000Z
Lec.
Это система была апробирована на криптовалютном рынке и в течение пятидесятидневного периода при комиссионной ставке 0.25% произошел четырехкратный рост капитала
false
true
false
6,699
2026-02-24T08:04:25.825000Z
2026-02-24T08:04:25.825000Z
Lec.
В исследовании [16] была представлена модель RL, основанную на ансамбле разных архитектур (CNN, RNN, LSTM)
false
true
false
6,698
2026-02-24T08:04:24.076000Z
2026-02-24T08:04:24.076000Z
Lec.
Глубокие нейронные сети и методы обучения с подкреплением становятся основой для адаптивных инвестиционных стратегий, способных учитывать сложную информацию касательно рынка
false
true
false
6,697
2026-02-24T08:04:22.315000Z
2026-02-24T08:04:22.315000Z
Lec.
Model-free алгоритмы учатся напрямую через процесс проб и ошибок, оценивая только ценности состояний и действий по полученным наградам
false
true
false
6,696
2026-02-24T08:04:20.766000Z
2026-02-24T08:04:20.766000Z
Lec.
Имея такую модель, агент может просчитывать шаги наперед, прогнозируя результаты своих действий
false
true
false
6,695
2026-02-24T08:04:19.020000Z
2026-02-24T08:04:19.020000Z
Lec.
Model-based методы предполагают, что агент строит модель среды
false
true
false
6,694
2026-02-24T08:04:17.448000Z
2026-02-24T08:04:17.448000Z
Lec.
Есть еще одна классификация алгоритмов глубокого обучения с подкреплением на два типа: model-based и model-free [11]
false
true
false
6,693
2026-02-24T08:04:15.698000Z
2026-02-24T08:04:15.698000Z
Lec.
Оn-policy методы улучшают ту политику, которой придерживается агент, тогда как в off-policy алгоритмах предполагается обучение таким образом, что оценка и улучшение могут относиться к иной политике, а не к той, которая собирает данные
false
true
false
6,692
2026-02-24T08:04:13.808000Z
2026-02-24T08:04:13.808000Z
Lec.
В свою очередь, off-policy алгоритмы обучаются на данных, которые были собранны другой поведенческой политикой [11]
false
true
false
6,691
2026-02-24T08:04:12.062000Z
2026-02-24T08:04:12.062000Z
Lec.
Другими словами обновление стратегии происходит на основе действий, совершаемых текущей политикой агента
false
true
false
6,690
2026-02-24T08:04:10.411000Z
2026-02-24T08:04:10.411000Z
Lec.
Считается, что алгоритм относится к типу on-policy, если он оценивает и улучшает ту же самую политику, которой следует
false
true
false
6,689
2026-02-24T08:04:08.804000Z
2026-02-24T08:04:08.804000Z
Lec.
Алгоритмы глубокого обучения с подкреплением (Reinforcement Learning, RL) можно разделить на два типа: on-policy и off-policy [11]
false
true
false
6,688
2026-02-24T08:04:06.984000Z
2026-02-24T08:04:06.984000Z
Lec.
Как итог, можно сделать вывод, что современные методы портфельной оптимизации сочетают в себе строгий математический аппарат, гибкость и высокую адаптивность к индивидуальным запросам инвесторов
false
true
false
6,687
2026-02-24T08:04:05.199000Z
2026-02-24T08:04:05.199000Z
Lec.
А прогнозирование параметров с помощью моделей ARIMA-GARCH и алгоритмов машинного обучения позволило улучшить точность оценки входных данных
false
true
false
6,686
2026-02-24T08:04:03.428000Z
2026-02-24T08:04:03.428000Z
Lec.
Модификации постановок задач, такие как включение целевой доходности или ограничения на состав портфеля, сделали модели более похожими на реальные условия рынка
false
true
false
6,685
2026-02-24T08:04:01.671000Z
2026-02-24T08:04:01.671000Z
Lec.
Применение коэффициента Шарпа и других относительных показателей эффективности улучшило способность оценивать риск при составлении инвестиционного портфеля
false
true
false
6,684
2026-02-24T08:03:59.913000Z
2026-02-24T08:03:59.913000Z
Lec.
Классическая модель Марковица была дополнена альтернативными метриками риска (VaR, CvaR, Max Drawdown), что позволило точнее учитывать неблагоприятные условия рынка
false
true
false
6,683
2026-02-24T08:03:58.147000Z
2026-02-24T08:03:58.147000Z
Lec.
Таким образом, методы оптимизации портфеля продолжают совершенствоваться, охватывая все больше подходов
false
true
false
6,682
2026-02-24T08:03:56.414000Z
2026-02-24T08:03:56.414000Z
Lec.
В систематическом обзоре литературы [8] отмечается, что при корректном и грамотном применении методы машинного обучения дают значительное преимущество: в рассмотренных исследованиях применение моделей прогнозирования на основе глубокого обучения повышало ожидаемую доходность портфеля и увеличивало диверсификацию в срав...
false
true
false
6,681
2026-02-24T08:03:54.605000Z
2026-02-24T08:03:54.605000Z
Lec.
Стандартные эконометрические модели (ARIMA, GARCH) были дополнены методами машинного обучения: алгоритмы регрессии, случайный лес, градиентный бустинг
false
true
false
6,680
2026-02-24T08:03:52.962000Z
2026-02-24T08:03:52.962000Z
Lec.
Были улучшены средства прогнозирования входных параметров – ожидаемых доходностей, ковариации
false
false
false
6,679
2026-02-24T08:03:51.201000Z
2026-02-24T08:03:51.201000Z
Lec.
Data Science) оказало значительное влияние на развитие методов задачи оптимизации портфеля
false
true
false
6,678
2026-02-24T08:03:49.271000Z
2026-02-24T08:03:49.271000Z
Lec.
Стремительное развитие анализа данных (англ
false
true
false
6,677
2026-02-24T08:03:47.480000Z
2026-02-24T08:03:47.480000Z
Lec.
Рассмотренный подход показал себя как практичный, так как он позволил агенту собрать сбалансированный портфель, который согласуется с персональными финансовыми целями (задаваемый уровень доходности) при контроле уровня риска
false
true
false
6,676
2026-02-24T08:03:45.725000Z
2026-02-24T08:03:45.725000Z
Lec.
Прогнозирование средней доходности и волатильности каждого актива происходит на основе комбинации моделей ARIMA-GARCH, а после решается оптимизационная задача максимизации доходности при ограничениях VaR и заданного порога ожидаемой доходности
false
true
false
6,675
2026-02-24T08:03:44.074000Z
2026-02-24T08:03:44.074000Z
Lec.
В рассматриваемом исследовании в классическую Mean-VaR модель введено ограничение на целевую доходность портфеля
false
true
false
6,674
2026-02-24T08:03:42.316000Z
2026-02-24T08:03:42.316000Z
Lec.
Примером исследования, где классическая постановка задачи была скорректирована для цели исследования является работа [7]
false
true
false
6,673
2026-02-24T08:03:40.602000Z
2026-02-24T08:03:40.602000Z
Lec.
На практике в прикладных задачах оптимизации портфеля нередко задаются дополнительные задачи: обеспечение определенного уровня дохода (aнгл. target return), соблюдение точечных правил (как правило ограничения на концентрацию какого-либо актива в портфеле), учет налоговых издержек
false
true
false
6,672
2026-02-24T08:03:38.797000Z
2026-02-24T08:03:38.797000Z
Lec.
Авторы исследования делают вывод, что в периоды высокой рыночной волатильности стратегия управления портфеля, опирающаяся на использование подхода минимизации максимальной просадки, несет меньшие убытки по сравнению с традиционными подходами, основанными только на волатильности или дисперсии
false
true
false
6,671
2026-02-24T08:03:37.013000Z
2026-02-24T08:03:37.013000Z
Lec.
В исследовании [6] было установлено, что оптимизация портфеля с использованием максимальной просадки как основной целевой функции позволяет снизить риски в периоды повышенной нестабильности рынка
false
true
false
6,670
2026-02-24T08:03:35.228000Z
2026-02-24T08:03:35.228000Z
Lec.
Другой важной метрикой для оценки риска инвестиционного портфеля является максимальная просадка (2) (Max Drawdown), которая отражает наибольшее снижение стоимости актива или портфеля начиная от момента предыдущего максимума до наименьшей точки в рассматриваемом периоде. (2). – стоимость портфеля в момент времени t. –...
false
true
false
6,669
2026-02-24T08:03:33.576000Z
2026-02-24T08:03:33.576000Z
Lec.
В 1960-х годах Шарп представил модель ценообразования капитальных активов [5] (Capital Asset Pricing Model, CAMP) и ввел так называемый коэффициента Шарпа (1), который впоследствии был признан научным сообществом простым, но ценным инструментом для оценки эффективности портфеля с учетом корректировки на риск:. (1). –...
false
true
false
6,668
2026-02-24T08:03:31.652000Z
2026-02-24T08:03:31.652000Z
Lec.
Преимущество такого подхода оказалось не только в получении более стабильных результатов (т.е более консервативных портфелей), но и в возможности применения к широкому классу распределения доходностей
false
true
false
6,667
2026-02-24T08:03:29.952000Z
2026-02-24T08:03:29.952000Z
Lec.
Так, например, в исследовании [4] Рокафеллар и Урысев решили сформулировать задачу по оптимизации портфеля как задачу минимизации CvaR
false
true
false
6,666
2026-02-24T08:03:28.196000Z
2026-02-24T08:03:28.196000Z
Lec.
Величина CvaR характеризует средний убыток при превышении заданного порога потерь (VaR) на заданном уровне доверия
false
true
false
6,665
2026-02-24T08:03:26.575000Z
2026-02-24T08:03:26.575000Z
Lec.
Были разработаны критерии Value at Risk (VaR) и Conditional Value at Risk (CVaR), фокус которых держится на крайне неблагоприятных исходах
false
true
false
6,664
2026-02-24T08:03:24.800000Z
2026-02-24T08:03:24.800000Z
Lec.
В текущем разделе будут рассмотрены основные направления развития теории портфельного управления
false
true
false
6,663
2026-02-24T08:03:23.257000Z
2026-02-24T08:03:23.257000Z
Lec.
Было предложено немало методов, как расширяющих модель MVO, так и предлагающих альтернативу, c целью устранения накладываемых ограничений и повышения эффективности стратегий управления инвестиционными портфелями
false
true
false
6,662
2026-02-24T08:03:21.489000Z
2026-02-24T08:03:21.489000Z
Lec.
Как результат распределение капитала получается более диверсифицированным и устойчивым к ошибкам
false
true
false
6,661
2026-02-24T08:03:19.945000Z
2026-02-24T08:03:19.945000Z
Lec.
Субъективные оценки инвесторов в модели позволили получить более устойчивые оценки ожидаемой доходности активов
false
true
false
6,660
2026-02-24T08:03:18.201000Z
2026-02-24T08:03:18.201000Z
Lec.
Значительный прогресс в улучшении модели MVO произошел в модели Блэка-Литтермана посредством учета мнений инвесторов о будущем рынке [3]
false
true
false
6,659
2026-02-24T08:03:16.459000Z
2026-02-24T08:03:16.459000Z
Lec.
Такой подход, именуемый Asset Allocation, позволяет снизить размерность задачи и в свою очередь влияние ошибок оценки, так как количество оцениваемых параметров (ожидаемых доходностей и ковариаций) значительно меньше при агрегировании активов по классам
false
true
false
6,658
2026-02-24T08:03:14.825000Z
2026-02-24T08:03:14.825000Z
Lec.
На практике этот метод часто применяется на уровне классов активов, а не отдельно взятых ценных бумаг [2]
false
true
false