Buckets:

|
download
raw
155 kB

Title: Efficient Reinforcement Learning for Global Decision Making in the Presence of Local Agents at Scale

URL Source: https://arxiv.org/html/2403.00222

Markdown Content: Abstract 1Introduction 2Preliminaries 3Method and Theoretical Results 4Proof Outline 5Experiments 6Conclusion, Limitations, and Future Work 7Acknowledgements References Efficient Reinforcement Learning for Global Decision Making in the Presence of Local Agents at Scale Emile Anand Computing and Mathematical Sciences California Institute of Technology eanand@caltech.edu &Guannan Qu Department of Electrical and Computer Engineering Carnegie Mellon University gqu@andrew.cmu.edu Work done while author was a visiting student at Carnegie Mellon University. Abstract

We study reinforcement learning for global decision-making in the presence of local agents, where the global decision-maker makes decisions affecting all local agents, and the objective is to learn a policy that maximizes the joint rewards of all the agents. Such problems find many applications, e.g. demand response, EV charging, queueing, etc. In this setting, scalability has been a long-standing challenge due to the size of the state space which can be exponential in the number of agents. This work proposes the SUBSAMPLE-Q algorithm where the global agent subsamples ๐‘˜ โ‰ค ๐‘› local agents to compute a policy in time that is polynomial in ๐‘˜ . We show that this learned policy converges to the optimal policy in the order of ๐‘‚ ~ โข ( 1 / ๐‘˜ + ๐œ– ๐‘˜ , ๐‘š ) as the number of sub-sampled agents ๐‘˜ increases, where ๐œ– ๐‘˜ , ๐‘š is the Bellman noise. Finally, we validate the theory through numerical simulations in a demand-response setting and a queueing setting.

1Introduction

Global decision-making for local agents, where a global agent makes decisions that affect a large number of local agents, is a classical problem that has been widely studied in many forms (Foster et al., 2022; Qin et al., 2023; Foster et al., 2023) and can be found in many applications, e.g. network optimization, power management, and electric vehicle charging (Kim & Giannakis, 2017; Zhang & Pavone, 2016; Molzahn et al., 2017). However, a critical challenge is the uncertain nature of the underlying system, which can be very hard to model precisely. Reinforcement Learning (RL) has seen an impressive performance in a wide array of applications, such as the game of Go (Silver et al., 2016), autonomous driving (Kiran et al., 2022), and robotics (Kober et al., 2013). More recently, RL has emerged as a powerful tool for learning to control unknown systems (Ghai et al., 2023; Lin et al., 2023; 2024a; 2024b), and hence has great potential for decision-making for multi-agent systems, including the problem of global decision making for local agents.

However, RL for multi-agent systems, where the number of agents increases, is intractable due to the curse of dimensionality (Blondel & Tsitsiklis, 2000). For instance, RL algorithms such as tabular ๐‘„ -learning and temporal difference (TD) learning require storing a ๐‘„ -function (Bertsekas & Tsitsiklis, 1996; Powell, 2007) that is as large as the state-action space. However, even if the individual agentsโ€™ state space is small, the global state space can take values from a set of size exponentially large in the number of agents. In the case where the systemโ€™s rewards are not discounted, reinforcement learning on multi-agent systems is provably NP-hard (Blondel & Tsitsiklis, 2000), This problem of scalability has been observed in a variety of settings (Papadimitriou & Tsitsiklis, 1999; Guestrin et al., 2003). A promising line of research that has emerged over recent years constrains the problem to a networked instance to enforce local interactions between agents (Lin et al., 2020; 2021; Qu et al., 2020b; Jing et al., 2022; Chu et al., 2020). This has led to scalable algorithms where each agent only needs to consider the agents in its neighborhood to derive approximately optimal solutions. However, these results do not apply to our setting where one global agent interacts with many local agents. This can be viewed as a star graph, where the neighborhood of the central decision-making agent is large.

Beyond the networked formulation, another exciting line of work that addresses this intractability is mean-field RL (Yang et al., 2018). The mean-field RL approach assumes that all the agents are homogeneous in their state and action spaces, which allows the interactions between agents to be approximated by a representative โ€œmeanโ€ agent. This reduces the complexity of ๐‘„ -learning to polynomial in the number of agents, and learns an approximately optimal policy where the approximation error decays with the number of agents (Gu et al., 2021; 2022a). However, mean-field RL does not directly transfer to our setting as the global decision-making agent is heterogeneous to the local agents. Further, when the number of local agents is large, it might still be impractical to store a polynomially-large ๐‘„ -table (where the polynomialโ€™s degree is the size of the state space for a single agent). This motivates the following fundamental question: can we design a fast and competitive policy-learning algorithm for a global decision-making agent in a system with many local agents?

Contributions. We answer this question affirmatively. Our key contributions are outlined below.

โ€ข

Subsampling Algorithm. We propose SUBSAMPLE-Q, an algorithm designed to address the challenge of global decision-making in systems with a large number of pseudo-heterogeneous local agents. We model the problem as a Markov Decision Process with a global decision-making agent and ๐‘› local agents. SUBSAMPLE-Q (Algorithms 1 and 2) first chooses ๐‘˜ local agents to learn a deterministic policy ๐œ‹ ^ ๐‘˜ , ๐‘š est , where ๐‘š is the number of samples used to update the ๐‘„ -functionโ€™s estimates, by performing mean-field value iteration on the ๐‘˜ local agents to learn ๐‘„ ๐‘˜ , ๐‘š est , which can be viewed as a smaller ๐‘„ function of size polynomial in ๐‘˜ , instead of polynomial in ๐‘› (as done in the mean-field RL literature). It then deploys a stochastic policy ๐œ‹ ๐‘˜ , ๐‘š est that chooses ๐‘˜ local agents, uniformly at random, at each step to find an action for the global agent using ๐œ‹ ^ ๐‘˜ , ๐‘š est .

โ€ข

Theoretical Guarantee. Theorem 3.4 shows that the performance gap between ๐œ‹ ๐‘˜ , ๐‘š est and the optimal policy ๐œ‹ โˆ— is ๐‘‚ โข ( 1 ๐‘˜ + ๐œ– ๐‘˜ , ๐‘š ) , where ๐œ– ๐‘˜ , ๐‘š is the Bellman noise in ๐‘„ ๐‘˜ , ๐‘š est . The choice of ๐‘˜ reveals a fundamental trade-off between the size of the ๐‘„ -table stored and the optimality of ๐œ‹ ๐‘˜ , ๐‘š est . For ๐‘˜

๐‘‚ โข ( log โก ๐‘› ) , SUBSAMPLE-Q runs in time polylogarithmic in ๐‘› , creating an exponential speedup from the previously best-known polytime mean-field RL methods, with a decaying optimality gap.

โ€ข

Numerical Simulations. We demonstrate the effectiveness of SUBSAMPLE-Q in a power system demand-response problem in Example 5.1, and in a queueing problem in Example 5.2. A key inspiration of our approach is the power-of-two-choices in the queueing theory literature (Mitzenmacher & Sinclair, 1996), where a dispatcher subsamples two queues to make decisions. Our work generalizes this to a broader decision-making problem.

While our result is theoretical in nature, it is our hope that SUBSAMPLE-Q will lead to further investigation into the power of sampling in Markov games and inspire practical algorithms.

2Preliminaries

Notation. For ๐‘˜ , ๐‘š โˆˆ โ„• where ๐‘˜ โ‰ค ๐‘š , let ( [ ๐‘š ] ๐‘˜ ) denote the set of ๐‘˜ -sized subsets of [ ๐‘š ]

{ 1 , โ€ฆ , ๐‘š } . Let [ ๐‘š ] ยฏ

{ 0 } โˆช [ ๐‘š ] . For any vector ๐‘ง โˆˆ โ„ ๐‘‘ , let โ€– ๐‘ง โ€– 1 and โ€– ๐‘ง โ€– โˆž denote the standard โ„“ 1 and โ„“ โˆž norms of ๐‘ง respectively. Let โ€– ๐€ โ€– 1 denote the matrix โ„“ 1 -norm of ๐€ โˆˆ โ„ ๐‘› ร— ๐‘š . Given a collection of variables ๐‘  1 , โ€ฆ , ๐‘  ๐‘› the shorthand ๐‘  ฮ” denotes the set { ๐‘  ๐‘– : ๐‘– โˆˆ ฮ” } for ฮ” โІ [ ๐‘› ] . We use ๐‘‚ ~ โข ( โ‹… ) to suppress polylogarithmic factors in all problem parameters except ๐‘› . For any discrete measurable space ( ๐’ฎ , โ„ฑ ) , the total variation distance between probability measures ๐œ‡ 1 , ๐œ‡ 2 is given by TV โข ( ๐œ‡ 1 , ๐œ‡ 2 )

1 2 โข โˆ‘ ๐‘  โˆˆ ๐’ฎ | ๐œ‡ 1 โข ( ๐‘  ) โˆ’ ๐œ‡ 2 โข ( ๐‘  ) | . Finally, for ๐ถ โŠ‚ โ„ , ฮ  ๐ถ : โ„ โ†’ ๐ถ denotes a projection onto ๐ถ in โ„“ 1 -norm.

2.1Problem Formulation

Problem Statement. We consider a system of ๐‘› + 1 agents given by ๐’ฉ

{ 0 } โˆช [ ๐‘› ] . Let agent 0 be the โ€œglobal agentโ€ decision-maker, and agents [ ๐‘› ] be the โ€œlocalโ€ agents. In this model, each agent ๐‘– โˆˆ [ ๐‘› ] is associated with a state ๐‘  ๐‘– โˆˆ ๐’ฎ ๐‘™ , where ๐’ฎ ๐‘™ is the local agentโ€™s state space. The global agent is associated with a state ๐‘  ๐‘” โˆˆ ๐’ฎ ๐‘” and action ๐‘Ž ๐‘” โˆˆ ๐’œ ๐‘” , where ๐’ฎ ๐‘” is the global agentโ€™s state space and ๐’œ ๐‘” is the global agentโ€™s action space. The global state of all agents is given by ( ๐‘  ๐‘” , ๐‘  1 , โ€ฆ , ๐‘  ๐‘› ) โˆˆ ๐’ฎ := ๐’ฎ ๐‘” ร— ๐’ฎ ๐‘™ ๐‘› . At each time-step ๐‘ก , the next state for all the agents is independently generated by stochastic transition kernels ๐‘ƒ ๐‘” : ๐’ฎ ๐‘” ร— ๐’ฎ ๐‘” ร— ๐’œ ๐‘” โ†’ [ 0 , 1 ] and ๐‘ƒ ๐‘™ : ๐’ฎ ๐‘™ ร— ๐’ฎ ๐‘™ ร— ๐’ฎ ๐‘” โ†’ [ 0 , 1 ] as follows:

๐‘  ๐‘” ( ๐‘ก + 1 ) โˆผ ๐‘ƒ ๐‘” ( โ‹… | ๐‘  ๐‘” ( ๐‘ก ) , ๐‘Ž ๐‘” ( ๐‘ก ) ) ,

(1)

๐‘  ๐‘– ( ๐‘ก + 1 ) โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– ( ๐‘ก ) , ๐‘  ๐‘” ( ๐‘ก ) ) , โˆ€ ๐‘– โˆˆ [ ๐‘› ]

(2)

The global agent selects ๐‘Ž ๐‘” โข ( ๐‘ก ) โˆˆ ๐’œ ๐‘” . Next, the agents receive a structured reward ๐‘Ÿ : ๐’ฎ ร— ๐’œ ๐‘” โ†’ โ„ , given by Equation 3, where the choice of functions ๐‘Ÿ ๐‘” and ๐‘Ÿ ๐‘™ is flexible and application-specific.

๐‘Ÿ โข ( ๐‘  , ๐‘Ž ๐‘” )

๐‘Ÿ ๐‘” โข ( ๐‘  ๐‘” , ๐‘Ž ๐‘” ) โŸ global component + 1 ๐‘› โข โˆ‘ ๐‘– โˆˆ [ ๐‘› ] ๐‘Ÿ ๐‘™ โข ( ๐‘  ๐‘– , ๐‘  ๐‘” ) โŸ local component

(3)

We define a policy ๐œ‹ : ๐’ฎ โ†’ ๐’ซ โข ( ๐’œ ๐‘” ) as a map from states to distributions of actions such that ๐‘Ž ๐‘” โˆผ ๐œ‹ ( โ‹… | ๐‘  ) . When a policy is executed, it generates a trajectory ( ๐‘  0 , ๐‘Ž ๐‘” 0 , ๐‘Ÿ 0 ) , โ€ฆ , ( ๐‘  ๐‘‡ , ๐‘Ž ๐‘” ๐‘‡ , ๐‘Ÿ ๐‘‡ ) via the process ๐‘Ž ๐‘” ๐‘ก โˆผ ๐œ‹ โข ( ๐‘  ๐‘ก ) , ๐‘  ๐‘ก + 1 โˆผ ( ๐‘ƒ ๐‘” , ๐‘ƒ ๐‘™ ) โข ( ๐‘  ๐‘ก , ๐‘Ž ๐‘” ๐‘ก ) , initialized at ๐‘  1 โˆผ ๐‘‘ 0 . We write โ„™ ๐œ‹ โข [ โ‹… ] and ๐”ผ ๐œ‹ โข [ โ‹… ] to denote the law and corresponding expectation for the trajectory under this process. The goal of the problem is to then learn a policy ๐œ‹ that maximizes the value function ๐‘‰ : ๐œ‹ ร— ๐’ฎ โ†’ โ„ which is the expected discounted reward for each ๐‘  โˆˆ ๐’ฎ given by ๐‘‰ ๐œ‹ โข ( ๐‘  )

๐”ผ ๐œ‹ โข [ โˆ‘ ๐‘ก

0 โˆž ๐›พ ๐‘ก โข ๐‘Ÿ โข ( ๐‘  โข ( ๐‘ก ) , ๐‘Ž ๐‘” โข ( ๐‘ก ) ) | ๐‘  โข ( 0 )

๐‘  ] , where ๐›พ โˆˆ ( 0 , 1 ) is a discounting factor. We write ๐œ‹ โˆ— as the optimal deterministic policy, which maximizes ๐‘‰ ๐œ‹ โข ( ๐‘  ) at all states. This model characterizes a crucial decision-making process in the presence of multiple agents where the information of all local agents is concentrated towards the decision maker, the global agent. So, the goal of the problem is to learn an approximately optimal policy which jointly minimizes the sample and computational complexities of learning the policy.

We make the following standard assumptions:

Assumption 2.1 (Finite state/action spaces).

We assume that the state spaces of all the agents and the action space of the global agent are finite: | ๐’ฎ ๐‘™ | , | ๐’ฎ ๐‘” | , | ๐’œ ๐‘” | < โˆž .

Assumption 2.2 (Bounded rewards).

The global and local components of the reward function are bounded. Specifically, โ€– ๐‘Ÿ ๐‘” โข ( โ‹… , โ‹… ) โ€– โˆž โ‰ค ๐‘Ÿ ~ ๐‘” , and โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž โ‰ค ๐‘Ÿ ~ ๐‘™ . Then, โ€– ๐‘Ÿ โข ( โ‹… , โ‹… ) โ€– โˆž โ‰ค ๐‘Ÿ ~ ๐‘” + ๐‘Ÿ ~ ๐‘™ := ๐‘Ÿ ~ .

Definition 2.1 ( ๐œ– -optimal policy).

Given a policy simplex ฮ  , a policy ๐œ‹ โˆˆ ฮ  is ๐œ– -optimal if for all ๐‘  โˆˆ ๐’ฎ , ๐‘‰ ๐œ‹ โข ( ๐‘  ) โ‰ฅ sup ๐œ‹ โˆ— โˆˆ ฮ  ๐‘‰ ๐œ‹ โˆ— โข ( ๐‘  ) โˆ’ ๐œ– .

Remark 2.2.

While this model requires the ๐‘› local agents to have homogeneous transition and reward functions, it allows heterogeneous initial states, which captures a pseudo-heterogeneous setting. For this, we assign a type to each local agent by letting ๐’ฎ ๐‘™

๐’ต ร— ๐’ฎ ๐‘™ ยฏ , where ๐’ต is a set of different types for each local agent, which is treated as part of the state for each local agent. This type state will be heterogeneous and will remain unchanged throughout the transitions. Hence, the transition and reward function will be different for different types of agents. Further, by letting ๐‘  ๐‘” โˆˆ ๐’ฎ ๐‘” := โˆ ๐‘ง โˆˆ ๐’ต [ ๐‘† ยฏ ๐‘” ] ๐‘ง and ๐‘Ž ๐‘” โˆˆ ๐’œ ๐‘” := โˆ ๐‘ง โˆˆ ๐’ต [ ๐ด ยฏ ๐‘” ] ๐‘ง correspond to a state/action vector where each element corresponds to a type ๐‘ง โˆˆ ๐’ต , the global agent can uniquely signal agents of each type.

2.2Related Work

This paper relates to two major lines of work which we describe below.

Multi-agent RL (MARL). MARL has a rich history starting with early works on Markov games used to characterize the decision-making process (Shapley, 1953; Littman, 1994), which can be regarded as a multi-agent extension to the Markov Decision Process (MDP). MARL has since been actively studied (Zhang et al., 2021) in a broad range of settings, such as cooperative and competitive agents. MARL is most similar to the category of โ€œsuccinctly describedโ€ MDPs (Blondel & Tsitsiklis, 2000) where the state/action space is a product space formed by the individual state/action spaces of multiple agents, and where the agents interact to maximize an objective function. Our work, which can be viewed as an essential stepping stone to MARL, also shares the curse of dimensionality.

A line of celebrated works (Qu et al., 2020b; Chu et al., 2020; Lin et al., 2020; 2021; Jing et al., 2022) constrain the problem to networked instances to enforce local agent interactions and find policies that maximize the objective function which is the expected cumulative discounted reward. By exploiting Gamarnikโ€™s spatial exponential decay property from combinatorial optimization (Gamarnik et al., 2009), they overcome the curse of dimensionality by truncating the problem to only searching over the policy space derived from the local neighborhood of agents that are atmost ๐œ… away from each other to find an ๐‘‚ โข ( ๐œŒ ๐‘˜ + 1 ) approximation of the maximized objective function for ๐œŒ โˆˆ ( 0 , 1 ) . However, since their algorithms have a complexity that is exponential in the size of the neighborhood, they are only tractable for sparse graphs. Therefore, these algorithms do not apply to our decision-making problem which can be viewed as a dense star graph (see Appendix A). The recently popular work on V-learning (Jin et al., 2021) reduces the dependence of the product action space to an additive dependence. However, since our work focuses on the action of the global decision-maker, the complexity in the action space is already minimal. Instead, our work focuses on reducing the complexity of the joint state space which has not been generally accomplished for dense networks.

Mean-Field RL. Under assumptions of homogeneity in the state/action spaces of the agents, the problem of densely networked multi-agent RL was answered in Yang et al. (2018); Gu et al. (2021; 2022a; 2022b); Subramanian et al. (2022) which approximates the learning problem with a mean-field control approach where the approximation error scales in ๐‘‚ โข ( 1 / ๐‘› ) . To overcome the problem of designing algorithms on probability measure spaces, they study MARL under Pareto optimality and use the (functional) strong law of large numbers to consider a lifted state/action space with a representative agent where the rewards and dynamics of the system are aggregated. Cui & Koeppl (2022); Hu et al. (2023); Carmona et al. (2023) introduce heterogeneity to the mean-field approach using graphon mean-field games; however, there is a loss in topological information when using graphons to approximate finite graphs, as graphons correspond to infinitely large adjacency matrices. Additionally, graphon mean-field RL imposes a critical assumption of the existence of graphon sequences that converge in cut-norm to the problem instance. Another mean-field RL approach that partially introduces heterogeneity is in a line of work considering major and minor agents. This has been well studied in the competitive setting (Carmona & Zhu, 2016; Carmona & Wang, 2016). In the cooperative setting, Mondal et al. (2022); Cui et al. (2023) are most related to our work, which collectively consider a setting with ๐‘˜ classes of homogeneous agents, but their mean-field analytic approaches does not converge to the optimal policy upon introducing a global decision-making agent. Typically, these works require Lipschitz continuity assumptions on the reward functions which we relax in our work. Finally, the algorithms underlying mean-field RL have a runtime that is polynomial in ๐‘› , whereas our SUBSAMPLE-Q algorithm has a runtime that is polynomial in ๐‘˜ .

Other Related Works. A line of works have similarly exploited the star-shaped network in cooperative multi-agent systems. Min et al. (2023); Chaudhari et al. (2024) studied the communication complexity and mixing times of various learning settings with purely homogeneous agents, and Do et al. (2023) studied the setting of heterogeneous linear contextual bandits to yield a no-regret guarantee. We extend this work to the more challenging setting in reinforcement learning.

2.3Technical Background Q-learning.

To provide background for the analysis in this paper, we review a few key technical concepts in RL. At the core of the standard Q-learning framework (Watkins & Dayan, 1992) for offline-RL is the ๐‘„ -function ๐‘„ : ๐’ฎ ร— ๐’œ ๐‘” โ†’ โ„ . Intuitively, ๐‘„ -learning seeks to produce a policy ๐œ‹ โˆ— ( โ‹… | ๐‘  ) that maximizes the expected infinite horizon discounted reward. For any policy ๐œ‹ , ๐‘„ ๐œ‹ โข ( ๐‘  , ๐‘Ž )

๐”ผ ๐œ‹ โข [ โˆ‘ ๐‘ก

0 โˆž ๐›พ ๐‘ก โข ๐‘Ÿ โข ( ๐‘  โข ( ๐‘ก ) , ๐‘Ž โข ( ๐‘ก ) ) | ๐‘  โข ( 0 )

๐‘  , ๐‘Ž โข ( 0 )

๐‘Ž ] . One approach to learn the optimal policy ๐œ‹ โˆ— ( โ‹… | ๐‘  ) is dynamic programming, where the ๐‘„ -function is iteratively updated using value-iteration: ๐‘„ 0 โข ( ๐‘  , ๐‘Ž )

0 , for all ( ๐‘  , ๐‘Ž ) โˆˆ ๐’ฎ ร— ๐’œ ๐‘” . Then, for all ๐‘ก โˆˆ [ ๐‘‡ ] , ๐‘„ ๐‘ก + 1 โข ( ๐‘  , ๐‘Ž )

๐’ฏ โข ๐‘„ ๐‘ก โข ( ๐‘  , ๐‘Ž ) , where ๐’ฏ is the Bellman operator defined as ๐’ฏ โข ๐‘„ ๐‘ก โข ( ๐‘  , ๐‘Ž )

๐‘Ÿ โข ( ๐‘  , ๐‘Ž ) + ๐›พ โข ๐”ผ ๐‘  ๐‘” โ€ฒ โˆผ ๐‘ƒ ๐‘” ( โ‹… | ๐‘  ๐‘” , ๐‘Ž ) , ๐‘  ๐‘– โ€ฒ โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– , ๐‘  ๐‘” ) , โˆ€ ๐‘– โˆˆ [ ๐‘› ] โข max ๐‘Ž โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ๐‘ก โข ( ๐‘  โ€ฒ , ๐‘Ž โ€ฒ ) . The Bellman operator ๐’ฏ satisfies a ๐›พ -contractive property, ensuring the existence of a unique fixed-point ๐‘„ โˆ— such that ๐’ฏ โข ๐‘„ โˆ—

๐‘„ โˆ— , by the Banach-Caccioppoli fixed-point theorem (Banach, 1922). Here, the optimal policy is the deterministic greedy policy ๐œ‹ โˆ— : ๐’ฎ ๐‘” ร— ๐’ฎ ๐‘™ ๐‘› โ†’ ๐’œ ๐‘” , where ๐œ‹ โˆ— โข ( ๐‘  )

arg โก max ๐‘Ž โˆˆ ๐’œ ๐‘” โก ๐‘„ โˆ— โข ( ๐‘  , ๐‘Ž ) . However, in this solution, the complexity of a single update to the ๐‘„ -function is ๐‘‚ โข ( | ๐’ฎ ๐‘” | โข | ๐’ฎ ๐‘™ | ๐‘› โข | ๐’œ ๐‘” | ) , which grows exponentially with ๐‘› . For practical purposes, even for small ๐‘› , this complexity renders ๐‘„ -learning impractical (see Example 5.2).

Mean-field Transformation. To address this, Yang et al. (2018); Gu et al. (2021) developed a mean-field approach which, under assumptions of homogeneity in the agents, considers the distribution function ๐น [ ๐‘› ] : ๐’ฎ ๐‘™ โ†’ โ„ given by ๐น [ ๐‘› ] โข ( ๐‘ฅ )

โˆ‘ ๐‘–

1 ๐‘› ๐Ÿ โข { ๐‘  ๐‘–

๐‘ฅ } ๐‘› , for ๐‘ฅ โˆˆ ๐’ฎ ๐‘™ . Define ฮ˜ ๐‘›

{ ๐‘ / ๐‘› : ๐‘ โˆˆ [ ๐‘› ] ยฏ } . With abuse of notation, let ๐น [ ๐‘› ] โˆˆ ฮ˜ | ๐’ฎ ๐‘™ | be a vector storing the proportion of agents in each state. As the local agents are homogeneous, the ๐‘„ -function is permutation-invariant in the local agents as permuting the labels of local agents with the same state will not change the global agentโ€™s decision. Hence, the ๐‘„ -function only depends on ๐‘  [ ๐‘› ] through ๐น [ ๐‘› ] : ๐‘„ โข ( ๐‘  ๐‘” , ๐‘  [ ๐‘› ] , ๐‘Ž ๐‘” )

๐‘„ ^ โข ( ๐‘  ๐‘” , ๐น [ ๐‘› ] , ๐‘Ž ๐‘” ) . Here, ๐‘„ ^ : ๐’ฎ ๐‘” ร— ฮ˜ | ๐’ฎ ๐‘™ | ร— ๐’œ ๐‘” โ†’ โ„ is a reparameterized ๐‘„ -function learned by mean-field value iteration, where ๐‘„ ^ 0 โข ( ๐‘  ๐‘” , ๐น [ ๐‘› ] , ๐‘Ž ๐‘” )

0 , โˆ€ ( ๐‘  , ๐‘Ž ๐‘” ) โˆˆ ๐’ฎ ร— ๐’œ ๐‘” , and for all ๐‘ก โˆˆ [ ๐‘‡ ] , ๐‘„ ^ ๐‘ก + 1 โข ( ๐‘  , ๐น [ ๐‘› ] , ๐‘Ž )

๐’ฏ ^ โข ๐‘„ ^ ๐‘˜ โข ( ๐‘  ๐‘” , ๐น [ ๐‘› ] , ๐‘Ž ) . Here, ๐’ฏ ^ is the Bellman operator in distribution space, which is given by Equation 4:

๐’ฏ ^ โข ๐‘„ ^ ๐‘ก โข ( ๐‘  ๐‘” , ๐น [ ๐‘› ] , ๐‘Ž ๐‘” )

๐‘Ÿ โข ( ๐‘  , ๐‘Ž ) + ๐›พ โข ๐”ผ ๐‘  ๐‘” โ€ฒ โˆผ ๐‘ƒ ๐‘” ( โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” ) , ๐‘  ๐‘– โ€ฒ โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– , ๐‘  ๐‘” ) , โˆ€ ๐‘– โˆˆ [ ๐‘› ] โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘ก โข ( ๐‘  โ€ฒ , ๐น [ ๐‘› ] โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) .

(4)

Then, since ๐’ฏ has a ๐›พ -contractive property, so does ๐’ฏ ^ ; hence ๐‘‡ ^ has a unique fixed-point ๐‘„ ^ โˆ— such that ๐‘„ ^ โˆ— โข ( ๐‘  ๐‘” , ๐น [ ๐‘› ] , ๐‘Ž ๐‘” )

๐‘„ โˆ— โข ( ๐‘  ๐‘” , ๐‘  [ ๐‘› ] , ๐‘Ž ๐‘” ) . Finally, the optimal policy is the deterministic greedy policy ๐œ‹ ^ โˆ— โข ( ๐‘  ๐‘” , ๐น [ ๐‘› ] )

arg โก max ๐‘Ž ๐‘” โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ โˆ— โข ( ๐‘  ๐‘” , ๐น [ ๐‘› ] , ๐‘Ž ๐‘” ) . Here, the complexity of a single update to the ๐‘„ ^ -function is ๐‘‚ โข ( | ๐’ฎ ๐‘” | โข | ๐’œ ๐‘” | โข ๐‘› | ๐’ฎ ๐‘™ | ) , which scales polynomially in ๐‘› .

However, for practical purposes, for larger values of ๐‘› , the update complexity of mean-field value iteration can still be computationally intensive, and a subpolynomial-time policy learning algorithm would be desirable. Hence, we introduce the SUBSAMPLE-Q algorithm in Section 3 to attain this.

3Method and Theoretical Results 3.1Proposed Method: SUBSAMPLE-Q

In this work, we propose algorithm SUBSAMPLE-Q to overcome the poly โข ( ๐‘› ) update time of mean-field ๐‘„ -learning. In our algorithm, the global agent randomly samples a subset of local agents ฮ” โˆˆ ๐’ฐ โข ( [ ๐‘› ] ๐‘˜ ) for ๐‘˜ โˆˆ [ ๐‘› ] . It ignores all other agents [ ๐‘› ] โˆ– ฮ” and uses an empirical mean-field value iteration to learn the ๐‘„ -function ๐‘„ ^ ๐‘˜ โˆ— and policy ๐œ‹ ^ ๐‘˜ , ๐‘š est for this surrogate system of ๐‘˜ local agents. The surrogate reward gained by the system at each time step is ๐‘Ÿ ฮ” : ๐’ฎ ร— ๐’œ ๐‘” โ†’ โ„ , given by Equation 5:

๐‘Ÿ ฮ” โข ( ๐‘  , ๐‘Ž ๐‘” )

๐‘Ÿ ๐‘” โข ( ๐‘  ๐‘” , ๐‘Ž ๐‘” ) + 1 | ฮ” | โข โˆ‘ ๐‘– โˆˆ ฮ” ๐‘Ÿ ๐‘™ โข ( ๐‘  ๐‘” , ๐‘  ๐‘– ) .

(5)

We then derive a randomized policy ๐œ‹ ๐‘˜ , ๐‘š est which samples ฮ” โˆˆ ๐’ฐ โข ( [ ๐‘› ] ๐‘˜ ) at each time-step to derive action ๐‘Ž ๐‘” โ† ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” , ๐‘  ฮ” ) . We show that the policy ๐œ‹ ๐‘˜ , ๐‘š est converges to the optimal policy ๐œ‹ โˆ— as ๐‘˜ โ†’ ๐‘› and ๐‘š โ†’ โˆž in Theorem 3.4. More formally, we present Algorithm 1 (SUBSAMPLE-Q: Learning) and Algorithm 2 (SUBSAMPLE-Q: Execution), which we describe below. A characterization that is crucial to our result is the notion of empirical distribution.

Definition 3.1 (Empirical Distribution Function).

For any population ( ๐‘  1 , โ€ฆ , ๐‘  ๐‘› ) โˆˆ ๐’ฎ ๐‘™ ๐‘› , define the empirical distribution function ๐น ๐‘  ฮ” : ๐’ฎ ๐‘™ โ†’ โ„ for ฮ” โІ [ ๐‘› ] by:

๐น ๐‘  ฮ” โข ( ๐‘ฅ ) := 1 | ฮ” | โข โˆ‘ ๐‘– โˆˆ ฮ” ๐Ÿ™ โข { ๐‘  ๐‘–

๐‘ฅ } .

(6)

Since the local agents in the system are homogeneous in their state spaces, transitions, and reward functions, the ๐‘„ function is permutation-invariant in the local agents as permuting the labels of local agents with the same state does not change the global agentโ€™s decision making process. Define ฮ˜ ๐‘˜

{ ๐‘ / ๐‘˜ : ๐‘ โˆˆ [ ๐‘˜ ] ยฏ } . Then, ๐‘„ ^ ๐‘˜ depends on ๐‘  ฮ” through ๐น ๐‘  ฮ” โˆˆ ฮ˜ ๐‘˜ | ๐’ฎ ๐‘™ | . We denote this by Equation 7:

๐‘„ ^ ๐‘˜ โข ( ๐‘  ๐‘” , ๐‘  ฮ” , ๐‘Ž ๐‘” )

๐‘„ ^ ๐‘˜ โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) , ๐‘„ โข ( ๐‘  ๐‘” , ๐‘  [ ๐‘› ] , ๐‘Ž ๐‘” )

๐‘„ ^ ๐‘› โข ( ๐‘  ๐‘” , ๐น ๐‘  [ ๐‘› ] , ๐‘Ž ๐‘” ) .

(7)

Algorithm 1 (Offline learning). We empirically learn the optimal mean-field Q-function for a subsystem with ๐‘˜ local agents that we denote by ๐‘„ ^ ๐‘˜ , ๐‘š est : ๐’ฎ ๐‘” ร— ฮ˜ ๐‘˜ | ๐’ฎ ๐‘™ | ร— ๐’œ ๐‘” โ†’ โ„ , where ๐‘š is the sample size. As in Section 2.3, we set ๐‘„ ^ ๐‘˜ , ๐‘š 0 โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” )

0 for all ๐‘  ๐‘” โˆˆ ๐’ฎ ๐‘” , ๐น ๐‘  ฮ” โˆˆ ฮ˜ ๐‘˜ | ๐’ฎ ๐‘™ | , ๐‘Ž ๐‘” โˆˆ ๐’œ ๐‘” . For ๐‘ก โˆˆ โ„• , we set ๐‘„ ^ ๐‘˜ , ๐‘š ๐‘ก + 1 โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” )

๐’ฏ ^ ๐‘˜ , ๐‘š โข ๐‘„ ^ ๐‘˜ , ๐‘š ๐‘ก โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) where ๐’ฏ ^ ๐‘˜ , ๐‘š is the empirically adapted Bellman operator defined for ๐‘˜ โ‰ค ๐‘› and ๐‘š โˆˆ โ„• in Equation 8. ๐’ฏ ^ ๐‘˜ , ๐‘š draws ๐‘š random samples ๐‘  ๐‘” ๐‘— โˆผ ๐‘ƒ ๐‘” ( โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” ) for ๐‘— โˆˆ [ ๐‘š ] and ๐‘  ๐‘– ๐‘— โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– , ๐‘  ๐‘” ) for ๐‘— โˆˆ [ ๐‘š ] , ๐‘– โˆˆ ฮ” . Here, the operator ๐’ฏ ^ ๐‘˜ , ๐‘š is:

๐’ฏ ^ ๐‘˜ , ๐‘š โข ๐‘„ ^ ๐‘˜ , ๐‘š ๐‘ก โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” )

๐‘Ÿ ฮ” โข ( ๐‘  , ๐‘Ž ๐‘” ) + ๐›พ ๐‘š โข โˆ‘ ๐‘— โˆˆ [ ๐‘š ] max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ , ๐‘š ๐‘ก โข ( ๐‘  ๐‘” ๐‘— , ๐น ๐‘  ฮ” ๐‘— , ๐‘Ž ๐‘” โ€ฒ ) .

(8)

๐’ฏ ^ ๐‘˜ , ๐‘š satisfies a ๐›พ -contraction property (see Lemma A.10). So, Algorithm 1 (SUBSAMPLE-Q: Learning) performs mean-field value iteration where it repeatedly applies ๐’ฏ ^ ๐‘˜ , ๐‘š to the same ฮ” โІ [ ๐‘› ] until ๐‘„ ^ ๐‘˜ , ๐‘š converges to its fixed point ๐‘„ ^ ๐‘˜ , ๐‘š est satisfying ๐’ฏ ^ ๐‘˜ , ๐‘š โข ๐‘„ ^ ๐‘˜ , ๐‘š est

๐‘„ ^ ๐‘˜ , ๐‘š est . We then obtain a deterministic policy ๐œ‹ ^ ๐‘˜ , ๐‘š est : ๐’ฎ ๐‘” ร— ฮ˜ ๐‘˜ | ๐’ฎ ๐‘™ | given by ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” )

arg โก max ๐‘Ž ๐‘” โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) .

Algorithm 2 (Online implementation). Here, Algorithm 2 (SUBSAMPLE-Q: Execution) randomly samples ฮ” โˆผ ๐’ฐ โข ( [ ๐‘› ] ๐‘˜ ) at each time step and uses action ๐‘Ž ๐‘” โˆผ ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” ) to get reward ๐‘Ÿ โข ( ๐‘  , ๐‘Ž ๐‘” ) . This procedure of first sampling ฮ” and then applying ๐œ‹ ^ ๐‘˜ , ๐‘š is denoted by a stochastic policy ๐œ‹ ๐‘˜ , ๐‘š est โข ( ๐‘Ž ๐‘” | ๐‘  ) :

๐œ‹ ๐‘˜ , ๐‘š est โข ( ๐‘Ž ๐‘” | ๐‘  )

1 ( ๐‘› ๐‘˜ ) โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) ๐Ÿ™ โข ( ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” )

๐‘Ž ๐‘” ) .

(9)

Then, each agent transitions to their next state based on Equation 1.

Algorithm 1 SUBSAMPLE-Q: Learning 0:  A multi-agent system as described in Section 2. Parameter ๐‘‡ for the number of iterations in the initial value iteration step. Sampling parameters ๐‘˜ โˆˆ [ ๐‘› ] and ๐‘š โˆˆ โ„• . Discount parameter ๐›พ โˆˆ ( 0 , 1 ) . Oracle ๐’ช to sample ๐‘  ๐‘” โ€ฒ โˆผ ๐‘ƒ ๐‘” ( โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” ) and ๐‘  ๐‘– โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– , ๐‘  ๐‘” ) for all ๐‘– โˆˆ [ ๐‘› ] . 1:  Uniformly choose ฮ” โІ [ ๐‘› ] such that | ฮ” |

๐‘˜ . 2:  Set ๐‘„ ^ ๐‘˜ , ๐‘š 0 โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” )

0 , for ๐‘  ๐‘” โˆˆ ๐’ฎ ๐‘” , ๐น ๐‘  ฮ” โˆˆ ฮ˜ ๐‘˜ | ๐’ฎ ๐‘™ | , ๐‘Ž ๐‘” โˆˆ ๐’œ ๐‘” , where ฮ˜ ๐‘˜

{ ๐‘ / ๐‘˜ : ๐‘ โˆˆ [ ๐‘˜ ] ยฏ } . 3:  for  ๐‘ก

1 to ๐‘‡  do 4:      ๐‘„ ^ ๐‘˜ , ๐‘š ๐‘ก + 1 โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” )

๐’ฏ ^ ๐‘˜ , ๐‘š โข ๐‘„ ^ ๐‘˜ , ๐‘š ๐‘ก โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) , for all ๐‘  ๐‘” โˆˆ ๐’ฎ ๐‘” , ๐น ๐‘  ฮ” โˆˆ ฮ˜ ๐‘˜ | ๐’ฎ ๐‘™ | , ๐‘Ž ๐‘” โˆˆ ๐’œ ๐‘” 5:  For all ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” ) โˆˆ ๐’ฎ ๐‘” ร— ฮ˜ ๐‘˜ | ๐’ฎ ๐‘™ | , let ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” )

arg โก max ๐‘Ž ๐‘” โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ , ๐‘š ๐‘‡ โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) . Algorithm 2 SUBSAMPLE-Q: Execution 0:  A multi-agent system as described in Section 2. Parameter ๐‘‡ โ€ฒ for the number of rounds in the game. Hyperparameter ๐‘˜ โˆˆ [ ๐‘› ] . Discount parameter ๐›พ . Policy ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” ) . 1:  Initialize ( ๐‘  ๐‘” โข ( 0 ) , ๐‘  [ ๐‘› ] โข ( 0 ) ) โˆผ ๐‘  0 , where ๐‘  0 is a distribution on the initial global state ( ๐‘  ๐‘” , ๐‘  [ ๐‘› ] ) , 2:  Initialize the total reward: ๐‘… 0 โ† 0 . 3:  Policy ๐œ‹ ๐‘˜ , ๐‘š est โข ( ๐‘  ) : 4:  for  ๐‘ก

0 to ๐‘‡ โ€ฒ  do 5:     Sample ฮ” uniformly at random from from ( [ ๐‘› ] ๐‘˜ ) . 6:     Let ๐‘Ž ๐‘” โข ( ๐‘ก ) โˆผ ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โข ( ๐‘ก ) , ๐‘  ฮ” โข ( ๐‘ก ) ) . 7:     Let ๐‘  ๐‘” ( ๐‘ก + 1 ) โˆผ ๐‘ƒ ๐‘” ( โ‹… | ๐‘  ๐‘” ( ๐‘ก ) , ๐‘Ž ๐‘” ( ๐‘ก ) ) and ๐‘  ๐‘– ( ๐‘ก + 1 ) โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– ( ๐‘ก ) , ๐‘  ๐‘” ( ๐‘ก ) ) , for all ๐‘– โˆˆ [ ๐‘› ] . 8:      ๐‘… ๐‘ก + 1

๐‘… ๐‘ก + ๐›พ ๐‘ก โ‹… ๐‘Ÿ โข ( ๐‘  , ๐‘Ž ๐‘” ) Remark 3.2.

Algorithm 1 assumes the existence of a generative model ๐’ช (Kearns & Singh, 1998) to sample ๐‘  ๐‘” โ€ฒ โˆผ ๐‘ƒ ๐‘” ( โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” ) and ๐‘  ๐‘– โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– , ๐‘  ๐‘” ) . This is generalizable to the online reinforcement learning setting using techniques from (Jin et al., 2018), and we leave this for future investigations.

3.2Theoretical Guarantee

This subsection shows that the value of the expected discounted cumulative reward produced by ๐œ‹ ๐‘˜ , ๐‘š est is approximately optimal, where the optimality gap decays as ๐‘˜ โ†’ ๐‘› and ๐‘š โ†’ โˆž .

Bellman noise. We first introduce the notion of Bellman noise, which is used in the main theorem. Firstly, clearly ๐’ฏ ^ ๐‘˜ , ๐‘š is an unbiased estimator of the generalized adapted Bellman operator ๐’ฏ ^ ๐‘˜ ,

๐’ฏ ^ ๐‘˜ โข ๐‘„ ^ ๐‘˜ โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” )

๐‘Ÿ ฮ” โข ( ๐‘  , ๐‘Ž ๐‘” ) + ๐›พ โข ๐”ผ ๐‘  ๐‘” โ€ฒ โˆผ ๐‘ƒ ๐‘” ( โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” ) , ๐‘  ๐‘– โ€ฒ โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– , ๐‘  ๐‘” ) , โˆ€ ๐‘– โˆˆ ฮ” โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) .

(10)

For all ๐‘  ๐‘” โˆˆ ๐’ฎ ๐‘” , ๐น ๐‘  ฮ” โˆˆ ฮ˜ ๐‘˜ | ๐’ฎ ๐‘™ | , ๐‘Ž ๐‘” โˆˆ ๐’œ ๐‘” , ๐‘„ ^ ๐‘˜ โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” )

0 . For ๐‘ก โˆˆ โ„• , let ๐‘„ ^ ๐‘˜ ๐‘ก + 1

๐’ฏ ^ ๐‘˜ โข ๐‘„ ^ ๐‘˜ ๐‘ก , where ๐’ฏ ^ ๐‘˜ is defined for ๐‘˜ โ‰ค ๐‘› in Equation 10. Similarly to ๐’ฏ ^ ๐‘˜ , ๐‘š , ๐’ฏ ^ ๐‘˜ satisfies a ๐›พ -contraction property (Lemma A.9) with fixed-point ๐‘„ ^ ๐‘˜ โˆ— . By the law of large numbers, lim ๐‘š โ†’ โˆž ๐’ฏ ^ ๐‘˜ , ๐‘š

๐’ฏ ^ ๐‘˜ . Hence, the gap โ€– ๐‘„ ^ ๐‘˜ , ๐‘š est โˆ’ ๐‘„ ^ ๐‘˜ โˆ— โ€– โˆž converges to 0 as ๐‘š โ†’ โˆž . For finite ๐‘š , โˆฅ ๐‘„ ^ ๐‘˜ , ๐‘š est โˆ’ ๐‘„ ^ ๐‘˜ โˆ— โˆฅ โˆž

: ๐œ– ๐‘˜ , ๐‘š is called the Bellman noise. Bounding ๐œ– ๐‘˜ , ๐‘š has been well studied in the literature. One such bound is:

Lemma 3.3 (Theorem 1 of Li et al. (2022)).

For all ๐‘˜ โˆˆ [ ๐‘› ] and ๐‘š โˆˆ โ„• , where ๐‘š is the number of samples in Equation 8, there exists a Bellman noise ๐œ– ๐‘˜ , ๐‘š such that โ€– ๐’ฏ ^ ๐‘˜ , ๐‘š โข ๐‘„ ^ ๐‘˜ , ๐‘š est โˆ’ ๐’ฏ ^ ๐‘˜ โข ๐‘„ ^ ๐‘˜ โˆ— โ€– โˆž

โ€– ๐‘„ ^ ๐‘˜ , ๐‘š est โˆ’ ๐‘„ ^ ๐‘˜ โˆ— โ€– โˆž โ‰ค ๐œ– ๐‘˜ , ๐‘š โ‰ค ๐‘‚ โข ( 1 / ๐‘š ) .

With the above preparations, we are now primed to present our main result: a bound on the optimality gap for our learned policy ๐œ‹ ๐‘˜ , ๐‘š est that decays with ๐‘˜ . Section 4 outlines the proof of Theorem 3.4.

Theorem 3.4.

For any state ๐‘  โˆˆ ๐’ฎ ๐‘” ร— ๐’ฎ ๐‘™ ๐‘› ,

๐‘‰ ๐œ‹ โˆ— โข ( ๐‘  ) โˆ’ ๐‘‰ ๐œ‹ ๐‘˜ , ๐‘š est โข ( ๐‘  )

โ‰ค 2 โข ๐‘Ÿ ~ ( 1 โˆ’ ๐›พ ) 2 โข ( ๐‘› โˆ’ ๐‘˜ + 1 2 โข ๐‘› โข ๐‘˜ โข ln โก ( 2 โข | ๐’ฎ ๐‘™ | โข | ๐’œ ๐‘” | โข ๐‘˜ ) + 1 ๐‘˜ ) + 2 โข ๐œ– ๐‘˜ , ๐‘š 1 โˆ’ ๐›พ .

Corollary 3.5.

Theorem 3.4 implies an asymptotically decaying optimality gap for our learned policy ๐œ‹ ~ ๐‘˜ , ๐‘š est . Further, from Lemma 3.3, ๐œ– ๐‘˜ , ๐‘š โ‰ค ๐‘‚ โข ( 1 / ๐‘š ) . Hence,

๐‘‰ ๐œ‹ โˆ— โข ( ๐‘  ) โˆ’ ๐‘‰ ๐œ‹ ๐‘˜ , ๐‘š est โข ( ๐‘  ) โ‰ค ๐‘‚ ~ โข ( 1 / ๐‘˜ + 1 / ๐‘š ) .

(11) Discussion 3.6.

The size of ๐‘„ ^ ๐‘˜ , ๐‘š โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) is ๐‘‚ โข ( | ๐’ฎ ๐‘” | โข | ๐’œ ๐‘” | โข ๐‘˜ | ๐’ฎ ๐‘™ | ) . From Theorem 3.4, as ๐‘˜ โ†’ ๐‘› , the optimality gap decays, revealing a trade-off in the choice of ๐‘˜ , between the size of the ๐‘„ -function and the optimality of the policy ๐œ‹ ๐‘˜ , ๐‘š est . We demonstrate this trade-off further in our experiments. For ๐‘˜

๐‘‚ โข ( log โก ๐‘› ) and ๐‘š โ†’ โˆž , we get an exponential speedup on the complexity from mean-field value iteration (from poly โข ( ๐‘› ) to poly โข ( log โก ๐‘› ) ), and a super-exponential speedup from traditional value-iteration (from exp โข ( ๐‘› ) to poly โข ( log โก ๐‘› ) , with a decaying ๐‘‚ โข ( 1 / log โก ๐‘› ) optimality gap. This gives a competitive policy-learning algorithm with polylogarithmic run-time.

Discussion 3.7.

One could replace the ๐‘„ -learning algorithm with an arbitrary value-based RL method that learns ๐‘„ ^ ๐‘˜ with function approximation (Sutton et al., 1999) such as deep ๐‘„ -networks (Silver et al., 2016). Doing so introduces a further error that factors into the bound in Corollary 3.5.

4Proof Outline

This section details an outline for the proof of Theorem 3.4, as well as some key ideas. At a high level, our SUBSAMPLE-Q framework in Algorithms 1 and 2 recovers exact mean-field ๐‘„ learning (and therefore, traditional value iteration) when ๐‘˜

๐‘› and as ๐‘š โ†’ โˆž . Further, as ๐‘˜ โ†’ ๐‘› , ๐‘„ ^ ๐‘˜ โˆ— should intuitively get closer to ๐‘„ โˆ— from which the optimal policy is derived. Thus, the proof is divided into three steps. We first prove a Lipschitz continuity bound between ๐‘„ ^ ๐‘˜ โˆ— and ๐‘„ ^ ๐‘› โˆ— in terms of the total variation (TV) distance between ๐น ๐‘  ฮ” and ๐น ๐‘  [ ๐‘› ] . Secondly, we bound the TV distance between ๐น ๐‘  ฮ” and ๐น ๐‘  [ ๐‘› ] . Finally, we bound the value differences between ๐œ‹ ~ ๐‘˜ , ๐‘š est and ๐œ‹ โˆ— by bounding ๐‘„ โˆ— โข ( ๐‘  , ๐œ‹ โˆ— ) โˆ’ ๐‘„ โˆ— โข ( ๐‘  , ๐œ‹ ^ ๐‘˜ , ๐‘š est ) and then using the performance difference lemma (Kakade & Langford, 2002).

Step 1: Lipschitz Continuity Bound. To compare ๐‘„ ^ ๐‘˜ โˆ— โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) with ๐‘„ โˆ— โข ( ๐‘  , ๐‘Ž ๐‘” ) , we prove a Lipschitz continuity bound between ๐‘„ ^ ๐‘˜ โˆ— โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) and ๐‘„ ^ ๐‘˜ โ€ฒ โˆ— โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” ) with respect to the TV distance measure between ๐‘  ฮ” โˆˆ ( ๐‘  [ ๐‘› ] ๐‘˜ ) and ๐‘  ฮ” โ€ฒ โˆˆ ( ๐‘  [ ๐‘› ] ๐‘˜ โ€ฒ ) . Specifically, we show:

Theorem 4.1 (Lipschitz continuity in ๐‘„ ^ ๐‘˜ โˆ— ).

For all ( ๐‘  , ๐‘Ž ) โˆˆ ๐’ฎ ร— ๐’œ ๐‘” , ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) and ฮ” โ€ฒ โˆˆ ( [ ๐‘› ] ๐‘˜ โ€ฒ ) ,

| ๐‘„ ^ ๐‘˜ โˆ— ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” )

โˆ’ ๐‘„ ^ ๐‘˜ โ€ฒ โˆ— ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” ) | โ‰ค 2 ( 1 โˆ’ ๐›พ ) โˆ’ 1 โˆฅ ๐‘Ÿ ๐‘™ ( โ‹… , โ‹… ) โˆฅ โˆž โ‹… TV ( ๐น ๐‘  ฮ” , ๐น ๐‘  ฮ” โ€ฒ )

We defer the proof of Theorem 4.1 to Appendix C.6. See Figure 3 for a comparison between the ๐‘„ ^ ๐‘˜ โˆ— learning and estimation process, and the exact ๐‘„ -learning framework.

Step 2: Bounding Total Variation (TV) Distance.

We bound the TV distance between ๐น ๐‘  ฮ” and ๐น ๐‘  [ ๐‘› ] , where ฮ” โˆˆ ๐’ฐ โข ( [ ๐‘› ] ๐‘˜ ) . Bounding this TV distance is equivalent to bounding the discrepancy between the empirical distribution and the distribution of the underlying finite population. Since each ๐‘– โˆˆ ฮ” is chosen uniformly at random and without replacement, standard concentration inequalities do not apply as they require the random variables to be i.i.d. Further, standard TV distance bounds that use the KL divergence produce a suboptimal decay as | ฮ” | โ†’ ๐‘› (Lemma C.7). Therefore, we prove the following probabilistic result (which generalizes the Dvoretzkyโ€“Kieferโ€“Wolfowitz (DKW) concentration inequality (Dvoretzky et al., 1956) to the regime of sampling without replacement:

Theorem 4.2.

Given a finite population ๐’ณ

( ๐‘ฅ 1 , โ€ฆ , ๐‘ฅ ๐‘› ) for ๐’ณ โˆˆ ๐’ฎ ๐‘™ ๐‘› , let ฮ” โІ [ ๐‘› ] be a uniformly random sample from ๐’ณ of size ๐‘˜ chosen without replacement. Fix ๐œ–

0 . Then, for all ๐‘ฅ โˆˆ ๐’ฎ ๐‘™ :

Pr [ sup ๐‘ฅ โˆˆ ๐’ฎ ๐‘™ | 1 | ฮ” | โˆ‘ ๐‘– โˆˆ ฮ” ๐Ÿ™ { ๐‘ฅ ๐‘–

๐‘ฅ }
โˆ’ 1 ๐‘› โˆ‘ ๐‘– โˆˆ [ ๐‘› ] ๐Ÿ™ { ๐‘ฅ ๐‘–

๐‘ฅ } | โ‰ค ๐œ– ] โ‰ฅ 1 โˆ’ 2 | ๐’ฎ ๐‘™ | ๐‘’ โˆ’ 2 โข | ฮ” | โข ๐‘› โข ๐œ– 2 ๐‘› โˆ’ | ฮ” | + 1 .

Then, by Theorem 4.2 and the definition of TV distance from Section 2, we have that for ๐›ฟ โˆˆ ( 0 , 1 ] ,

Pr โก ( TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  [ ๐‘› ] ) โ‰ค ๐‘› โˆ’ | ฮ” | + 1 8 โข ๐‘› โข | ฮ” | โข ln โก 2 โข | ๐’ฎ ๐‘™ | ๐›ฟ ) โ‰ฅ 1 โˆ’ ๐›ฟ .

(12)

We then apply this result to our global decision-making problem by studying the rate of decay of the objective function between our learned policy ๐œ‹ ๐‘˜ , ๐‘š est and the optimal policy ๐œ‹ โˆ— (Theorem 3.4).

Step 3: Performance Difference Lemma to Complete the Proof. As a consequence of the prior two steps and Lemma 3.3, ๐‘„ โˆ— โข ( ๐‘  , ๐‘Ž ๐‘” โ€ฒ ) and ๐‘„ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” โ€ฒ ) become similar as ๐‘˜ โ†’ ๐‘› (see Theorem C.6). We further prove that the value generated by their policies ๐œ‹ โˆ— and ๐œ‹ ๐‘˜ , ๐‘š est must also be very close (where the residue shrinks as ๐‘˜ โ†’ ๐‘› ). We then use the well-known performance difference lemma (Kakade & Langford, 2002) which we restate and explain in D.2 in the appendix. A crucial theorem needed to use the performance difference lemma is a bound on ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ ) ) โˆ’ ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ ) ) . Therefore, we formulate and prove Theorem 4.3 which yields a probabilistic bound on this difference, where the randomness is over the choice of ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) .

Theorem 4.3.

For a fixed ๐‘  โ€ฒ โˆˆ ๐’ฎ := ๐’ฎ ๐‘” ร— ๐’ฎ ๐‘™ ๐‘› and for ๐›ฟ โˆˆ ( 0 , 1 ] , with probability atleast 1 โˆ’ 2 โข | ๐’œ ๐‘” | โข ๐›ฟ :

๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ ) ) โˆ’ ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ ) ) โ‰ค 2 โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž 1 โˆ’ ๐›พ โข ๐‘› โˆ’ ๐‘˜ + 1 2 โข ๐‘› โข ๐‘˜ โข ln โก ( 2 โข | ๐’ฎ ๐‘™ | ๐›ฟ ) + 2 โข ๐œ– ๐‘˜ , ๐‘š .

We defer the proof of Theorem 4.3 and finding optimal value of the parameters ๐›ฟ 1 , ๐›ฟ 2 to D.5 in the Appendix. Using Theorem 4.3 and the performance difference lemma leads to Theorem 3.4.

5Experiments

This section provides examples and numerical simulation results to validate our theoretical framework. All numerical experiments were run on a 3-core CPU server equipped with a 12GB RAM. We chose parameters with complexity sufficient to only validate the theory, such as the computational speedups, pseudo-heterogeneity of each local agent, and the decaying optimality gap.

Example 5.1 (Demand-Response (DR)).

DR is a pathway in the transformation towards a sustainable electricity grid where users (local agents) are compensated to lower their electricity consumption to a level set by a regulator (global agent). DR has applications ranging from pricing strategies for EV charging stations, regulating the supply of any product in a market with fluctuating demands, and maximizing the efficiency of allocating resources. We ran a small-scale simulation with ๐‘›

8 local agents, and a large-scale simulation with ๐‘›

50 local agents, where the goal was to learn an optimal policy for the global agent to moderate supply in the presence of fluctuating demand.

Let each local agent ๐‘– โˆˆ [ ๐‘› ] have a state ๐‘  ๐‘– โข ( ๐‘ก )

( ๐œ“ ๐‘– , ๐‘  ๐‘– โˆ— โข ( ๐‘ก ) , ๐‘  ยฏ ๐‘– โข ( ๐‘ก ) ) โˆˆ ๐’ฎ ๐‘™ := ฮจ ร— ๐’Ÿ ๐‘Ž ร— ๐’Ÿ ๐‘ โІ โ„ค 3 . Here, ๐œ“ ๐‘– is the agentโ€™s type, ๐‘  ๐‘– โˆ— โข ( ๐‘ก ) is agent ๐‘– โ€™s consumption, and ๐‘  ยฏ ๐‘– โข ( ๐‘ก ) is its desired consumption level. Let ๐‘  ๐‘” โข ( ๐‘ก ) โˆˆ ๐’ฎ ๐‘” , ๐‘Ž ๐‘” โข ( ๐‘ก ) โˆˆ ๐’œ ๐‘” where ๐‘  ๐‘” โข ( ๐‘ก ) is the DR signal (target consumption set by the regulator). The global agent transition is given by ๐‘  ๐‘” โข ( ๐‘ก + 1 )

ฮ  ๐’ฎ ๐‘” โข ( ๐‘  ๐‘” โข ( ๐‘ก ) + ๐‘Ž ๐‘” โข ( ๐‘ก ) ) , i.e., ๐‘Ž ๐‘” โข ( ๐‘ก ) changes the DR signal. Then, ๐‘  ๐‘– โข ( ๐‘ก + 1 )

( ๐œ“ ๐‘– , ๐‘  ยฏ ๐‘– โข ( ๐‘ก + 1 ) , ๐‘  ๐‘– โˆ— โข ( ๐‘ก + 1 ) ) , where intuitively, ๐‘  ยฏ ๐‘– โข ( ๐‘ก + 1 ) fluctuates based on ๐œ“ ๐‘– and ๐‘  ยฏ ๐‘– โข ( ๐‘ก ) . If ๐‘  ยฏ ๐‘– โข ( ๐‘ก ) < ๐‘  ๐‘” โข ( ๐‘ก ) , then ๐‘  ๐‘– โˆ— โข ( ๐‘ก + 1 )

๐‘  ยฏ ๐‘– โข ( ๐‘ก ) (the local agent chases its desired consumption). If not, the local agent either follows ๐‘  ยฏ ๐‘– โข ( ๐‘ก ) or reduces its consumption to match ๐‘  ๐‘” โข ( ๐‘ก ) . Formally, if ๐œ“ ๐‘–

1 , then ๐‘  ยฏ ๐‘– โข ( ๐‘ก + 1 )

๐‘  ยฏ ๐‘– โข ( ๐‘ก ) + ๐’ฐ โข { 0 , 1 } . If ๐œ“ ๐‘–

2 , ๐‘  ยฏ ๐‘– โข ( ๐‘ก + 1 )

๐’ฐ โข { ๐’Ÿ ๐‘ } . If ๐‘  ยฏ ๐‘– โข ( ๐‘ก ) โ‰ค ๐‘  ๐‘” โข ( ๐‘ก ) , then ๐‘  ยฏ ๐‘– โˆ— โข ( ๐‘ก + 1 )

๐‘  ยฏ ๐‘– โข ( ๐‘ก ) . If ๐‘  ยฏ ๐‘– โข ( ๐‘ก ) > ๐‘  ๐‘” โข ( ๐‘ก ) , then ๐‘  ยฏ ๐‘– โˆ— โข ( ๐‘ก + 1 )

ฮ  ๐’Ÿ ๐‘ โข [ ๐‘  ยฏ ๐‘– โข ( ๐‘ก ) + ( ๐‘  ๐‘” โข ( ๐‘ก ) โˆ’ ๐‘  ๐‘– โˆ— โข ( ๐‘ก ) ) โข ๐’ฐ โข { 0 , 1 } ] . The reward of the system at each step is given by ๐‘Ÿ ๐‘” โข ( ๐‘  ๐‘” , ๐‘Ž ๐‘” )

15 / ๐‘  ๐‘” โˆ’ ๐Ÿ™ โข { ๐‘Ž ๐‘”

โˆ’ 1 } and ๐‘Ÿ ๐‘™ โข ( ๐‘  ๐‘– , ๐‘  ๐‘” )

๐‘  ๐‘– โˆ— โˆ’ 1 2 โข ๐Ÿ™ โข { ๐‘  ๐‘– โˆ— > ๐‘  ๐‘” } . We set ๐’Ÿ ๐‘Ž

๐’Ÿ ๐‘

[ 5 ] , ฮจ

{ 1 , 2 } , ๐›พ

0.9 , ๐‘š

50 , and the length of the decision game to be ๐‘‡ โ€ฒ

300 .

We use ๐‘‡

300 empirical adapted Bellman iterations for the small-scale simulation, and ๐‘‡

50 iterations for the large scale simulation. For the small-scale simulation, Figure 1a illustrates the polynomial speedup of Algorithm 1 (note that ๐‘˜

๐‘› exactly recovers mean-field value iteration Yang et al. (2018), which we treat as our baseline comparison). Figure 1b plots the reward-optimality gap for varying ๐‘˜ , illustrating that the gap decreases monotonically as ๐‘˜ โ†’ ๐‘› , as shown in Theorem 3.4. Figure 1c plots the cumulative reward of the large-scale experiment. We observe that the rewards (on average) grow monotonically as they obey our worst-case guarantee in Theorem 3.4.

Example 5.2 (Queueing).

We model a system with ๐‘› queues, ๐‘  ๐‘– โข ( ๐‘ก ) โˆˆ ๐’ฎ ๐‘™ := โ„• at time ๐‘ก denotes the number of jobs at time ๐‘ก for queue ๐‘– โˆˆ [ ๐‘› ] . We model the job allocation mechanism as a global agent where ๐‘  ๐‘” โข ( ๐‘ก ) โˆˆ ๐’ฎ ๐‘”

๐’œ ๐‘”

[ ๐‘› ] , where ๐‘  ๐‘” โข ( ๐‘ก ) denotes the queue to which the next job should be delivered. We choose the state transitions to capture the stochastic job arrival and departure: ๐‘  ๐‘” โข ( ๐‘ก + 1 )

๐‘Ž ๐‘” โข ( ๐‘ก ) , and ๐‘  ๐‘– โข ( ๐‘ก + 1 )

min โก { ๐‘ , max โก { 0 , ๐‘  ๐‘– โข ( ๐‘ก ) + ๐Ÿ™ โข { ๐‘  ๐‘” โข ( ๐‘ก )

๐‘– } โˆ’ Bern โข ( ๐‘ ) } } . For the rewards, we set ๐‘Ÿ ๐‘” โข ( ๐‘  ๐‘” โข ( ๐‘ก ) , ๐‘Ž ๐‘” โข ( ๐‘ก ) )

0 , ๐‘Ÿ ๐‘™ โข ( ๐‘  ๐‘– โข ( ๐‘ก ) , ๐‘  ๐‘” โข ( ๐‘ก ) )

โˆ’ ๐‘  ๐‘– โข ( ๐‘ก ) โˆ’ 10 โ‹… ๐Ÿ™ โข { ๐‘  ๐‘– โข ( ๐‘ก ) > ๐‘ } , where ๐‘

0.8 is the probability of finishing a job, ๐‘

30 is the capacity of each queue, and ๐›พ

0.9 .

This simulation ran on a system of ๐‘›

50 local agents. The goal was to learn an optimal policy for a dispatcher to send incoming jobs to. We ran Algorithm 1 for ๐‘‡

300 empirical adapted Bellman iterations with ๐‘š

30 , and ran Algorithm 2 for ๐‘‡ โ€ฒ

100 iterations. Figure 2 illustrates the log-scale reward-optimality gap for varying ๐‘˜ , showing that the gap decreases monotonically as ๐‘˜ โ†’ ๐‘› with a decay rate that is consistent with the ๐‘‚ โข ( 1 / ๐‘˜ ) upper bound in Theorem 3.4.

Figure 1:Demand-Response simulation. a) Computation time to learn ๐œ‹ ^ ๐‘˜ , ๐‘š est for ๐‘˜ โ‰ค ๐‘›

8 . b) Reward optimality gap (log scale) with ๐œ‹ ๐‘˜ , ๐‘š est running 300 iterations for ๐‘˜ โ‰ค ๐‘›

8 , c) Discounted cumulative rewards for ๐‘˜ โ‰ค ๐‘›

50 . We note that ๐‘˜

๐‘› recovers the mean-field RL iteration solution.

Figure 2:Reward optimality gap (log scale) with ๐œ‹ ๐‘˜ , ๐‘š est running 300 iterations. 6Conclusion, Limitations, and Future Work

Conclusion. This work considers a global decision-making agent in the presence of ๐‘› local homogeneous agents. We propose SUBSAMPLE-Q which derives a policy ๐œ‹ ๐‘˜ , ๐‘š est where ๐‘˜ โ‰ค ๐‘› and ๐‘š โˆˆ โ„• are tunable parameters, and show that ๐œ‹ ๐‘˜ , ๐‘š est converges to the optimal policy ๐œ‹ โˆ— with a decay rate of ๐‘‚ โข ( 1 / ๐‘˜ + ๐œ– ๐‘˜ , ๐‘š ) , where ๐œ– ๐‘˜ , ๐‘š is the Bellman noise. To establish the result, we develop an adapted Bellman operator ๐’ฏ ^ ๐‘˜ and show a Lipschitz-continuity result for ๐‘„ ^ ๐‘˜ โˆ— and generalize the DKW inequality. Finally, we validate our theoretical result through numerical experiments.

Limitations and Future Work. We recognize several future directions. This model studies a โ€˜star-graphโ€™ setting to model a single source of density. It would be fascinating to extend to general graphs. We believe expander-graph decomposition methods (Anand & Umans, 2023) are amenable for this. Another direction is to find connections between our sub-sampling method to algorithms in federated learning, where the rewards can be stochastic and to incorporate learning rates Lin et al. (2021) to attain numerical stability. Another limitation of this work is that we have only partially resolved the problem for truly heterogeneous local agents by adding a โ€˜typeโ€™ property to each local agent to model some pseudoheterogeneity in the state space of each agent. Additionally, it would be interesting to extend this work to the online setting without a generative oracle simulator. Finally, our model assumes finite state/action spaces as in the fundamental tabular MDP setting. However, to increase the applicability of the model, it would be interesting to replace the ๐‘„ -learning algorithm with a deep- ๐‘„ learning or a value-based RL method where the state/action spaces can be continuous.

7Acknowledgements

This work is supported by a research assistantship at Carnegie Mellon University and a fellowship from the Caltech Associates. We thank ComputeX for allowing usage of their server to run numerical experiments and gratefully acknowledge insightful conversations with Yiheng Lin, Ishani Karmarkar, Elia Gorokhovsky, David Hou, Sai Maddipatla, Alexis Wang, and Chris Zhou.

References Anand & Umans (2023) Emile Anand and Chris Umans.Pseudorandomness of the sticky random walk.arXiv preprint arXiv:2307.11104, 2023. Anand et al. (2024) Emile Anand, Jan van den Brand, Mehrdad Ghadiri, and Daniel J. Zhang.The Bit Complexity of Dynamic Algebraic Formulas and Their Determinants.In Karl Bringmann, Martin Grohe, Gabriele Puppis, and Ola Svensson (eds.), 51st International Colloquium on Automata, Languages, and Programming (ICALP 2024), volume 297 of Leibniz International Proceedings in Informatics (LIPIcs), pp.  10:1โ€“10:20, Dagstuhl, Germany, 2024. Schloss Dagstuhl โ€“ Leibniz-Zentrum fรผr Informatik.ISBN 978-3-95977-322-5.doi: 10.4230/LIPIcs.ICALP.2024.10. Banach (1922) Stefan Banach.Sur les opรฉrations dans les ensembles abstraits et leur application aux รฉquations intรฉgrales.Fundamenta Mathematicae, 3(1):133โ€“181, 1922. Bertsekas & Tsitsiklis (1996) Dimitri P. Bertsekas and John N. Tsitsiklis.Neuro-Dynamic Programming.Athena Scientific, 1st edition, 1996.ISBN 1886529108. Blondel & Tsitsiklis (2000) Vincent D. Blondel and John N. Tsitsiklis.A Survey of Computational Complexity Results in Systems and Control.Automatica, 36(9):1249โ€“1274, 2000.ISSN 0005-1098.doi: https://doi.org/10.1016/S0005-1098(00)00050-9. Carmona & Wang (2016) Rene Carmona and Peiqi Wang.Finite State Mean Field Games with Major and Minor Players, 2016. Carmona et al. (2023) Renรฉ Carmona, Mathieu Lauriรจre, and Zongjun Tan.Model-free Mean-Field Reinforcement Learning: Mean-field MDP and mean-field Q-learning.The Annals of Applied Probability, 33(6B):5334 โ€“ 5381, 2023.doi: 10.1214/23-AAP1949. Carmona & Zhu (2016) Renรฉ Carmona and Xiuneng Zhu.A probabilistic approach to mean field games with major and minor players.The Annals of Applied Probability, 26(3):1535โ€“1580, 2016.ISSN 10505164. Chaudhari et al. (2024) Shreyas Chaudhari, Srinivasa Pranav, Emile Anand, and Josรฉ M. F. Moura.Peer-to-peer learning dynamics of wide neural networks, 2024. Chen & Theja Maguluri (2022) Zaiwei Chen and Siva Theja Maguluri.Sample complexity of policy-based methods under off-policy sampling and linear function approximation.In Gustau Camps-Valls, Francisco J. R. Ruiz, and Isabel Valera (eds.), Proceedings of The 25th International Conference on Artificial Intelligence and Statistics, volume 151 of Proceedings of Machine Learning Research, pp.  11195โ€“11214. PMLR, 28โ€“30 Mar 2022. Chu et al. (2020) Tianshu Chu, Sandeep Chinchali, and Sachin Katti.Multi-agent Reinforcement Learning for Networked System Control.In International Conference on Learning Representations, 2020. Cui & Koeppl (2022) Kai Cui and Heinz Koeppl.Learning Graphon Mean Field Games and Approximate Nash Equilibria.In International Conference on Learning Representations, 2022. Cui et al. (2023) Kai Cui, Christian Fabian, and Heinz Koeppl.Multi-Agent Reinforcement Learning via Mean Field Control: Common Noise, Major Agents and Approximation Properties, 2023. Do et al. (2023) Anh Do, Thanh Nguyen-Tang, and Raman Arora.Multi-Agent Learning with Heterogeneous Linear Contextual Bandits.In Thirty-seventh Conference on Neural Information Processing Systems, 2023. Dvoretzky et al. (1956) A. Dvoretzky, J. Kiefer, and J. Wolfowitz.Asymptotic Minimax Character of the Sample Distribution Function and of the Classical Multinomial Estimator.The Annals of Mathematical Statistics, 27(3):642 โ€“ 669, 1956.doi: 10.1214/aoms/1177728174. Foster et al. (2022) Dylan J Foster, Alexander Rakhlin, Ayush Sekhari, and Karthik Sridharan.On the Complexity of Adversarial Decision Making.In Alice H. Oh, Alekh Agarwal, Danielle Belgrave, and Kyunghyun Cho (eds.), Advances in Neural Information Processing Systems, 2022. Foster et al. (2023) Dylan J Foster, Noah Golowich, Jian Qian, Alexander Rakhlin, and Ayush Sekhari.Model-Free Reinforcement Learning with the Decision-Estimation Coefficient.In Thirty-seventh Conference on Neural Information Processing Systems, 2023. Gamarnik et al. (2009) David Gamarnik, David Goldberg, and Theophane Weber.Correlation Decay in Random Decision Networks, 2009. Ghai et al. (2023) Udaya Ghai, Arushi Gupta, Wenhan Xia, Karan Singh, and Elad Hazan.Online Nonstochastic Model-Free Reinforcement Learning.In Thirty-seventh Conference on Neural Information Processing Systems, 2023. Gu et al. (2021) Haotian Gu, Xin Guo, Xiaoli Wei, and Renyuan Xu.Mean-Field Controls with Q-Learning for Cooperative MARL: Convergence and Complexity Analysis.SIAM Journal on Mathematics of Data Science, 3(4):1168โ€“1196, 2021.doi: 10.1137/20M1360700. Gu et al. (2022a) Haotian Gu, Xin Guo, Xiaoli Wei, and Renyuan Xu.Dynamic Programming Principles for Mean-Field Controls with Learning, 2022a. Gu et al. (2022b) Haotian Gu, Xin Guo, Xiaoli Wei, and Renyuan Xu.Mean-Field Multi-Agent Reinforcement Learning: A Decentralized Network Approach, 2022b. Guestrin et al. (2003) Carlos Guestrin, Daphne Koller, Ronald Parr, and Shobha Venkataraman.Efficient Solution Algorithms for Factored MDPs.J. Artif. Int. Res., 19(1):399โ€“468, oct 2003.ISSN 1076-9757. Hoeffding (1963) Wassily Hoeffding.Probability Inequalities for Sums of Bounded Random Variables.Journal of the American Statistical Association, 58(301):13โ€“30, 1963.ISSN 01621459. Hu et al. (2023) Yuanquan Hu, Xiaoli Wei, Junji Yan, and Hengxi Zhang.Graphon Mean-Field Control for Cooperative Multi-Agent Reinforcement Learning.Journal of the Franklin Institute, 360(18):14783โ€“14805, 2023.ISSN 0016-0032. Jin et al. (2018) Chi Jin, Zeyuan Allen-Zhu, Sebastien Bubeck, and Michael I Jordan.Is q-learning provably efficient?In S. Bengio, H. Wallach, H. Larochelle, K. Grauman, N. Cesa-Bianchi, and R. Garnett (eds.), Advances in Neural Information Processing Systems, volume 31. Curran Associates, Inc., 2018. Jin et al. (2021) Chi Jin, Qinghua Liu, Yuanhao Wang, and Tiancheng Yu.V-learning โ€“ a simple, efficient, decentralized algorithm for multiagent rl, 2021. Jing et al. (2022) Gangshan Jing, He Bai, Jemin George, Aranya Chakrabortty, and Piyush. K. Sharma.Distributed Cooperative Multi-Agent Reinforcement Learning with Directed Coordination Graph.In 2022 American Control Conference (ACC), pp.  3273โ€“3278, 2022.doi: 10.23919/ACC53348.2022.9867152. Kakade & Langford (2002) Sham Kakade and John Langford.Approximately Optimal Approximate Reinforcement Learning.In Claude Sammut and Achim Hoffman (eds.), Proceedings of the Nineteenth International Conference on Machine Learning (ICML 2002), pp.  267โ€“274, San Francisco, CA, USA, 2002. Morgan Kauffman.ISBN 1-55860-873-7. Kearns & Singh (1998) Michael Kearns and Satinder Singh.Finite-Sample Convergence Rates for Q-Learning and Indirect Algorithms.In M. Kearns, S. Solla, and D. Cohn (eds.), Advances in Neural Information Processing Systems, volume 11. MIT Press, 1998. Kim & Giannakis (2017) Seung-Jun Kim and Geogios B. Giannakis.An Online Convex Optimization Approach to Real-time Energy Pricing for Demand Response.IEEE Transactions on Smart Grid, 8(6):2784โ€“2793, 2017.doi: 10.1109/TSG.2016.2539948. Kiran et al. (2022) B Ravi Kiran, Ibrahim Sobh, Victor Talpaert, Patrick Mannion, Ahmad A. Al Sallab, Senthil Yogamani, and Patrick Pรฉrez.Deep Reinforcement Learning for Autonomous Driving: A Survey.IEEE Transactions on Intelligent Transportation Systems, 23(6):4909โ€“4926, 2022.doi: 10.1109/TITS.2021.3054625. Kober et al. (2013) Jens Kober, J. Andrew Bagnell, and Jan Peters.Reinforcement Learning in Robotics: A Survey.The International Journal of Robotics Research, 32(11):1238โ€“1274, 2013.doi: 10.1177/0278364913495721. Li et al. (2022) Gen Li, Yuting Wei, Yuejie Chi, Yuantao Gu, and Yuxin Chen.Sample Complexity of Asynchronous Q-Learning: Sharper Analysis and Variance Reduction.IEEE Transactions on Information Theory, 68(1):448โ€“473, 2022.doi: 10.1109/TIT.2021.3120096. Lin et al. (2020) Yiheng Lin, Guannan Qu, Longbo Huang, and Adam Wierman.Distributed Reinforcement Learning in Multi-Agent Networked Systems.CoRR, abs/2006.06555, 2020. Lin et al. (2021) Yiheng Lin, Guannan Qu, Longbo Huang, and Adam Wierman.Multi-Agent Reinforcement Learning in Stochastic Networked Systems.In Thirty-fifth Conference on Neural Information Processing Systems, 2021. Lin et al. (2023) Yiheng Lin, James A. Preiss, Emile Anand, Yingying Li, Yisong Yue, and Adam Wierman.Online adaptive policy selection in time-varying systems: No-regret via contractive perturbations.In A. Oh, T. Neumann, A. Globerson, K. Saenko, M. Hardt, and S. Levine (eds.), Advances in Neural Information Processing Systems, volume 36, pp.  53508โ€“53521. Curran Associates, Inc., 2023. Lin et al. (2024a) Yiheng Lin, James A Preiss, Fengze Xie, Emile Anand, Soon-Jo Chung, Yisong Yue, and Adam Wierman.Online policy optimization in unknown nonlinear systems.arXiv preprint arXiv:2404.13009, 2024a. Lin et al. (2024b) Yiheng Lin, James A. Preiss, Fengze Xie, Emile Anand, Soon-Jo Chung, Yisong Yue, and Adam Wierman.Online policy optimization in unknown nonlinear systems.In Shipra Agrawal and Aaron Roth (eds.), Proceedings of Thirty Seventh Conference on Learning Theory, volume 247 of Proceedings of Machine Learning Research, pp.  3475โ€“3522. PMLR, 30 Junโ€“03 Jul 2024b. Littman (1994) Michael L. Littman.Markov Games as a Framework for Multi-Agent Reinforcement Learning.In Machine learning proceedings, Elsevier, pp.  157โ€“163, 1994. Massart (1990) P. Massart.The Tight Constant in the Dvoretzky-Kiefer-Wolfowitz Inequality.The Annals of Probability, 18(3):1269 โ€“ 1283, 1990.doi: 10.1214/aop/1176990746. Min et al. (2023) Yifei Min, Jiafan He, Tianhao Wang, and Quanquan Gu.Cooperative Multi-Agent Reinforcement Learning: Asynchronous Communication and Linear Function Approximation.In Andreas Krause, Emma Brunskill, Kyunghyun Cho, Barbara Engelhardt, Sivan Sabato, and Jonathan Scarlett (eds.), Proceedings of the 40th International Conference on Machine Learning, volume 202 of Proceedings of Machine Learning Research, pp.  24785โ€“24811. PMLR, 23โ€“29 Jul 2023. Mitzenmacher & Sinclair (1996) Michael David Mitzenmacher and Alistair Sinclair.The Power of Two Choices in Randomized Load Balancing.PhD thesis, University of California, Berkeley, 1996.AAI9723118. Molzahn et al. (2017) Daniel K. Molzahn, Florian Dรถrfler, Henrik Sandberg, Steven H. Low, Sambuddha Chakrabarti, Ross Baldick, and Javad Lavaei.A Survey of Distributed Optimization and Control Algorithms for Electric Power Systems.IEEE Transactions on Smart Grid, 8(6):2941โ€“2962, 2017.doi: 10.1109/TSG.2017.2720471. Mondal et al. (2022) Washim Uddin Mondal, Mridul Agarwal, Vaneet Aggarwal, and Satish V. Ukkusuri.On the Approximation of Cooperative Heterogeneous Multi-Agent Reinforcement Learning (MARL) Using Mean Field Control (MFC).Journal of Machine Learning Research, 23(1), jan 2022.ISSN 1532-4435. Naaman (2021) Michael Naaman.On the Tight Constant in the Multivariate Dvoretzkyโ€“Kieferโ€“Wolfowitz Inequality.Statistics & Probability Letters, 173:109088, 2021.ISSN 0167-7152.doi: https://doi.org/10.1016/j.spl.2021.109088. Papadimitriou & Tsitsiklis (1999) Christos H. Papadimitriou and John N. Tsitsiklis.The Complexity of Optimal Queuing Network Control.Mathematics of Operations Research, 24(2):293โ€“305, 1999.ISSN 0364765X, 15265471. Powell (2007) Warren B. Powell.Approximate Dynamic Programming: Solving the Curses of Dimensionality (Wiley Series in Probability and Statistics).Wiley-Interscience, USA, 2007.ISBN 0470171553. Qin et al. (2023) Aoyang Qin, Feng Gao, Qing Li, Song-Chun Zhu, and Sirui Xie.Learning non-Markovian Decision-Making from State-only Sequences.In Thirty-seventh Conference on Neural Information Processing Systems, 2023. Qu et al. (2020a) Guannan Qu, Yiheng Lin, Adam Wierman, and Na Li.Scalable Multi-Agent Reinforcement Learning for Networked Systems with Average Reward.In Proceedings of the 34th International Conference on Neural Information Processing Systems, NIPSโ€™20, Red Hook, NY, USA, 2020a. Curran Associates Inc.ISBN 9781713829546. Qu et al. (2020b) Guannan Qu, Adam Wierman, and Na Li.Scalable Reinforcement Learning of Localized Policies for Multi-Agent Networked Systems.In Alexandre M. Bayen, Ali Jadbabaie, George Pappas, Pablo A. Parrilo, Benjamin Recht, Claire Tomlin, and Melanie Zeilinger (eds.), Proceedings of the 2nd Conference on Learning for Dynamics and Control, volume 120 of Proceedings of Machine Learning Research, pp.  256โ€“266. PMLR, 10โ€“11 Jun 2020b. Serfling (1974) R. J. Serfling.Probability Inequalities for the Sum in Sampling without Replacement.The Annals of Statistics, 2(1):39โ€“48, 1974.ISSN 00905364. Shapley (1953) L. S. Shapley.Stochastic Games*.Proceedings of the National Academy of Sciences, 39(10):1095โ€“1100, 1953.doi: 10.1073/pnas.39.10.1095. Silver et al. (2016) David Silver, Aja Huang, Chris J. Maddison, Arthur Guez, Laurent Sifre, George van den Driessche, Julian Schrittwieser, Ioannis Antonoglou, Veda Panneershelvam, Marc Lanctot, Sander Dieleman, Dominik Grewe, John Nham, Nal Kalchbrenner, Ilya Sutskever, Timothy Lillicrap, Madeleine Leach, Koray Kavukcuoglu, Thore Graepel, and Demis Hassabis.Mastering the Game of Go with Deep Neural Networks and Tree Search.Nature, 529(7587):484โ€“489, January 2016.ISSN 1476-4687.doi: 10.1038/nature16961. Subramanian et al. (2022) Sriram Ganapathi Subramanian, Matthew E. Taylor, Mark Crowley, and Pascal Poupart.Decentralized mean field games, 2022. Sutton et al. (1999) Richard S Sutton, David McAllester, Satinder Singh, and Yishay Mansour.Policy gradient methods for reinforcement learning with function approximation.In S. Solla, T. Leen, and K. Mรผller (eds.), Advances in Neural Information Processing Systems, volume 12. MIT Press, 1999. Tsybakov (2008) Alexandre B. Tsybakov.Introduction to Nonparametric Estimation.Springer Publishing Company, Incorporated, 1st edition, 2008.ISBN 0387790519. Watkins & Dayan (1992) Christopher J. C. H. Watkins and Peter Dayan.Q-learning.Machine Learning, 8(3):279โ€“292, May 1992.ISSN 1573-0565.doi: 10.1007/BF00992698. Yang et al. (2018) Yaodong Yang, Rui Luo, Minne Li, Ming Zhou, Weinan Zhang, and Jun Wang.Mean Field Multi-Agent Reinforcement Learning.In Jennifer Dy and Andreas Krause (eds.), Proceedings of the 35th International Conference on Machine Learning, volume 80 of Proceedings of Machine Learning Research, pp.  5571โ€“5580. PMLR, 10โ€“15 Jul 2018. Zhang et al. (2021) Kaiqing Zhang, Zhuoran Yang, and Tamer BaลŸar.Multi-Agent Reinforcement Learning: A Selective Overview of Theories and Algorithms, 2021. Zhang & Pavone (2016) Rick Zhang and Marco Pavone.Control of Robotic Mobility-on-Demand Systems: A Queueing-Theoretical Perspective.The International Journal of Robotics Research, 35(1-3):186โ€“203, 2016.doi: 10.1177/0278364915581863.

Outline of the Appendices.

โ€ข

Appendix A presents additional definitions and remarks that support the main body.

โ€ข

Appendix B-C contains a detailed proof of the Lipschitz continuity bound in Theorem 4.1 and total variation distance bound in Theorem 4.2.

โ€ข

Appendix D contains a detailed proof of the main result in Theorem 3.4.

Appendix AMathematical Background and Additional Remarks Definition A.1 (Lipschitz continuity).

Given two metric spaces ( ๐’ณ , ๐‘‘ ๐’ณ ) and ( ๐’ด , ๐‘‘ ๐’ด ) and a constant ๐ฟ โˆˆ โ„ + , a mapping ๐‘“ : ๐’ณ โ†’ ๐’ด is ๐ฟ -Lipschitz continuous if for all ๐‘ฅ , ๐‘ฆ โˆˆ ๐’ณ , ๐‘‘ ๐’ด โข ( ๐‘“ โข ( ๐‘ฅ ) , ๐‘“ โข ( ๐‘ฆ ) ) โ‰ค ๐ฟ โ‹… ๐‘‘ ๐’ณ โข ( ๐‘ฅ , ๐‘ฆ ) .

Theorem A.2 (Banach-Caccioppoli fixed point theorem Banach (1922)).

Consider the metric space ( ๐’ณ , ๐‘‘ ๐’ณ ) , and ๐‘‡ : ๐’ณ โ†’ ๐’ณ such that ๐‘‡ is a ๐›พ -Lipschitz continuous mapping for ๐›พ โˆˆ ( 0 , 1 ) . Then, by the Banach-Cacciopoli fixed-point theorem, there exists a unique fixed point ๐‘ฅ โˆ— โˆˆ ๐’ณ for which ๐‘‡ โข ( ๐‘ฅ โˆ— )

๐‘ฅ โˆ— . Additionally, ๐‘ฅ โˆ—

lim ๐‘  โ†’ โˆž ๐‘‡ ๐‘  โข ( ๐‘ฅ 0 ) for any ๐‘ฅ 0 โˆˆ ๐’ณ .

For convenience, we restate below the various Bellman operators under consideration.

Definition A.3 (Bellman Operator ๐’ฏ ).

๐’ฏ โข ๐‘„ ๐‘ก โข ( ๐‘  , ๐‘Ž ๐‘” ) := ๐‘Ÿ [ ๐‘› ] โข ( ๐‘  , ๐‘Ž ๐‘” ) + ๐›พ โข ๐”ผ ๐‘  ๐‘” โ€ฒ โˆผ ๐‘ƒ ๐‘” ( โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” ) ,

๐‘  ๐‘– โ€ฒ โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– , ๐‘  ๐‘” ) , โˆ€ ๐‘– โˆˆ [ ๐‘› ] โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ๐‘ก โข ( ๐‘  โ€ฒ , ๐‘Ž ๐‘” โ€ฒ )

(13) Definition A.4 (Adapted Bellman Operator ๐’ฏ ^ ๐‘˜ ).

The adapted Bellman operator updates a smaller ๐‘„ function (which we denote by ๐‘„ ^ ๐‘˜ ), for a surrogate system with the global agent and ๐‘˜ โˆˆ [ ๐‘› ] local agents, using mean-field value iteration:

๐’ฏ ^ ๐‘˜ โข ๐‘„ ^ ๐‘˜ ๐‘ก โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) := ๐‘Ÿ ฮ” โข ( ๐‘  , ๐‘Ž ๐‘” ) + ๐›พ โข ๐”ผ ๐‘  ๐‘” โ€ฒ โˆผ ๐‘ƒ ๐‘” ( โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” ) ,

๐‘  ๐‘– โ€ฒ โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– , ๐‘  ๐‘” ) , โˆ€ ๐‘– โˆˆ ฮ” โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ ๐‘ก โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ )

(14) Definition A.5 (Empirical Adapted Bellman Operator ๐’ฏ ^ ๐‘˜ , ๐‘š ).

The empirical adapted Bellman operator ๐’ฏ ^ ๐‘˜ , ๐‘š empirically estimates the adapted Bellman operator update using mean-field value iteration by drawing ๐‘š random samples of ๐‘  ๐‘” โˆผ ๐‘ƒ ๐‘” ( โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” ) and ๐‘  ๐‘– โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– , ๐‘  ๐‘” ) for ๐‘– โˆˆ ฮ” , where for ๐‘— โˆˆ [ ๐‘š ] , the ๐‘— โ€™th random sample is given by ๐‘  ๐‘” ๐‘— and ๐‘  ฮ” ๐‘— :

๐’ฏ ^ ๐‘˜ , ๐‘š โข ๐‘„ ^ ๐‘˜ , ๐‘š ๐‘ก โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) := ๐‘Ÿ ฮ” โข ( ๐‘  , ๐‘Ž ๐‘” ) + ๐›พ ๐‘š โข โˆ‘ ๐‘— โˆˆ [ ๐‘š ] max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ , ๐‘š ๐‘ก โข ( ๐‘  ๐‘” ๐‘— , ๐น ๐‘  ฮ” ๐‘— , ๐‘Ž ๐‘” โ€ฒ )

(15) Remark A.6.

We remark on the following relationships between the variants of the Bellman operators from Definitions A.3, A.4 and A.5. First, by the law of large numbers, we have lim ๐‘š โ†’ โˆž ๐’ฏ ^ ๐‘˜ , ๐‘š

๐’ฏ ^ ๐‘˜ , where the error decays in ๐‘‚ โข ( 1 / ๐‘š ) by the Chernoff bound. Secondly, by comparing Definition A.4 and Definition A.3, we have ๐’ฏ ๐‘›

๐’ฏ .

Lemma A.7.

For any ฮ” โІ [ ๐‘› ] such that | ฮ” |

๐‘˜ , suppose 0 โ‰ค ๐‘Ÿ ฮ” โข ( ๐‘  , ๐‘Ž ๐‘” ) โ‰ค ๐‘Ÿ ~ . Then, ๐‘„ ^ ๐‘˜ ๐‘ก โ‰ค ๐‘Ÿ ~ 1 โˆ’ ๐›พ .

Proof.

We prove this by induction on ๐‘ก โˆˆ โ„• . The base case is satisfied as ๐‘„ ^ ๐‘˜ 0

0 . Assume that โ€– ๐‘„ ^ ๐‘˜ ๐‘ก โˆ’ 1 โ€– โˆž โ‰ค ๐‘Ÿ ~ 1 โˆ’ ๐›พ . We bound ๐‘„ ^ ๐‘˜ ๐‘ก + 1 from the Bellman update at each time step as follows, for all ๐‘  ๐‘” โˆˆ ๐’ฎ ๐‘” , ๐น ๐‘  ฮ” โˆˆ ฮ˜ ๐‘˜ | ๐’ฎ ๐‘™ | , ๐‘Ž ๐‘” โˆˆ ๐’œ ๐‘” :

๐‘„ ^ ๐‘˜ ๐‘ก + 1 โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” )

๐‘Ÿ ฮ” โข ( ๐‘  , ๐‘Ž ๐‘” ) + ๐›พ โข ๐”ผ ๐‘  ๐‘” โ€ฒ โˆผ ๐‘ƒ ๐‘” ( โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” ) ,

๐‘  ๐‘– โ€ฒ โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– , ๐‘  ๐‘” ) , โˆ€ ๐‘– โˆˆ ฮ” โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ ๐‘ก โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ )

โ‰ค ๐‘Ÿ ~ + ๐›พ โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” , ๐‘  ๐‘” โ€ฒ โˆˆ ๐’ฎ ๐‘” , ๐น ๐‘  ฮ” โ€ฒ โˆˆ ฮ˜ ๐‘˜ | ๐’ฎ ๐‘™ | โก ๐‘„ ^ ๐‘˜ ๐‘ก โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) โ‰ค ๐‘Ÿ ~ 1 โˆ’ ๐›พ

Here, the first inequality follows by noting that the maximum value of a random variable is at least as large as its expectation. The second inequality follows from the inductive hypothesis.โˆŽ

Remark A.8.

Lemma A.7 is independent of the choice of ๐‘˜ . Therefore, for ๐‘˜

๐‘› , this implies an identical bound on ๐‘„ ๐‘ก . A similar argument as Lemma A.7 implies an identical bound on ๐‘„ ^ ๐‘˜ , ๐‘š ๐‘ก .

Recall that the original Bellman operator ๐’ฏ satisfies a ๐›พ -contractive property under the infinity norm. We similarly show that ๐’ฏ ^ ๐‘˜ and ๐’ฏ ^ ๐‘˜ , ๐‘š satisfy a ๐›พ -contractive property under infinity norm in Lemma A.9 and Lemma A.10.

Lemma A.9.

๐’ฏ ^ ๐‘˜ satisfies the ๐›พ -contractive property under infinity norm:

โ€– ๐’ฏ ^ ๐‘˜ โข ๐‘„ ^ ๐‘˜ โ€ฒ โˆ’ ๐’ฏ ^ ๐‘˜ โข ๐‘„ ^ ๐‘˜ โ€– โˆž โ‰ค ๐›พ โข โ€– ๐‘„ ^ ๐‘˜ โ€ฒ โˆ’ ๐‘„ ^ ๐‘˜ โ€– โˆž

Proof.

Suppose we apply ๐’ฏ ^ ๐‘˜ to ๐‘„ ^ ๐‘˜ โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) and ๐‘„ ^ ๐‘˜ โ€ฒ โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) for | ฮ” |

๐‘˜ . Then:

โ€– ๐’ฏ ^ ๐‘˜ โข ๐‘„ ^ ๐‘˜ โ€ฒ โˆ’ ๐’ฏ ^ ๐‘˜ โข ๐‘„ ^ ๐‘˜ โ€– โˆž

๐›พ โข max ๐‘  ๐‘” โˆˆ ๐’ฎ ๐‘” ,

๐‘Ž ๐‘” โˆˆ ๐’œ ๐‘” ,

๐น ๐‘  ฮ” โˆˆ ฮ˜ ๐‘˜ | ๐’ฎ ๐‘™ | โก | ๐”ผ ๐‘  ๐‘” โ€ฒ โˆผ ๐‘ƒ ๐‘” ( โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” ) ,

๐‘  ๐‘– โ€ฒ โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– , ๐‘  ๐‘” ) ,

โˆ€ ๐‘  ๐‘– โ€ฒ โˆˆ ๐‘  ฮ” โ€ฒ , โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ โ€ฒ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) โˆ’ ๐”ผ ๐‘  ๐‘” โ€ฒ โˆผ ๐‘ƒ ๐‘” ( โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” ) ,

๐‘  ๐‘– โ€ฒ โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– , ๐‘  ๐‘” ) ,

โˆ€ ๐‘  ๐‘– โ€ฒ โˆˆ ๐‘  ฮ” โ€ฒ โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) |

โ‰ค ๐›พ โข max ๐‘  ๐‘” โ€ฒ โˆˆ ๐’ฎ ๐‘” , ๐น ๐‘  ฮ” โ€ฒ โˆˆ ฮ˜ ๐‘˜ | ๐’ฎ ๐‘™ | , ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก | ๐‘„ ^ ๐‘˜ โ€ฒ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) โˆ’ ๐‘„ ^ ๐‘˜ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) |

๐›พ โข โ€– ๐‘„ ^ ๐‘˜ โ€ฒ โˆ’ ๐‘„ ^ ๐‘˜ โ€– โˆž

The equality implicitly cancels the common ๐‘Ÿ ฮ” โข ( ๐‘  , ๐‘Ž ๐‘” ) terms from each application of the adapted-Bellman operator. The inequality follows from Jensenโ€™s inequality, maximizing over the actions, and bounding the expected value with the maximizers of the random variables. The last line recovers the definition of infinity norm. โˆŽ

Lemma A.10.

๐’ฏ ^ ๐‘˜ , ๐‘š satisfies the ๐›พ -contractive property under infinity norm.

Proof.

Similarly to Lemma A.9, suppose we apply ๐’ฏ ^ ๐‘˜ , ๐‘š to ๐‘„ ^ ๐‘˜ , ๐‘š โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) and ๐‘„ ^ ๐‘˜ , ๐‘š โ€ฒ โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) . Then:

โ€– ๐’ฏ ^ ๐‘˜ , ๐‘š โข ๐‘„ ^ ๐‘˜ โˆ’ ๐’ฏ ^ ๐‘˜ , ๐‘š โข ๐‘„ ^ ๐‘˜ โ€ฒ โ€– โˆž

๐›พ ๐‘š โข โ€– โˆ‘ ๐‘— โˆˆ [ ๐‘š ] ( max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ โข ( ๐‘  ๐‘” ๐‘— , ๐น ๐‘  ฮ” ๐‘— , ๐‘Ž ๐‘” โ€ฒ ) โˆ’ max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ โ€ฒ โข ( ๐‘  ๐‘” ๐‘— , ๐น ๐‘  ฮ” ๐‘— , ๐‘Ž ๐‘” โ€ฒ ) ) โ€– โˆž

โ‰ค ๐›พ โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” , ๐‘  ๐‘” โ€ฒ โˆˆ ๐’ฎ ๐‘” , ๐‘  ฮ” โˆˆ ๐’ฎ ๐‘™ ๐‘˜ โก | ๐‘„ ^ ๐‘˜ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) โˆ’ ๐‘„ ^ ๐‘˜ โ€ฒ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) |

โ‰ค ๐›พ โข โ€– ๐‘„ ^ ๐‘˜ โˆ’ ๐‘„ ^ ๐‘˜ โ€ฒ โ€– โˆž

The first inequality uses the triangle inequality and the general property | max ๐‘Ž โˆˆ ๐ด โก ๐‘“ โข ( ๐‘Ž ) โˆ’ max ๐‘ โˆˆ ๐ด โก ๐‘“ โข ( ๐‘ ) | โ‰ค max ๐‘ โˆˆ ๐ด โก | ๐‘“ โข ( ๐‘Ž ) โˆ’ ๐‘“ โข ( ๐‘ ) | . In the last line, we recover the definition of infinity norm.โˆŽ

Remark A.11.

Intuitively, the ๐›พ -contractive property of ๐’ฏ ^ ๐‘˜ and ๐’ฏ ^ ๐‘˜ , ๐‘š causes the trajectory of two ๐‘„ ^ ๐‘˜ and ๐‘„ ^ ๐‘˜ , ๐‘š functions on the same state-action tuple to decay by ๐›พ at each time step such that repeated applications of their corresponding Bellman operators produce a unique fixed-point from the Banach-Cacciopoli fixed-point theorem which we introduce in Definitions A.12 and A.13.

Definition A.12 ( ๐‘„ ^ ๐‘˜ โˆ— ).

Suppose ๐‘„ ^ ๐‘˜ 0 := 0 and let ๐‘„ ^ ๐‘˜ ๐‘ก + 1 โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” )

๐’ฏ ^ ๐‘˜ โข ๐‘„ ^ ๐‘˜ ๐‘ก โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) for ๐‘ก โˆˆ โ„• . Denote the fixed-point of ๐’ฏ ^ ๐‘˜ by ๐‘„ ^ ๐‘˜ โˆ— such that ๐’ฏ ^ ๐‘˜ โข ๐‘„ ^ ๐‘˜ โˆ— โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” )

๐‘„ ^ ๐‘˜ โˆ— โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) .

Definition A.13 ( ๐‘„ ^ ๐‘˜ , ๐‘š est ).

Suppose ๐‘„ ^ ๐‘˜ , ๐‘š 0 := 0 and let ๐‘„ ^ ๐‘˜ , ๐‘š ๐‘ก + 1 โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” )

๐’ฏ ^ ๐‘˜ , ๐‘š โข ๐‘„ ^ ๐‘˜ , ๐‘š ๐‘ก โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) for ๐‘ก โˆˆ โ„• . Denote the fixed-point of ๐’ฏ ^ ๐‘˜ , ๐‘š by ๐‘„ ^ ๐‘˜ , ๐‘š est such that ๐’ฏ ^ ๐‘˜ , ๐‘š โข ๐‘„ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” )

๐‘„ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) .

Furthermore, recall the assumption on our empirical approximation of ๐‘„ ^ ๐‘˜ โˆ— :

Lemma 3.3. For all ๐‘˜ โˆˆ [ ๐‘› ] and ๐‘š โˆˆ โ„• , we assume that:

โ€– ๐‘„ ^ ๐‘˜ , ๐‘š est โˆ’ ๐‘„ ^ ๐‘˜ โˆ— โ€– โˆž โ‰ค ๐œ– ๐‘˜ , ๐‘š

Corollary A.14.

Observe that by backpropagating results of the ๐›พ -contractive property for ๐‘‡ time steps:

โ€– ๐‘„ ^ ๐‘˜ โˆ— โˆ’ ๐‘„ ^ ๐‘˜ ๐‘‡ โ€– โˆž โ‰ค ๐›พ ๐‘‡ โ‹… โ€– ๐‘„ ^ ๐‘˜ โˆ— โˆ’ ๐‘„ ^ ๐‘˜ 0 โ€– โˆž

(16)

โ€– ๐‘„ ^ ๐‘˜ , ๐‘š est โˆ’ ๐‘„ ^ ๐‘˜ , ๐‘š ๐‘‡ โ€– โˆž โ‰ค ๐›พ ๐‘‡ โ‹… โ€– ๐‘„ ^ ๐‘˜ , ๐‘š est โˆ’ ๐‘„ ^ ๐‘˜ , ๐‘š 0 โ€– โˆž

(17)

Further, noting that ๐‘„ ^ ๐‘˜ 0

๐‘„ ^ ๐‘˜ , ๐‘š 0 := 0 , โ€– ๐‘„ ^ ๐‘˜ โˆ— โ€– โˆž โ‰ค ๐‘Ÿ ~ 1 โˆ’ ๐›พ , and โ€– ๐‘„ ^ ๐‘˜ , ๐‘š est โ€– โˆž โ‰ค ๐‘Ÿ ~ 1 โˆ’ ๐›พ from Lemma A.7:

โ€– ๐‘„ ^ ๐‘˜ โˆ— โˆ’ ๐‘„ ^ ๐‘˜ ๐‘‡ โ€– โˆž โ‰ค ๐›พ ๐‘‡ โข ๐‘Ÿ ~ 1 โˆ’ ๐›พ

(18)

โ€– ๐‘„ ^ ๐‘˜ , ๐‘š est โˆ’ ๐‘„ ^ ๐‘˜ , ๐‘š ๐‘‡ โ€– โˆž โ‰ค ๐›พ ๐‘‡ โข ๐‘Ÿ ~ 1 โˆ’ ๐›พ

(19) Remark A.15.

Corollary A.14 characterizes the error decay between ๐‘„ ^ ๐‘˜ ๐‘‡ and ๐‘„ ^ ๐‘˜ โˆ— as well as between ๐‘„ ^ ๐‘˜ , ๐‘š ๐‘‡ and ๐‘„ ^ ๐‘˜ , ๐‘š est and shows that it decays exponentially in the number of corresponding Bellman iterations with the ๐›พ ๐‘‡ multiplicative factor.

Furthermore, we characterize the maximal policies greedy policies obtained from ๐‘„ โˆ— , ๐‘„ ^ ๐‘˜ โˆ— , and ๐‘„ ^ ๐‘˜ , ๐‘š est .

Definition A.16 ( ๐œ‹ โˆ— ).

The greedy policy derived from ๐‘„ โˆ— is

๐œ‹ โˆ— โข ( ๐‘  ) := arg โก max ๐‘Ž ๐‘” โˆˆ ๐’œ ๐‘” โก ๐‘„ โˆ— โข ( ๐‘  , ๐‘Ž ๐‘” ) .

Definition A.17 ( ๐œ‹ ^ ๐‘˜ โˆ— ).

The greedy policy from ๐‘„ ^ ๐‘˜ โˆ— is

๐œ‹ ^ ๐‘˜ โˆ— โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” ) := arg โก max ๐‘Ž ๐‘” โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ โˆ— โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) .

Definition A.18 ( ๐œ‹ ^ ๐‘˜ , ๐‘š est ).

The greedy policy from ๐‘„ ^ ๐‘˜ , ๐‘š est is given by

๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” ) := arg โก max ๐‘Ž ๐‘” โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) .

Figure 3 details the analytic flow on how we use the empirical adapted Bellman operator to perform value iteration on ๐‘„ ^ ๐‘˜ , ๐‘š to get ๐‘„ ^ ๐‘˜ , ๐‘š est which approximates ๐‘„ โˆ— .

๐‘„ ^ ๐‘˜ , ๐‘š 0 โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) ๐‘„ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) ๐‘„ ^ ๐‘˜ โˆ— โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) ๐‘„ ^ ๐‘› โˆ— โข ( ๐‘  ๐‘” , ๐น ๐‘  [ ๐‘› ] , ๐‘Ž ๐‘” ) ๐‘„ โˆ— โข ( ๐‘  ๐‘” , ๐‘  [ ๐‘› ] , ๐‘Ž ๐‘” ) ( 1 ) ( 2 )

= ( 3 )

โ‰ˆ ( 4 )

=
Figure 3:Flow of the algorithm and relevant analyses in learning ๐‘„ โˆ— . Here, (1) follows by performing Algorithm 1 (SUBSAMPLE-Q: Learning) on ๐‘„ ^ ๐‘˜ , ๐‘š 0 . (2) follows from Lemma 3.3. (3) follows from the Lipschitz continuity and total variation distance bounds in Theorems 4.1 and 4.2. Finally, (4) follows from noting that ๐‘„ ^ ๐‘› โˆ—

๐‘„ โˆ— .

Algorithm 3 provides a stable implementation of Algorithm 1: SUBSAMPLE-Q: Learning, where we incorporate a sequence of learning rates { ๐œ‚ ๐‘ก } ๐‘ก โˆˆ [ ๐‘‡ ] into the framework Watkins & Dayan (1992). Algorithm 3 is also provably numerical stable under fixed-point arithmetic Anand et al. (2024).

Algorithm 3 Stable (Practical) Implementation of Algorithm 1: SUBSAMPLE-Q: Learning 0:  A multi-agent system as described in Section 2. Parameter ๐‘‡ for the number of iterations in the initial value iteration step. Hyperparameter ๐‘˜ โˆˆ [ ๐‘› ] . Discount parameter ๐›พ โˆˆ ( 0 , 1 ) . Oracle ๐’ช to sample ๐‘  ๐‘” โ€ฒ โˆผ ๐‘ƒ ๐‘” ( โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” ) and ๐‘  ๐‘– โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– , ๐‘  ๐‘” ) for all ๐‘– โˆˆ [ ๐‘› ] . Sequence of learning rates { ๐œ‚ ๐‘ก } ๐‘ก โˆˆ [ ๐‘‡ ] where ๐œ‚ ๐‘ก โˆˆ ( 0 , 1 ] . 1:  Choose any ฮ” โІ [ ๐‘› ] such that | ฮ” |

๐‘˜ . 2:  Set ๐‘„ ^ ๐‘˜ , ๐‘š 0 โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” )

0 for ๐‘  ๐‘” โˆˆ ๐’ฎ ๐‘” , ๐น ๐‘  ฮ” โˆˆ ฮ˜ ๐‘˜ | ๐’ฎ ๐‘™ | , ๐‘Ž ๐‘” โˆˆ ๐’œ ๐‘” . 3:  for  ๐‘ก

1 to ๐‘‡  do 4:     for  ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” ) โˆˆ ๐’ฎ ๐‘” ร— ฮ˜ ๐‘˜ | ๐’ฎ ๐‘™ |  do 5:        for  ๐‘Ž ๐‘” โˆˆ ๐’œ ๐‘”  do 6:            ๐‘„ ^ ๐‘˜ , ๐‘š ๐‘ก + 1 โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) โ† ( 1 โˆ’ ๐œ‚ ๐‘ก ) โข ๐‘„ ^ ๐‘˜ , ๐‘š ๐‘ก โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) + ๐œ‚ ๐‘ก โข ๐’ฏ ^ ๐‘˜ , ๐‘š โข ๐‘„ ^ ๐‘˜ , ๐‘š ๐‘ก โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) 7:  For all ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” ) โˆˆ ๐’ฎ ๐‘” ร— ฮ˜ ๐‘˜ | ๐’ฎ ๐‘™ | , let the approximate policy be
๐œ‹ ^ ๐‘˜ , ๐‘š ๐‘‡ โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” )

arg โก max ๐‘Ž ๐‘” โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ , ๐‘š ๐‘‡ โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) .

Notably, ๐‘„ ^ ๐‘˜ , ๐‘š ๐‘ก in Algorithm 3 due to a similar ๐›พ -contractive property as in Lemma A.9, given an appropriately conditioned sequence of learning rates ๐œ‚ ๐‘ก :

Theorem A.19.

As ๐‘‡ โ†’ โˆž , if โˆ‘ ๐‘ก

1 ๐‘‡ ๐œ‚ ๐‘ก

โˆž , and โˆ‘ ๐‘ก

1 ๐‘‡ ๐œ‚ ๐‘ก 2 < โˆž , then ๐‘„ -learning converges to the optimal ๐‘„ function asymptotically with probability 1 .

Furthermore, finite-time guarantees with the learning rate and sample complexity have been shown recently in Chen & Theja Maguluri (2022), which when adapted to our ๐‘„ ^ ๐‘˜ , ๐‘š framework in Algorithm 3 yields:

Theorem A.20 (Chen & Theja Maguluri (2022)).

For all ๐‘ก โˆˆ [ ๐‘‡ ] and ๐œ– > 0 , if ๐œ‚ ๐‘ก

( 1 โˆ’ ๐›พ ) 4 โข ๐œ– 2 and ๐‘‡

๐‘˜ | ๐’ฎ ๐‘™ | โข | ๐’ฎ ๐‘” | โข | ๐’œ ๐‘” | / ( 1 โˆ’ ๐›พ ) 5 โข ๐œ– 2 ,

โ€– ๐‘„ ^ ๐‘˜ , ๐‘š ๐‘‡ โˆ’ ๐‘„ ^ ๐‘˜ , ๐‘š est โ€– โ‰ค ๐œ– .

This global decision-making problem can be viewed as a generalization of the network setting to a specific type of dense graph: the star graph (Figure 4). We briefly elaborate more on this connection below.

Definition A.21 (Star Graph ๐‘† ๐‘› ).

For ๐‘› โˆˆ โ„• , the star graph ๐‘† ๐‘› is the complete bipartite graph ๐พ 1 , ๐‘› .

๐‘† ๐‘› captures the graph density notion by saturating the set of neighbors for the central node. Furthermore, it models interactions between agents identically to our setting, where the central node is a global agent and the peripheral nodes are local agents. The cardinality of the search space simplex for the optimal policy is | ๐’ฎ ๐‘” | โข | ๐’ฎ ๐‘™ | ๐‘› โข | ๐’œ ๐‘” | , which is exponential in ๐‘› . Hence, this problem cannot be naively modeled by an MDP: we need to exploit the symmetry of the local agents. This intuition allows our subsampling algorithm to run in polylogarithmic time (in ๐‘› ). Further, works that leverage the exponential decaying property that truncates the search space for policies over immediate neighborhoods of agents still rely on the assumption that the graph neighborhood for the agent is sparse Lin et al. (2021); Qu et al. (2020a; b); Lin et al. (2020); however, the graph ๐‘† ๐‘› violates this local sparsity condition; hence, previous methods do not apply to this problem instance.

1 2 0 3 โ€ฆ ๐‘› Figure 4:Star graph ๐‘† ๐‘› Appendix BProof of Lipschitz-Continuity Bound

This section proves the Lipschitz-continuity bound Theorem 4.1 between ๐‘„ ^ ๐‘˜ โˆ— and ๐‘„ โˆ— in Theorem B.2 and includes a framework to compare 1 ( ๐‘› ๐‘˜ ) โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) ๐‘„ ^ ๐‘˜ โˆ— โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) and ๐‘„ โˆ— โข ( ๐‘  , ๐‘Ž ๐‘” ) in Lemma B.12. The following definition will be relevant to the proof of Theorem 4.1.

Definition B.1.

[Joint Stochastic Kernels] The joint stochastic kernel on ( ๐‘  ๐‘” , ๐‘  ฮ” ) for ฮ” โІ [ ๐‘› ] where | ฮ” |

๐‘˜ is defined as ๐’ฅ ๐‘˜ : ๐’ฎ ๐‘” ร— ๐’ฎ ๐‘™ ๐‘˜ ร— ๐’ฎ ๐‘” ร— ๐’œ ๐‘” ร— ๐’ฎ ๐‘™ ๐‘˜ โ†’ [ 0 , 1 ] , where

๐’ฅ ๐‘˜ โข ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” ) := Pr โก [ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ ) | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” ]
(20) Theorem B.2 ( ๐‘„ ^ ๐‘˜ ๐‘‡ is ( โˆ‘ ๐‘ก

0 ๐‘‡ โˆ’ 1 2 โข ๐›พ ๐‘ก ) โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž -Lipschitz continuous with respect to ๐น ๐‘  ฮ” in total variation distance).

Suppose ฮ” , ฮ” โ€ฒ โІ [ ๐‘› ] such that | ฮ” |

๐‘˜ and | ฮ” โ€ฒ |

๐‘˜ โ€ฒ . Then:

| ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) โˆ’ ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” ) | โ‰ค ( โˆ‘ ๐‘ก

0 ๐‘‡ โˆ’ 1 2 โข ๐›พ ๐‘ก ) โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž โ‹… TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  ฮ” โ€ฒ )

Proof.

We prove this inductively. Note that ๐‘„ ^ ๐‘˜ 0 โข ( โ‹… , โ‹… , โ‹… )

๐‘„ ^ ๐‘˜ โ€ฒ 0 โข ( โ‹… , โ‹… , โ‹… )

0 from the initialization step in Algorithm 1, which proves the lemma for ๐‘‡

0 since TV โข ( โ‹… , โ‹… ) โ‰ฅ 0 . For the remainder of this proof, we adopt the shorthand ๐”ผ ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ to refer to ๐”ผ ๐‘  ๐‘” โ€ฒ โˆผ ๐‘ƒ ๐‘” ( โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” ) , ๐‘  ๐‘– โ€ฒ โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– , ๐‘  ๐‘” ) , โˆ€ ๐‘– โˆˆ ฮ” .

Then, at ๐‘‡

1 :

| ๐‘„ ^ ๐‘˜ 1 ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” )
โˆ’ ๐‘„ ^ ๐‘˜ โ€ฒ 1 ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” ) |

| ๐’ฏ ^ ๐‘˜ โข ๐‘„ ^ ๐‘˜ 0 โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) โˆ’ ๐’ฏ ^ ๐‘˜ โ€ฒ โข ๐‘„ ^ ๐‘˜ โ€ฒ 0 โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” ) |

| ๐‘Ÿ ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) + ๐›พ ๐”ผ ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” ๐‘„ ^ ๐‘˜ 0 ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ )

โˆ’ ๐‘Ÿ ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” ) โˆ’ ๐›พ ๐”ผ ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ โ€ฒ max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” ๐‘„ ^ ๐‘˜ โ€ฒ 0 ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) |

| ๐‘Ÿ โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) โˆ’ ๐‘Ÿ โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” ) |

| 1 ๐‘˜ โข โˆ‘ ๐‘– โˆˆ ฮ” ๐‘Ÿ ๐‘™ โข ( ๐‘  ๐‘” , ๐‘  ๐‘– ) โˆ’ 1 ๐‘˜ โ€ฒ โข โˆ‘ ๐‘– โˆˆ ฮ” โ€ฒ ๐‘Ÿ ๐‘™ โข ( ๐‘  ๐‘” , ๐‘  ๐‘– ) |

| ๐”ผ ๐‘  ๐‘™ โˆผ ๐น ๐‘  ฮ” โข ๐‘Ÿ ๐‘™ โข ( ๐‘  ๐‘” , ๐‘  ๐‘™ ) โˆ’ ๐”ผ ๐‘  ๐‘™ โ€ฒ โˆผ ๐น ๐‘  ฮ” โ€ฒ โข ๐‘Ÿ ๐‘™ โข ( ๐‘  ๐‘” , ๐‘  ๐‘™ โ€ฒ ) |

In the first and second equalities, we use the time evolution property of ๐‘„ ^ ๐‘˜ 1 and ๐‘„ ^ ๐‘˜ โ€ฒ 1 by applying the adapted Bellman operators ๐’ฏ ^ ๐‘˜ and ๐’ฏ ^ ๐‘˜ โ€ฒ to ๐‘„ ^ ๐‘˜ 0 and ๐‘„ ^ ๐‘˜ โ€ฒ 0 , respectively, and expanding. In the third and fourth equalities, we note that ๐‘„ ^ ๐‘˜ 0 โข ( โ‹… , โ‹… , โ‹… )

๐‘„ ^ ๐‘˜ โ€ฒ 0 โข ( โ‹… , โ‹… , โ‹… )

0 , and subtract the common โ€˜global componentโ€™ of the reward function.

Then, noting the general property that for any function ๐‘“ : ๐’ณ โ†’ ๐’ด for | ๐’ณ | < โˆž we can write ๐‘“ โข ( ๐‘ฅ )

โˆ‘ ๐‘ฆ โˆˆ ๐’ณ ๐‘“ โข ( ๐‘ฆ ) โข ๐Ÿ™ โข { ๐‘ฆ

๐‘ฅ } , we have:

| ๐‘„ ^ ๐‘˜ 1 ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” )
โˆ’ ๐‘„ ^ ๐‘˜ โ€ฒ 1 ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” ) |

| ๐”ผ ๐‘  ๐‘™ โˆผ ๐น ๐‘  ฮ” โข [ โˆ‘ ๐‘ง โˆˆ ๐’ฎ ๐‘™ ๐‘Ÿ ๐‘™ โข ( ๐‘  ๐‘” , ๐‘ง ) โข ๐Ÿ™ โข { ๐‘  ๐‘™

๐‘ง } ] โˆ’ ๐”ผ ๐‘  ๐‘™ โ€ฒ โˆผ ๐น ๐‘  ฮ” โ€ฒ โข [ โˆ‘ ๐‘ง โˆˆ ๐’ฎ ๐‘™ ๐‘Ÿ ๐‘™ โข ( ๐‘  ๐‘” , ๐‘ง ) โข ๐Ÿ™ โข { ๐‘  ๐‘™ โ€ฒ

๐‘ง } ] |

| โˆ‘ ๐‘ง โˆˆ ๐’ฎ ๐‘™ ๐‘Ÿ ๐‘™ โข ( ๐‘  ๐‘” , ๐‘ง ) โ‹… ( ๐”ผ ๐‘  ๐‘™ โˆผ ๐น ๐‘  ฮ” โข ๐Ÿ™ โข { ๐‘  ๐‘™

๐‘ง } โˆ’ ๐”ผ ๐‘  ๐‘™ โ€ฒ โˆผ ๐น ๐‘  ฮ” โ€ฒ โข ๐Ÿ™ โข { ๐‘  ๐‘™ โ€ฒ

๐‘ง } ) |

| โˆ‘ ๐‘ง โˆˆ ๐’ฎ ๐‘™ ๐‘Ÿ ๐‘™ โข ( ๐‘  ๐‘” , ๐‘ง ) โ‹… ( ๐น ๐‘  ฮ” โข ( ๐‘ง ) โˆ’ ๐น ๐‘  ฮ” โ€ฒ โข ( ๐‘ง ) ) |

โ‰ค | max ๐‘ง โˆˆ ๐’ฎ ๐‘™ โก ๐‘Ÿ ๐‘™ โข ( ๐‘  ๐‘” , ๐‘ง ) | โ‹… โˆ‘ ๐‘ง โˆˆ ๐’ฎ ๐‘™ | ๐น ๐‘  ฮ” โข ( ๐‘ง ) โˆ’ ๐น ๐‘  ฮ” โ€ฒ โข ( ๐‘ง ) |

โ‰ค 2 โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž โ‹… TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  ฮ” โ€ฒ )

The second equality follows from the linearity of expectations, and the third equality follows by noting that for any random variable ๐‘‹ โˆผ ๐’ณ , ๐”ผ ๐‘‹ โข ๐Ÿ™ โข [ ๐‘‹

๐‘ฅ ]

Pr โก [ ๐‘‹

๐‘ฅ ] . Then, the first inequality follows from an application of the triangle inequality and the Cauchy-Schwarz inequality, and the second inequality follows by the definition of total variation distance. Thus, when ๐‘‡

1 , ๐‘„ ^ is ( 2 โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž ) -Lipschitz continuous with respect to total variation distance, proving the base case.

We now assume that for ๐‘‡ โ‰ค ๐‘ก โ€ฒ โˆˆ โ„• :

| ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) โˆ’ ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” ) | โ‰ค ( โˆ‘ ๐‘ก

0 ๐‘‡ โˆ’ 1 2 โข ๐›พ ๐‘ก ) โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž โ‹… TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  ฮ” โ€ฒ )

Then, inductively we have:

| ๐‘„ ^ ๐‘˜ ๐‘‡ + 1 ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” )

โˆ’ ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ + 1 ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” ) |

โ‰ค | 1 | ฮ” | โข โˆ‘ ๐‘– โˆˆ ฮ” ๐‘Ÿ ๐‘™ โข ( ๐‘  ๐‘” , ๐‘  ๐‘– ) โˆ’ 1 | ฮ” โ€ฒ | โข โˆ‘ ๐‘– โˆˆ ฮ” โ€ฒ ๐‘Ÿ ๐‘™ โข ( ๐‘  ๐‘” , ๐‘  ๐‘– ) |

  • ๐›พ โข | ๐”ผ ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) โˆ’ ๐”ผ ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ โ€ฒ โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) |

โ‰ค 2 โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž โ‹… TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  ฮ” โ€ฒ )

  • ๐›พ โข | ๐”ผ ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) โˆ’ ๐”ผ ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ โ€ฒ โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) |

In the first equality, we use the time evolution property of ๐‘„ ^ ๐‘˜ ๐‘‡ + 1 and ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ + 1 by applying the adapted-Bellman operators ๐’ฏ ^ ๐‘˜ and ๐’ฏ ^ ๐‘˜ โ€ฒ to ๐‘„ ^ ๐‘˜ ๐‘‡ and ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ , respectively. We then expand and use the triangle inequality. In the first term of the second inequality, we use our Lipschitz bound from the base case. For the second term, we now rewrite the expectation over the states ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ , ๐‘  ฮ” โ€ฒ โ€ฒ into an expectation over the joint transition probabilities ๐’ฅ ๐‘˜ and ๐’ฅ ๐‘˜ โ€ฒ from Definition B.1.

Therefore, using the shorthand ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ ) โˆผ ๐’ฅ ๐‘˜ to denote ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ ) โˆผ ๐’ฅ ๐‘˜ ( โ‹… , โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” ) , we have:

| ๐‘„ ^ ๐‘˜ ๐‘‡ + 1 โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) โˆ’ ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ + 1 โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” ) |

โ‰ค 2 โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž โ‹… TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  ฮ” โ€ฒ )

+ ๐›พ โข | ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ ) โˆผ ๐’ฅ ๐‘˜ โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) โˆ’ ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ โ€ฒ ) โˆผ ๐’ฅ ๐‘˜ โ€ฒ โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) |

โ‰ค 2 โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž โ‹… TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  ฮ” โ€ฒ )

+ ๐›พ โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก | ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ ) โˆผ ๐’ฅ ๐‘˜ โข ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) โˆ’ ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ โ€ฒ ) โˆผ ๐’ฅ ๐‘˜ โ€ฒ โข ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) |

โ‰ค 2 โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž โ‹… TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  ฮ” โ€ฒ ) + ๐›พ โข ( โˆ‘ ๐œ

0 ๐‘‡ โˆ’ 1 2 โข ๐›พ ๐œ ) โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž โ‹… TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  ฮ” โ€ฒ )

( โˆ‘ ๐œ

0 ๐‘‡ 2 โข ๐›พ ๐œ ) โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž โ‹… TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  ฮ” โ€ฒ )

In the first inequality, we rewrite the expectations over the states as the expectation over the joint transition probabilities. The second inequality then follows from Lemma B.9. To apply it to Lemma B.9, we superficially conflate the joint expectation over ( ๐‘  ๐‘” , ๐‘  ฮ” โˆช ฮ” โ€ฒ ) and reduce it back to the original form of its expectation. Finally, the third inequality follows from Lemma B.3.

Then, by the inductive hypothesis, the claim is proven.โˆŽ

Lemma B.3.

For all ๐‘‡ โˆˆ โ„• , for any ๐‘Ž ๐‘” , ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” , ๐‘  ๐‘” โˆˆ ๐’ฎ ๐‘” , ๐‘  ฮ” โˆˆ ๐’ฎ ๐‘™ ๐‘˜ , and for all joint stochastic kernels ๐’ฅ ๐‘˜ as defined in Definition B.1, we have that ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ ) โˆผ ๐’ฅ ๐‘˜ ( โ‹… , โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” ) โข ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) is ( โˆ‘ ๐‘ก

0 ๐‘ก โˆ’ 1 ) 2 ๐›พ ๐‘ก ) โˆฅ ๐‘Ÿ ๐‘™ ( โ‹… , โ‹… ) โˆฅ โˆž ) -Lipschitz continuous with respect to ๐น ๐‘  ฮ” in total variation distance:

| ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ ) โˆผ ๐’ฅ ๐‘˜ ( โ‹… , โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” ) ๐‘„ ^ ๐‘˜ ๐‘‡ ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ )
โˆ’ ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ โ€ฒ ) โˆผ ๐’ฅ ๐‘˜ โ€ฒ ( โ‹… , โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” โ€ฒ ) ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) |

โ‰ค ( โˆ‘ ๐œ

0 ๐‘‡ โˆ’ 1 2 โข ๐›พ ๐œ ) โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž โ‹… TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  ฮ” โ€ฒ )

Proof.

We prove this inductively. At ๐‘‡

0 , the statement is true since ๐‘„ ^ ๐‘˜ 0 โข ( โ‹… , โ‹… , โ‹… )

๐‘„ ^ ๐‘˜ โ€ฒ 0 โข ( โ‹… , โ‹… , โ‹… )

0 and TV โข ( โ‹… , โ‹… ) โ‰ฅ 0 . For ๐‘‡

1 , applying the adapted Bellman operator yields:

| ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ ) โˆผ ๐’ฅ ๐‘˜ ( โ‹… , โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” ) โข ๐‘„ ^ ๐‘˜ 1 โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) โˆ’ ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ โ€ฒ ) โˆผ ๐’ฅ ๐‘˜ โ€ฒ ( โ‹… , โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” โ€ฒ ) โข ๐‘„ ^ ๐‘˜ โ€ฒ 1 โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) |

| ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ ) โˆผ ๐’ฅ | ฮ” โˆช ฮ” โ€ฒ | ( โ‹… , โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” โˆช ฮ” โ€ฒ ) โข [ 1 | ฮ” | โข โˆ‘ ๐‘– โˆˆ ฮ” ๐‘Ÿ ๐‘™ โข ( ๐‘  ๐‘” โ€ฒ , ๐‘  ๐‘– โ€ฒ ) โˆ’ 1 | ฮ” โ€ฒ | โข โˆ‘ ๐‘– โˆˆ ฮ” โ€ฒ ๐‘Ÿ ๐‘™ โข ( ๐‘  ๐‘” โ€ฒ , ๐‘  ๐‘– โ€ฒ ) ] |

| ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ ) โˆผ ๐’ฅ | ฮ” โˆช ฮ” โ€ฒ | ( โ‹… , โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” โˆช ฮ” โ€ฒ ) โข [ โˆ‘ ๐‘ง โˆˆ ๐’ฎ ๐‘™ ๐‘Ÿ ๐‘™ โข ( ๐‘  ๐‘” โ€ฒ , ๐‘ง ) โ‹… ( ๐น ๐‘  ฮ” โ€ฒ โข ( ๐‘ง ) โˆ’ ๐น ๐‘  ฮ” โ€ฒ โ€ฒ โข ( ๐‘ง ) ) ] |

Similarly to Theorem B.2, we implicitly write the result as an expectation over the reward functions and use the general property that for any function ๐‘“ : ๐’ณ โ†’ ๐’ด for | ๐’ณ | < โˆž , we can write ๐‘“ โข ( ๐‘ฅ )

โˆ‘ ๐‘ฆ โˆˆ ๐’ณ ๐‘“ โข ( ๐‘ฆ ) โข ๐Ÿ™ โข { ๐‘ฆ

๐‘ฅ } . Then, taking the expectation over the indicator variable yields the second equality. As a shorthand, let ๐”‡ denote the distribution of ๐‘  ๐‘” โ€ฒ โˆผ โˆ‘ ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ โˆˆ ๐’ฎ ๐‘™ | ฮ” โˆช ฮ” โ€ฒ | ๐’ฅ | ฮ” โˆช ฮ” | โข ( โ‹… , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” โˆช ฮ” โ€ฒ ) . Then, by the law of total expectation,

| ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ ) โˆผ ๐’ฅ ๐‘˜ ( โ‹… , โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” ) โข ๐‘„ ^ ๐‘˜ 1 โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) โˆ’ ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ โ€ฒ ) โˆผ ๐’ฅ ๐‘˜ โ€ฒ ( โ‹… , โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” โ€ฒ ) โข ๐‘„ ^ ๐‘˜ โ€ฒ 1 โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) |

| ๐”ผ ๐‘  ๐‘” โ€ฒ โˆผ ๐”‡ โข โˆ‘ ๐‘ง โˆˆ ๐’ฎ ๐‘™ ๐‘Ÿ ๐‘™ โข ( ๐‘  ๐‘” โ€ฒ , ๐‘ง ) โข ๐”ผ ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ โˆผ ๐’ฅ | ฮ” โˆช ฮ” โ€ฒ | ( โ‹… | ๐‘  ๐‘” โ€ฒ , ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” โˆช ฮ” โ€ฒ ) โข ( ๐น ๐‘  ฮ” โ€ฒ โข ( ๐‘ง ) โˆ’ ๐น ๐‘  ฮ” โ€ฒ โ€ฒ โข ( ๐‘ง ) ) |

โ‰ค โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž โ‹… ๐”ผ ๐‘  ๐‘” โ€ฒ โˆผ ๐”‡ โข โˆ‘ ๐‘ง โˆˆ ๐’ฎ ๐‘™ | ๐”ผ ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ โˆผ ๐’ฅ | ฮ” โˆช ฮ” โ€ฒ | ( โ‹… | ๐‘  ๐‘” โ€ฒ , ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” โˆช ฮ” โ€ฒ ) โข ( ๐น ๐‘  ฮ” โ€ฒ โข ( ๐‘ง ) โˆ’ ๐น ๐‘  ฮ” โ€ฒ โ€ฒ โข ( ๐‘ง ) ) |

โ‰ค 2 โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž โ‹… ๐”ผ ๐‘  ๐‘” โ€ฒ โˆผ ๐”‡ โข TV โข ( ๐”ผ ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ | ๐‘  ๐‘” โ€ฒ โข ๐น ๐‘  ฮ” โ€ฒ , ๐”ผ ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ | ๐‘  ๐‘” โ€ฒ โข ๐น ๐‘  ฮ” โ€ฒ โ€ฒ )

โ‰ค 2 โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž โ‹… TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  ฮ” โ€ฒ )

In the ensuing inequalities, we first use Jensenโ€™s inequality and the triangle inequality to pull out ๐”ผ ๐‘  ๐‘” โ€ฒ โข โˆ‘ ๐‘ง โˆˆ ๐’ฎ ๐‘™ from the absolute value, and then use Cauchy-Schwarz to further factor โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž . The second inequality follows from Lemma B.5 and does not have a dependence on ๐‘  ๐‘” โ€ฒ thus eliminating ๐”ผ ๐‘  ๐‘” โ€ฒ and proving the base case.

We now assume that for ๐‘‡ โ‰ค ๐‘ก โ€ฒ โˆˆ โ„• , for all joint stochastic kernels ๐’ฅ ๐‘˜ and ๐’ฅ ๐‘˜ โ€ฒ , and for all ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” :

| ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ ) โˆผ ๐’ฅ ๐‘˜ ( โ‹… , โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” ) ๐‘„ ^ ๐‘˜ ๐‘‡ ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ )
โˆ’ ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ โ€ฒ ) โˆผ ๐’ฅ ๐‘˜ โ€ฒ ( โ‹… , โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” โ€ฒ ) ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) |

โ‰ค ( โˆ‘ ๐‘ก

0 ๐‘‡ โˆ’ 1 2 โข ๐›พ ๐‘ก ) โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž โ‹… TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  ฮ” โ€ฒ )

For the remainder of the proof, we adopt the shorthand ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ ) โˆผ ๐’ฅ to denote ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ ) โˆผ ๐’ฅ | ฮ” | ( โ‹… , โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” ) , and ๐”ผ ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โ€ฒโ€ฒ ) โˆผ ๐’ฅ to denote ๐”ผ ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โ€ฒโ€ฒ ) โˆผ ๐’ฅ | ฮ” | ( โ‹… , โ‹… | ๐‘  ๐‘” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ ) .

Then, inductively, we have:

| ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ ) โˆผ ๐’ฅ โข ๐‘„ ^ ๐‘˜ ๐‘‡ + 1 โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) โˆ’ ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ โ€ฒ ) โˆผ ๐’ฅ โข ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ + 1 โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) |

| ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ ) โˆผ ๐’ฅ [ ๐‘Ÿ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) โˆ’ ๐‘Ÿ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ โ€ฒ , ๐‘Ž ๐‘” โ€ฒ )

  • ๐›พ ๐”ผ ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒโ€ฒ ) โˆผ ๐’ฅ [ max ๐‘Ž ๐‘” โ€ฒโ€ฒ โˆˆ ๐’œ ๐‘” ๐‘„ ^ ๐‘˜ ๐‘‡ ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐น ๐‘  ฮ” โ€ฒโ€ฒ , ๐‘Ž ๐‘” โ€ฒโ€ฒ ) โˆ’ max ๐‘Ž ๐‘” โ€ฒโ€ฒ โˆˆ ๐’œ ๐‘” ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐น ๐‘  ฮ” โ€ฒ โ€ฒโ€ฒ , ๐‘Ž ๐‘” โ€ฒโ€ฒ ) ] ] |

โ‰ค 2 โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž โ‹… TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  ฮ” โ€ฒ )

  • ๐›พ โข | ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ ) โˆผ ๐’ฅ โข [ ๐”ผ ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒโ€ฒ ) โˆผ ๐’ฅ โข [ max ๐‘Ž ๐‘” โ€ฒโ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐น ๐‘  ฮ” โ€ฒโ€ฒ , ๐‘Ž ๐‘” โ€ฒโ€ฒ ) โˆ’ max ๐‘Ž ๐‘” โ€ฒโ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐น ๐‘  ฮ” โ€ฒ โ€ฒโ€ฒ , ๐‘Ž ๐‘” โ€ฒโ€ฒ ) ] ] |

Here, we expand out ๐‘„ ^ ๐‘˜ ๐‘‡ + 1 and ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ + 1 using the adapted Bellman operator. In the ensuing inequality, we apply the triangle inequality and bound the first term using the base case. Then, note that

๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ ) โˆผ ๐’ฅ ( โ‹… , โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” โˆช ฮ” โ€ฒ ) โข ๐”ผ ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒโ€ฒ ) โˆผ ๐’ฅ ( โ‹… , โ‹… | ๐‘  ๐‘” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ ) โข max ๐‘Ž ๐‘” โ€ฒโ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐น ๐‘  ฮ” โ€ฒโ€ฒ , ๐‘Ž ๐‘” โ€ฒโ€ฒ )

is, for some stochastic function ๐’ฅ | ฮ” โˆช ฮ” โ€ฒ | โ€ฒ , equal to

๐”ผ ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒโ€ฒ ) โˆผ ๐’ฅ | ฮ” โˆช ฮ” โ€ฒ | โ€ฒ ( โ‹… , โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” โˆช ฮ” โ€ฒ ) โข max ๐‘Ž ๐‘” โ€ฒโ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐น ๐‘  ฮ” โ€ฒโ€ฒ , ๐‘Ž ๐‘” โ€ฒโ€ฒ ) ,

where ๐’ฅ โ€ฒ is implicitly a function of ๐‘Ž ๐‘” โ€ฒ which is fixed from the beginning.

In the special case where ๐‘Ž ๐‘”

๐‘Ž ๐‘” โ€ฒ , we can derive an explicit form of ๐’ฅ โ€ฒ which we show in Lemma B.11. As a shorthand, we denote ๐”ผ ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒโ€ฒ ) โˆผ ๐’ฅ | ฮ” โˆช ฮ” โ€ฒ | โ€ฒ ( โ‹… , โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” โˆช ฮ” โ€ฒ ) by ๐”ผ ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒโ€ฒ ) โˆผ ๐’ฅ โ€ฒ .

Therefore,

| ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ ) โˆผ ๐’ฅ
๐‘„ ^ ๐‘˜ ๐‘‡ + 1 ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) โˆ’ ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ โ€ฒ ) โˆผ ๐’ฅ ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ + 1 ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) |

โ‰ค 2 โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž โ‹… TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  ฮ” โ€ฒ ) + ๐›พ | ๐”ผ ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒโ€ฒ ) โˆผ ๐’ฅ โ€ฒ โข max ๐‘Ž ๐‘” โ€ฒโ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐น ๐‘  ฮ” โ€ฒโ€ฒ , ๐‘Ž ๐‘” โ€ฒโ€ฒ )

โˆ’ ๐”ผ ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒโ€ฒ ) โˆผ ๐’ฅ โ€ฒ max ๐‘Ž ๐‘” โ€ฒโ€ฒ โˆˆ ๐’œ ๐‘” ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐น ๐‘  ฮ” โ€ฒ โ€ฒโ€ฒ , ๐‘Ž ๐‘” โ€ฒโ€ฒ ) |

โ‰ค 2 โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž โ‹… TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  ฮ” โ€ฒ ) + ๐›พ โข max ๐‘Ž ๐‘” โ€ฒโ€ฒ โˆˆ ๐’œ ๐‘” | ๐”ผ ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒโ€ฒ ) โˆผ ๐’ฅ โ€ฒ โข ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐น ๐‘  ฮ” โ€ฒโ€ฒ , ๐‘Ž ๐‘” โ€ฒโ€ฒ )

โˆ’ ๐”ผ ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒโ€ฒ ) โˆผ ๐’ฅ โ€ฒ ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐น ๐‘  ฮ” โ€ฒ โ€ฒโ€ฒ , ๐‘Ž ๐‘” โ€ฒโ€ฒ ) |

โ‰ค 2 โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž โ‹… TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  ฮ” โ€ฒ ) + ๐›พ โข ( โˆ‘ ๐‘ก

0 ๐‘‡ โˆ’ 1 2 โข ๐›พ ๐‘ก ) โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž โ‹… TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  ฮ” โ€ฒ )

( โˆ‘ ๐‘ก

0 ๐‘‡ 2 โข ๐›พ ๐‘ก ) โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž โ‹… TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  ฮ” โ€ฒ )

The second inequality follows from Lemma B.9 where we set the joint stochastic kernel to be ๐’ฅ | ฮ” โˆช ฮ” โ€ฒ | โ€ฒ . In the ensuing lines, we concentrate the expectation towards the relevant terms and use the induction assumption for the transition probability functions ๐’ฅ ๐‘˜ โ€ฒ and ๐’ฅ ๐‘˜ โ€ฒ โ€ฒ . This proves the lemma. โˆŽ

Remark B.4.

Given a joint transition probability function ๐’ฅ | ฮ” โˆช ฮ” โ€ฒ | as defined in Definition B.1, we can recover the transition function for a single agent ๐‘– โˆˆ ฮ” โˆช ฮ” โ€ฒ given by ๐’ฅ 1 using the law of total probability and the conditional independence between ๐‘  ๐‘– and ๐‘  ๐‘” โˆช ๐‘  [ ๐‘› ] โˆ– ๐‘– in Equation 21. This characterization is crucial in Lemma B.5 and Lemma B.6.

๐’ฅ 1 ( โ‹… | ๐‘  ๐‘” โ€ฒ , ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ๐‘– )

โˆ‘ ๐‘  ฮ” โˆช ฮ” โ€ฒ โˆ– ๐‘– โ€ฒ โˆผ ๐’ฎ ๐‘™ | ฮ” โˆช ฮ” โ€ฒ | โˆ’ 1 ๐’ฅ | ฮ” โˆช ฮ” โ€ฒ | ( ๐‘  ฮ” โˆช ฮ” โ€ฒ โˆ– ๐‘– โ€ฒ , ๐‘  ๐‘– โ€ฒ | ๐‘  ๐‘” โ€ฒ , ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” โˆช ฮ” โ€ฒ )

(21) Lemma B.5.

Given a joint transition probability ๐’ฅ | ฮ” โˆช ฮ” โ€ฒ | as defined in Definition B.1,

TV โข ( ๐”ผ ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ โˆผ ๐’ฅ | ฮ” โˆช ฮ” โ€ฒ | ( โ‹… | ๐‘  ๐‘” โ€ฒ , ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” โˆช ฮ” โ€ฒ ) โข ๐น ๐‘  ฮ” โ€ฒ , ๐”ผ ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ โˆผ ๐’ฅ | ฮ” โˆช ฮ” โ€ฒ | ( โ‹… | ๐‘  ๐‘” โ€ฒ , ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” โˆช ฮ” โ€ฒ ) โข ๐น ๐‘  ฮ” โ€ฒ โ€ฒ ) โ‰ค TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  ฮ” โ€ฒ )

Proof.

Note that from Lemma B.6:

๐”ผ ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ โˆผ ๐’ฅ | ฮ” โˆช ฮ” โ€ฒ | ( โ‹… , โ‹… | ๐‘  ๐‘” โ€ฒ , ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” โˆช ฮ” โ€ฒ ) โข ๐น ๐‘  ฮ” โ€ฒ

๐”ผ ๐‘  ฮ” โ€ฒ โˆผ ๐’ฅ | ฮ” | ( โ‹… , โ‹… | ๐‘  ๐‘” โ€ฒ , ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” ) โข ๐น ๐‘  ฮ” โ€ฒ

๐’ฅ 1 ( โ‹… | ๐‘  ๐‘” ( ๐‘ก + 1 ) , ๐‘  ๐‘” ( ๐‘ก ) , ๐‘Ž ๐‘” ( ๐‘ก ) , โ‹… ) ๐น ๐‘  ฮ”

Then, by expanding the TV distance in โ„“ 1 -norm:

TV
( ๐”ผ ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ โˆผ ๐’ฅ | ฮ” โˆช ฮ” โ€ฒ | ( โ‹… | ๐‘  ๐‘” โ€ฒ , ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” โˆช ฮ” โ€ฒ ) โข ๐น ๐‘  ฮ” โ€ฒ , ๐”ผ ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ โˆผ ๐’ฅ | ฮ” โˆช ฮ” โ€ฒ | ( โ‹… | ๐‘  ๐‘” โ€ฒ , ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” โˆช ฮ” โ€ฒ ) โข ๐น ๐‘  ฮ” โ€ฒ โ€ฒ )

1 2 โˆฅ ๐’ฅ 1 ( โ‹… | ๐‘  ๐‘” ( ๐‘ก + 1 ) , ๐‘  ๐‘” ( ๐‘ก ) , ๐‘Ž ๐‘” ( ๐‘ก ) , โ‹… ) ๐น ๐‘  ฮ” โˆ’ ๐’ฅ 1 ( โ‹… | ๐‘  ๐‘” ( ๐‘ก + 1 ) , ๐‘  ๐‘” ( ๐‘ก ) , ๐‘Ž ๐‘” ( ๐‘ก ) , โ‹… ) ๐น ๐‘  ฮ” โ€ฒ โˆฅ 1

โ‰ค โˆฅ ๐’ฅ 1 ( โ‹… | ๐‘  ๐‘” ( ๐‘ก + 1 ) , ๐‘  ๐‘” ( ๐‘ก ) , ๐‘Ž ๐‘” ( ๐‘ก ) , โ‹… ) โˆฅ 1 โ‹… 1 2 โˆฅ ๐น ๐‘  ฮ” โˆ’ ๐น ๐‘  ฮ” โ€ฒ โˆฅ 1

โ‰ค 1 2 โข โ€– ๐น ๐‘  ฮ” โˆ’ ๐น ๐‘  ฮ” โ€ฒ โ€– 1

TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  ฮ” โ€ฒ )

In the first inequality, we factorize โˆฅ ๐’ฅ 1 ( โ‹… | ๐‘  ๐‘” ( ๐‘ก + 1 ) , ๐‘  ๐‘” ( ๐‘ก ) , ๐‘Ž ๐‘” ( ๐‘ก ) ) โˆฅ 1 from the โ„“ 1 -normed expression by the sub-multiplicativity of the matrix norm. Finally, since ๐’ฅ 1 is a column-stochastic matrix, we bound its norm by 1 to recover the total variation distance between ๐น ๐‘  ฮ” and ๐น ๐‘  ฮ” โ€ฒ . โˆŽ

Lemma B.6.

Given the joint transition probability ๐’ฅ ๐‘˜ from Definition B.1:

๐”ผ ๐‘  ฮ” โˆช ฮ” โ€ฒ ( ๐‘ก + 1 ) โˆผ ๐’ฅ | ฮ” โˆช ฮ” โ€ฒ | ( โ‹… | ๐‘  ๐‘” ( ๐‘ก + 1 ) , ๐‘  ๐‘” ( ๐‘ก ) , ๐‘Ž ๐‘” ( ๐‘ก ) , ๐‘  ฮ” โˆช ฮ” โ€ฒ ( ๐‘ก ) ) ๐น ๐‘  ฮ” โข ( ๐‘ก + 1 ) := ๐’ฅ 1 ( โ‹… | ๐‘  ๐‘” ( ๐‘ก + 1 ) , ๐‘  ๐‘” ( ๐‘ก ) , ๐‘Ž ๐‘” ( ๐‘ก ) , โ‹… ) ๐น ๐‘  ฮ” ( ๐‘ก )

Proof.

First, observe that for all ๐‘ฅ โˆˆ ๐’ฎ ๐‘™ :

๐”ผ ๐‘  ฮ” โˆช ฮ” โ€ฒ ( ๐‘ก + 1 ) โˆผ ๐’ฅ | ฮ” โˆช ฮ” โ€ฒ | ( โ‹… | ๐‘  ๐‘” ( ๐‘ก + 1 ) , ๐‘  ๐‘” ( ๐‘ก ) , ๐‘Ž ๐‘” ( ๐‘ก ) , ๐‘  ฮ” โˆช ฮ” โ€ฒ ( ๐‘ก ) ) โข ๐น ๐‘  ฮ” โข ( ๐‘ก + 1 ) โข ( ๐‘ฅ )

1 | ฮ” | โข โˆ‘ ๐‘– โˆˆ ฮ” ๐”ผ ๐‘  ฮ” โˆช ฮ” โ€ฒ ( ๐‘ก + 1 ) โˆผ ๐’ฅ | ฮ” โˆช ฮ” โ€ฒ | ( โ‹… | ๐‘  ๐‘” ( ๐‘ก + 1 ) , ๐‘  ๐‘” ( ๐‘ก ) , ๐‘Ž ๐‘” ( ๐‘ก ) , ๐‘  ฮ” โˆช ฮ” โ€ฒ ( ๐‘ก ) ) โข ๐Ÿ™ โข ( ๐‘  ๐‘– โข ( ๐‘ก + 1 )

๐‘ฅ )

1 | ฮ” | โˆ‘ ๐‘– โˆˆ ฮ” Pr [ ๐‘  ๐‘– ( ๐‘ก + 1 )

๐‘ฅ | ๐‘  ๐‘” ( ๐‘ก + 1 ) , ๐‘  ๐‘” ( ๐‘ก ) , ๐‘Ž ๐‘” ( ๐‘ก ) , ๐‘  ฮ” โˆช ฮ” โ€ฒ ( ๐‘ก ) ) ]

1 | ฮ” | โˆ‘ ๐‘– โˆˆ ฮ” Pr [ ๐‘  ๐‘– ( ๐‘ก + 1 )

๐‘ฅ | ๐‘  ๐‘” ( ๐‘ก + 1 ) , ๐‘  ๐‘” ( ๐‘ก ) , ๐‘Ž ๐‘” ( ๐‘ก ) , ๐‘  ๐‘– ( ๐‘ก ) ) ]

1 | ฮ” | โข โˆ‘ ๐‘– โˆˆ ฮ” ๐’ฅ 1 โข ( ๐‘ฅ | ๐‘  ๐‘” โข ( ๐‘ก + 1 ) , ๐‘  ๐‘” โข ( ๐‘ก ) , ๐‘Ž ๐‘” โข ( ๐‘ก ) , ๐‘  ๐‘– โข ( ๐‘ก ) )

In the first line, we expand on the definition of ๐น ๐‘  ฮ” โข ( ๐‘ก + 1 ) โข ( ๐‘ฅ ) . Finally, we note that ๐‘  ๐‘– โข ( ๐‘ก + 1 ) is conditionally independent to ๐‘  ฮ” โˆช ฮ” โ€ฒ โˆ– ๐‘– , which yields the equality above. Then, aggregating across every entry ๐‘ฅ โˆˆ ๐’ฎ ๐‘™ ,

๐”ผ ๐‘  ฮ” โˆช ฮ” โ€ฒ ( ๐‘ก + 1 ) โˆผ ๐’ฅ | ฮ” โˆช ฮ” โ€ฒ | ( โ‹… | ๐‘  ๐‘” ( ๐‘ก + 1 ) , ๐‘  ๐‘” ( ๐‘ก ) , ๐‘Ž ๐‘” ( ๐‘ก ) , ๐‘  ฮ” โˆช ฮ” โ€ฒ ( ๐‘ก ) ) โข ๐น ๐‘  ฮ” โข ( ๐‘ก + 1 )

1 | ฮ” | โˆ‘ ๐‘– โˆˆ ฮ” ๐’ฅ 1 ( โ‹… | ๐‘  ๐‘” ( ๐‘ก + 1 ) , ๐‘  ๐‘” ( ๐‘ก ) , ๐‘Ž ๐‘” ( ๐‘ก ) , โ‹… ) ๐Ÿ™ โ†’ ๐‘  ๐‘– โข ( ๐‘ก )

๐’ฅ 1 ( โ‹… | ๐‘  ๐‘” ( ๐‘ก + 1 ) , ๐‘  ๐‘” ( ๐‘ก ) , ๐‘Ž ๐‘” ( ๐‘ก ) , โ‹… ) ๐น ๐‘  ฮ”

Notably, every ๐‘ฅ corresponds to a choice of rows in ๐’ฅ 1 ( โ‹… | ๐‘  ๐‘” ( ๐‘ก + 1 ) , ๐‘  ๐‘” ( ๐‘ก ) , ๐‘Ž ๐‘” ( ๐‘ก ) , โ‹… ) and every choice of ๐‘  ๐‘– โข ( ๐‘ก ) corresponds to a choice of columns in ๐’ฅ 1 ( โ‹… | ๐‘  ๐‘” ( ๐‘ก + 1 ) , ๐‘  ๐‘” ( ๐‘ก ) , ๐‘Ž ๐‘” ( ๐‘ก ) , โ‹… ) , making ๐’ฅ 1 ( โ‹… | ๐‘  ๐‘” ( ๐‘ก + 1 ) , ๐‘  ๐‘” ( ๐‘ก ) , ๐‘Ž ๐‘” ( ๐‘ก ) , โ‹… ) column-stochastic. This yields the claim.โˆŽ

Lemma B.7.

The total variation distance between the expected empirical distribution of ๐‘  ฮ” โข ( ๐‘ก + 1 ) and ๐‘  ฮ” โ€ฒ โข ( ๐‘ก + 1 ) is linearly bounded by the total variation distance of the empirical distributions of ๐‘  ฮ” โข ( ๐‘ก ) and ๐‘  ฮ” โ€ฒ โข ( ๐‘ก ) , for ฮ” , ฮ” โ€ฒ โІ [ ๐‘› ] :

TV โข ( ๐”ผ ๐‘  ๐‘– ( ๐‘ก + 1 ) โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– ( ๐‘ก ) , ๐‘  ๐‘” ( ๐‘ก ) ) ,

โˆ€ ๐‘– โˆˆ ฮ” โข ๐น ๐‘  ฮ” โข ( ๐‘ก + 1 ) , ๐”ผ ๐‘  ๐‘– ( ๐‘ก + 1 ) โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– ( ๐‘ก ) , ๐‘  ๐‘” ( ๐‘ก ) ) ,

โˆ€ ๐‘– โˆˆ ฮ” โ€ฒ โข ๐น ๐‘  ฮ” โ€ฒ โข ( ๐‘ก + 1 ) ) โ‰ค TV โข ( ๐น ๐‘  ฮ” โข ( ๐‘ก ) , ๐น ๐‘  ฮ” โ€ฒ โข ( ๐‘ก ) )

Proof.

We expand the total variation distance measure in โ„“ 1 -norm and utilize the result from Lemma B.10 that ๐”ผ ๐‘  ๐‘– ( ๐‘ก + 1 ) โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– ( ๐‘ก ) , ๐‘  ๐‘” ( ๐‘ก ) )

โˆ€ ๐‘– โˆˆ ฮ” ๐น ๐‘  ฮ” โข ( ๐‘ก + 1 )

๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘” ( ๐‘ก ) ) ๐น ๐‘  ฮ” โข ( ๐‘ก ) as follows:

TV

( ๐”ผ ๐‘  ๐‘– ( ๐‘ก + 1 ) โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– ( ๐‘ก ) , ๐‘  ๐‘” ( ๐‘ก ) )

โˆ€ ๐‘– โˆˆ ฮ” โข ๐น ๐‘  ฮ” โข ( ๐‘ก + 1 ) , ๐”ผ ๐‘  ๐‘– ( ๐‘ก + 1 ) โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– ( ๐‘ก ) , ๐‘  ๐‘” ( ๐‘ก ) )

โˆ€ ๐‘– โˆˆ ฮ” โ€ฒ โข ๐น ๐‘  ฮ” โ€ฒ โข ( ๐‘ก + 1 ) )

1 2 โข โ€– ๐”ผ ๐‘  ๐‘– ( ๐‘ก + 1 ) โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– ( ๐‘ก ) , ๐‘  ๐‘” ( ๐‘ก ) )

โˆ€ ๐‘– โˆˆ ฮ” โข ๐น ๐‘  ฮ” โข ( ๐‘ก + 1 ) โˆ’ ๐”ผ ๐‘  ๐‘– ( ๐‘ก + 1 ) โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– ( ๐‘ก ) , ๐‘  ๐‘” ( ๐‘ก ) )

โˆ€ ๐‘– โˆˆ ฮ” โ€ฒ โข ๐น ๐‘  ฮ” โ€ฒ โข ( ๐‘ก + 1 ) โ€– 1

1 2 โˆฅ ๐‘ƒ ๐‘™ ( โ‹… | โ‹… , ๐‘  ๐‘” ( ๐‘ก ) ) ๐น ๐‘  ฮ” โข ( ๐‘ก ) โˆ’ ๐‘ƒ ๐‘™ ( โ‹… | โ‹… , ๐‘  ๐‘” ( ๐‘ก ) ) ๐น ๐‘  ฮ” โ€ฒ โข ( ๐‘ก ) โˆฅ 1

โ‰ค โˆฅ ๐‘ƒ ๐‘™ ( โ‹… | โ‹… , ๐‘  ๐‘” ( ๐‘ก ) ) โˆฅ 1 โ‹… 1 2 | ๐น ๐‘  ฮ” โข ( ๐‘ก ) โˆ’ ๐น ๐‘  ฮ” โ€ฒ โข ( ๐‘ก ) | 1

โˆฅ ๐‘ƒ ๐‘™ ( โ‹… | โ‹… , ๐‘  ๐‘” ( ๐‘ก ) ) โˆฅ 1 โ‹… TV ( ๐น ๐‘  ฮ” โข ( ๐‘ก ) , ๐น ๐‘  ฮ” โ€ฒ โข ( ๐‘ก ) )

In the last line, we recover the total variation distance from the โ„“ 1 norm. Finally, by the column stochasticity of ๐‘ƒ ๐‘™ ( โ‹… | โ‹… , ๐‘  ๐‘” ) , we have that โˆฅ ๐‘ƒ ๐‘™ ( โ‹… | โ‹… , ๐‘  ๐‘” ) โˆฅ 1 โ‰ค 1 , which then implies

TV โข ( ๐”ผ ๐‘  ๐‘– ( ๐‘ก + 1 ) โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– ( ๐‘ก ) , ๐‘  ๐‘” ( ๐‘ก ) )

โˆ€ ๐‘– โˆˆ ฮ” โข ๐น ๐‘  ฮ” โข ( ๐‘ก + 1 ) , ๐”ผ ๐‘  ๐‘– ( ๐‘ก + 1 ) โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– ( ๐‘ก ) , ๐‘  ๐‘” ( ๐‘ก ) )

โˆ€ ๐‘– โˆˆ ฮ” โ€ฒ โข ๐น ๐‘  ฮ” โ€ฒ โข ( ๐‘ก + 1 ) ) โ‰ค TV โข ( ๐น ๐‘  ฮ” โข ( ๐‘ก ) , ๐น ๐‘  ฮ” โ€ฒ โข ( ๐‘ก ) )

This proves the lemma.โˆŽ

Remark B.8.

Lemma B.7 can be viewed as an irreducibility and aperiodicity result on the finite-state Markov chain whose state space is given by ๐’ฎ

๐’ฎ ๐‘” ร— ๐’ฎ ๐‘™ ๐‘› . Let { ๐‘  ๐‘ก } ๐‘ก โˆˆ โ„• denote the sequence of states visited by this Markov chain where the transitions are induced by the transition functions ๐‘ƒ ๐‘” , ๐‘ƒ ๐‘™ . Through this, Lemma B.7 describes an ergodic behavior of the Markov chain.

Lemma B.9.

The absolute difference between the expected maximums between ๐‘„ ^ ๐‘˜ and ๐‘„ ^ ๐‘˜ โ€ฒ is atmost the maximum of the absolute difference between ๐‘„ ^ ๐‘˜ and ๐‘„ ^ ๐‘˜ โ€ฒ , where the expectations are taken over any joint distributions of states ๐’ฅ , and the maximums are taken over the actions.

| ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ ) โˆผ ๐’ฅ | ฮ” โˆช ฮ” โ€ฒ | ( โ‹… , โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” โˆช ฮ” โ€ฒ ) [ max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” ๐‘„ ^ ๐‘˜ ๐‘‡ ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ )

โˆ’ max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) ] |

โ‰ค max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” | ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ ) โˆผ ๐’ฅ | ฮ” โˆช ฮ” โ€ฒ | ( โ‹… , โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” โˆช ฮ” โ€ฒ ) [ ๐‘„ ^ ๐‘˜ ๐‘‡ ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ )

โˆ’ ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) ] |

Proof.

๐‘Ž ๐‘” โˆ— := arg โก max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) , ๐‘Ž ~ ๐‘” โˆ— := arg โก max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ โ€ฒ , ๐‘Ž ๐‘” โ€ฒ )

For the remainder of this proof, we adopt the shorthand ๐”ผ ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ to refer to ๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ ) โˆผ ๐’ฅ | ฮ” โˆช ฮ” โ€ฒ | ( โ‹… , โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” โˆช ฮ” โ€ฒ ) .

Then, if ๐”ผ ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) โˆ’ ๐”ผ ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ โ€ฒ , ๐‘Ž ๐‘” โ€ฒ )

0 , we have:

| ๐”ผ ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) โˆ’ ๐”ผ ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) |

๐”ผ ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ โข ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โˆ— ) โˆ’ ๐”ผ ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ โข ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ โ€ฒ , ๐‘Ž ~ ๐‘” โˆ— )

โ‰ค ๐”ผ ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ โข ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โˆ— ) โˆ’ ๐”ผ ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ โข ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ โ€ฒ , ๐‘Ž ๐‘” โˆ— )

โ‰ค max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก | ๐”ผ ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ โข ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) โˆ’ ๐”ผ ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ โข ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) |

Similarly, if ๐”ผ ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) โˆ’ ๐”ผ ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โˆช ฮ” โ€ฒ โ€ฒ โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ โ€ฒ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) < 0 , an analogous argument by replacing ๐‘Ž ๐‘” โˆ— with ๐‘Ž ~ ๐‘” โˆ— yields an identical bound. โˆŽ

Lemma B.10.

For all ๐‘ก โˆˆ โ„• and ฮ” โІ [ ๐‘› ] ,

๐”ผ ๐‘  ๐‘– ( ๐‘ก + 1 ) โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– ( ๐‘ก ) , ๐‘  ๐‘” ( ๐‘ก ) )

โˆ€ ๐‘– โˆˆ ฮ” [ ๐น ๐‘  ฮ” โข ( ๐‘ก + 1 ) ]

๐‘ƒ ๐‘™ ( โ‹… | โ‹… , ๐‘  ๐‘” ( ๐‘ก ) ) ๐น ๐‘  ฮ” โข ( ๐‘ก )

Proof.

For all ๐‘ฅ โˆˆ ๐’ฎ ๐‘™ :

๐”ผ ๐‘  ๐‘– ( ๐‘ก + 1 ) โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– ( ๐‘ก ) , ๐‘  ๐‘” ( ๐‘ก ) )

โˆ€ ๐‘– โˆˆ ฮ” โข [ ๐น ๐‘  ฮ” โข ( ๐‘ก + 1 ) โข ( ๐‘ฅ ) ]
:= 1 | ฮ” | โข โˆ‘ ๐‘– โˆˆ ฮ” ๐”ผ ๐‘  ๐‘– โข ( ๐‘ก + 1 ) โˆผ ๐‘ƒ ๐‘™ โข ( ๐‘  ๐‘– โข ( ๐‘ก ) , ๐‘  ๐‘” โข ( ๐‘ก ) ) โข [ ๐Ÿ™ โข ( ๐‘  ๐‘– โข ( ๐‘ก + 1 )

๐‘ฅ ) ]

1 | ฮ” | โˆ‘ ๐‘– โˆˆ ฮ” Pr [ ๐‘  ๐‘– ( ๐‘ก + 1 )

๐‘ฅ | ๐‘  ๐‘– ( ๐‘ก + 1 ) โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– ( ๐‘ก ) , ๐‘  ๐‘” ( ๐‘ก ) ) ]

1 | ฮ” | โข โˆ‘ ๐‘– โˆˆ ฮ” ๐‘ƒ ๐‘™ โข ( ๐‘ฅ | ๐‘  ๐‘– โข ( ๐‘ก ) , ๐‘  ๐‘” โข ( ๐‘ก ) )

In the first line, we are writing out the definition of ๐น ๐‘  ฮ” โข ( ๐‘ก + 1 ) โข ( ๐‘ฅ ) and using the conditional independence in the evolutions of ฮ” โˆ– ๐‘– and ๐‘– . In the second line, we use the fact that for any random variable ๐‘‹ โˆˆ ๐’ณ , ๐”ผ ๐‘‹ โข ๐Ÿ™ โข [ ๐‘‹

๐‘ฅ ]

Pr โก [ ๐‘‹

๐‘ฅ ] . In line 3, we observe that the above probability can be written as an entry of the local transition matrix ๐‘ƒ ๐‘™ . Then, aggregating across every entry ๐‘ฅ โˆˆ ๐’ฎ ๐‘™ , we have that:

๐”ผ ๐‘  ๐‘– ( ๐‘ก + 1 ) โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– ( ๐‘ก ) , ๐‘  ๐‘” ( ๐‘ก ) )

โˆ€ ๐‘– โˆˆ ฮ” โข [ ๐น ๐‘  ฮ” โข ( ๐‘ก + 1 ) ]

1 | ฮ” | โˆ‘ ๐‘– โˆˆ ฮ” ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– ( ๐‘ก ) , ๐‘  ๐‘” ( ๐‘ก ) )

1 | ฮ” | โˆ‘ ๐‘– โˆˆ ฮ” ๐‘ƒ ๐‘™ ( โ‹… | โ‹… , ๐‘  ๐‘” ( ๐‘ก ) ) ๐Ÿ™ โ†’ ๐‘  ๐‘– โข ( ๐‘ก )

: ๐‘ƒ ๐‘™ ( โ‹… | โ‹… , ๐‘  ๐‘” ( ๐‘ก ) ) ๐น ๐‘  ฮ” โข ( ๐‘ก )

Here, ๐Ÿ™ โ†’ ๐‘  ๐‘– โข ( ๐‘ก ) โˆˆ { 0 , 1 } | ๐’ฎ ๐‘™ | such that ๐Ÿ™ โ†’ ๐‘  ๐‘– โข ( ๐‘ก ) is 1 at the index corresponding to ๐‘  ๐‘– โข ( ๐‘ก ) , and is 0 everywhere else. The last equality follows since ๐‘ƒ ๐‘™ ( โ‹… | โ‹… , ๐‘  ๐‘” ( ๐‘ก ) ) is a column-stochastic matrix which yields that ๐‘ƒ ๐‘™ ( โ‹… | โ‹… , ๐‘  ๐‘” ( ๐‘ก ) ) ๐Ÿ™ โ†’ ๐‘  ๐‘– โข ( ๐‘ก )

๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– ( ๐‘ก ) , ๐‘  ๐‘” ( ๐‘ก ) ) , thus proving the lemma.โˆŽ

Lemma B.11.

For any joint transition probability function on ๐‘  ๐‘” , ๐‘  ฮ” , where | ฮ” |

๐‘˜ , given by ๐’ฅ ๐‘˜ : ๐’ฎ ๐‘” ร— ๐’ฎ ๐‘™ | ฮ” | ร— ๐’ฎ ๐‘” ร— ๐’œ ๐‘” ร— ๐’ฎ ๐‘™ | ฮ” | โ†’ [ 0 , 1 ] , we have:

๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ ) โˆผ ๐’ฅ ๐‘˜ ( โ‹… , โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” ) โข [ ๐”ผ ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โ€ฒโ€ฒ ) โˆผ ๐’ฅ ๐‘˜ ( โ‹… , โ‹… | ๐‘  ๐‘” โ€ฒ , ๐‘Ž ๐‘” , ๐‘  ฮ” โ€ฒ ) โข max ๐‘Ž ๐‘” โ€ฒโ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐น ๐‘  ฮ” โ€ฒโ€ฒ , ๐‘Ž ๐‘” โ€ฒโ€ฒ ) ]

๐”ผ ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โ€ฒโ€ฒ ) โˆผ ๐’ฅ ๐‘˜ 2 ( โ‹… , โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” ) โข max ๐‘Ž ๐‘” โ€ฒโ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐น ๐‘  ฮ” โ€ฒโ€ฒ , ๐‘Ž ๐‘” โ€ฒโ€ฒ )

Proof.

We start by expanding the expectations:

๐”ผ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ ) โˆผ ๐’ฅ ๐‘˜ ( โ‹… , โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” ) โข [ ๐”ผ ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โ€ฒโ€ฒ ) โˆผ ๐’ฅ ๐‘˜ ( โ‹… , โ‹… | ๐‘  ๐‘” โ€ฒ , ๐‘Ž ๐‘” , ๐‘  ฮ” โ€ฒ ) โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐น ๐‘  ฮ” โ€ฒโ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) ]

โˆ‘ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ ) โˆˆ ๐’ฎ ๐‘” ร— ๐’ฎ ๐‘™ | ฮ” | โˆ‘ ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โ€ฒโ€ฒ ) โˆˆ ๐’ฎ ๐‘” ร— ๐’ฎ ๐‘™ | ฮ” | ๐’ฅ ๐‘˜ โข [ ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ , ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” ] โข ๐’ฅ ๐‘˜ โข [ ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โ€ฒโ€ฒ , ๐‘  ๐‘” โ€ฒ , ๐‘Ž ๐‘” , ๐‘  ฮ” โ€ฒ ] โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐น ๐‘  ฮ” โ€ฒโ€ฒ , ๐‘Ž ๐‘” โ€ฒ )

โˆ‘ ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โ€ฒโ€ฒ ) โˆˆ ๐’ฎ ๐‘” ร— ๐’ฎ ๐‘™ | ฮ” | ๐’ฅ ๐‘˜ 2 โข [ ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โ€ฒโ€ฒ , ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” ] โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐น ๐‘  ฮ” โ€ฒโ€ฒ , ๐‘Ž ๐‘” โ€ฒ )

๐”ผ ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โ€ฒโ€ฒ ) โˆผ ๐’ฅ ๐‘˜ 2 ( โ‹… , โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” ) โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐น ๐‘  ฮ” โ€ฒโ€ฒ , ๐‘Ž ๐‘” โ€ฒ )

The right-stochasticity of ๐’ฅ ๐‘˜ implies the right-stochasticity of ๐’ฅ ๐‘˜ 2 . Further, observe that ๐’ฅ ๐‘˜ โข [ ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ , ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” ] โข ๐’ฅ ๐‘˜ โข [ ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โ€ฒโ€ฒ , ๐‘  ๐‘” โ€ฒ , ๐‘Ž ๐‘” , ๐‘  ฮ” โ€ฒ ] denotes the probability of the transitions ( ๐‘  ๐‘” , ๐‘  ฮ” ) โ†’ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ ) โ†’ ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โ€ฒโ€ฒ ) with actions ๐‘Ž ๐‘” at each step, where the joint state evolution is governed by ๐’ฅ ๐‘˜ . Thus, โˆ‘ ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ ) โˆˆ ๐’ฎ ๐‘” ร— ๐’ฎ ๐‘™ | ฮ” | ๐’ฅ ๐‘˜ โข [ ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ , ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” ] โข ๐’ฅ ๐‘˜ โข [ ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โ€ฒโ€ฒ , ๐‘  ๐‘” โ€ฒ , ๐‘Ž ๐‘” , ๐‘  ๐‘” โ€ฒ ] is the stochastic probability function corresponding to the two-step evolution of the joint states from ( ๐‘  ๐‘” , ๐‘  ฮ” ) to ( ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โ€ฒโ€ฒ ) under the action ๐‘Ž ๐‘” , which is equivalent to ๐’ฅ ๐‘˜ 2 โข [ ๐‘  ๐‘” โ€ฒโ€ฒ , ๐‘  ฮ” โ€ฒโ€ฒ , ๐‘  ๐‘” , ๐‘Ž ๐‘” , ๐‘  ฮ” ] . In the third equality, we recover the definition of the expectation, where the joint probabilities are taken over ๐’ฅ ๐‘˜ 2 . โˆŽ

The following lemma bounds the average difference between ๐‘„ ^ ๐‘˜ ๐‘‡ (across every choice of ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) ) and ๐‘„ โˆ— and shows that the difference decays to 0 as ๐‘‡ โ†’ โˆž .

Lemma B.12.

For all ๐‘  โˆˆ ๐’ฎ ๐‘” ร— ๐’ฎ [ ๐‘› ] , and for all ๐‘Ž ๐‘” โˆˆ ๐’œ ๐‘” , we have:

๐‘„ โˆ— โข ( ๐‘  , ๐‘Ž ๐‘” ) โˆ’ 1 ( ๐‘› ๐‘˜ ) โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) โ‰ค ๐›พ ๐‘‡ โข ๐‘Ÿ ~ 1 โˆ’ ๐›พ

Proof.

We bound the differences between ๐‘„ ^ ๐‘˜ ๐‘‡ at each Bellman iteration of our approximation to ๐‘„ โˆ— .

๐‘„ โˆ— โข ( ๐‘  , ๐‘Ž ๐‘” ) โˆ’ 1 ( ๐‘› ๐‘˜ ) โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” )

๐’ฏ โข ๐‘„ โˆ— โข ( ๐‘  , ๐‘Ž ๐‘” ) โˆ’ 1 ( ๐‘› ๐‘˜ ) โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) ๐’ฏ ^ ๐‘˜ โข ๐‘„ ^ ๐‘˜ ๐‘‡ โˆ’ 1 โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” )

๐‘Ÿ [ ๐‘› ] โข ( ๐‘  ๐‘” , ๐‘  [ ๐‘› ] , ๐‘Ž ๐‘” ) + ๐›พ โข ๐”ผ ๐‘  ๐‘” โ€ฒ โˆผ ๐‘ƒ ๐‘” ( โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” ) ,

๐‘  ๐‘– โ€ฒ โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– , ๐‘  ๐‘” ) , โˆ€ ๐‘– โˆˆ [ ๐‘› ] ) โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐‘Ž ๐‘” โ€ฒ )

โˆ’ 1 ( ๐‘› ๐‘˜ ) โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) [ ๐‘Ÿ [ ฮ” ] โข ( ๐‘  ๐‘” , ๐‘  ฮ” , ๐‘Ž ๐‘” ) + ๐›พ โข ๐”ผ ๐‘  ๐‘” โ€ฒ โˆผ ๐‘ƒ ๐‘” ( โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” )

๐‘  ๐‘– โ€ฒ โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– , ๐‘  ๐‘” ) , โˆ€ ๐‘– โˆˆ ฮ” โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) ]

Next, observe that ๐‘Ÿ [ ๐‘› ] โข ( ๐‘  ๐‘” , ๐‘  [ ๐‘› ] , ๐‘Ž ๐‘” )

1 ( ๐‘› ๐‘˜ ) โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) ๐‘Ÿ [ ฮ” ] โข ( ๐‘  ๐‘” , ๐‘  ฮ” , ๐‘Ž ๐‘” ) . To prove this, we write:

1 ( ๐‘› ๐‘˜ ) โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) ๐‘Ÿ [ ฮ” ] โข ( ๐‘  ๐‘” , ๐‘  ฮ” , ๐‘Ž ๐‘” )

1 ( ๐‘› ๐‘˜ ) โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) ( ๐‘Ÿ ๐‘” โข ( ๐‘  ๐‘” , ๐‘Ž ๐‘” ) + 1 ๐‘˜ โข โˆ‘ ๐‘– โˆˆ ฮ” ๐‘Ÿ ๐‘™ โข ( ๐‘  ๐‘– , ๐‘  ๐‘” ) )

๐‘Ÿ ๐‘” โข ( ๐‘  ๐‘” , ๐‘Ž ๐‘” ) + ( ๐‘› โˆ’ 1 ๐‘˜ โˆ’ 1 ) ๐‘˜ โข ( ๐‘› ๐‘˜ ) โข โˆ‘ ๐‘– โˆˆ [ ๐‘› ] ๐‘Ÿ ๐‘™ โข ( ๐‘  ๐‘– , ๐‘  ๐‘” )

๐‘Ÿ ๐‘” โข ( ๐‘  ๐‘” , ๐‘Ž ๐‘” ) + 1 ๐‘› โข โˆ‘ ๐‘– โˆˆ [ ๐‘› ] ๐‘Ÿ ๐‘™ โข ( ๐‘  ๐‘– , ๐‘  ๐‘” ) := ๐‘Ÿ [ ๐‘› ] โข ( ๐‘  ๐‘” , ๐‘  [ ๐‘› ] , ๐‘Ž ๐‘” )

In the second equality, we reparameterized the sum to count the number of times each ๐‘Ÿ ๐‘™ โข ( ๐‘  ๐‘– , ๐‘  ๐‘” ) was added for each ๐‘– โˆˆ ฮ” , and in the last equality, we expanded and simplified the binomial coefficients. Therefore:

sup ( ๐‘  , ๐‘Ž ๐‘” ) โˆˆ ๐’ฎ ร— ๐’œ ๐‘” [ ๐‘„ โˆ— โข ( ๐‘  , ๐‘Ž ๐‘” ) โˆ’ 1 ( ๐‘› ๐‘˜ ) โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” , ๐น ๐‘  [ ๐‘› ] , ๐‘Ž ๐‘” ) ]

sup ( ๐‘  , ๐‘Ž ๐‘” ) โˆˆ ๐’ฎ ร— ๐’œ ๐‘” [ ๐’ฏ โข ๐‘„ โˆ— โข ( ๐‘  , ๐‘Ž ๐‘” ) โˆ’ 1 ( ๐‘› ๐‘˜ ) โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) ๐’ฏ ^ ๐‘˜ โข ๐‘„ ^ ๐‘˜ ๐‘‡ โˆ’ 1 โข ( ๐‘  ๐‘” , ๐น ๐‘  [ ๐‘› ] , ๐‘Ž ๐‘” ) ]

๐›พ โข sup ( ๐‘  , ๐‘Ž ๐‘” ) โˆˆ ๐’ฎ ร— ๐’œ ๐‘” [ ๐”ผ ๐‘  ๐‘” โ€ฒ โˆผ ๐‘ƒ ( โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” )

๐‘  ๐‘– โ€ฒ โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– , ๐‘  ๐‘” )

โˆ€ ๐‘– โˆˆ [ ๐‘› ] โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) โˆ’ 1 ( ๐‘› ๐‘˜ ) โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) ๐”ผ ๐‘  ๐‘” โ€ฒ โˆผ ๐‘ƒ ๐‘” ( โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” )

๐‘  ๐‘– โ€ฒ โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– , ๐‘  ๐‘” )

โˆ€ ๐‘– โˆˆ ฮ” โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ ๐‘‡ โˆ’ 1 โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) ]

๐›พ โข sup ( ๐‘  , ๐‘Ž ๐‘” ) โˆˆ ๐’ฎ ร— ๐’œ ๐‘” ๐”ผ ๐‘  ๐‘” โ€ฒ โˆผ ๐‘ƒ ๐‘” ( โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” ) ,

๐‘  ๐‘– โ€ฒ โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– , ๐‘  ๐‘” ) , โˆ€ ๐‘– โˆˆ [ ๐‘› ] โข [ max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) โˆ’ 1 ( ๐‘› ๐‘˜ ) โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก ๐‘„ ^ ๐‘˜ ๐‘‡ โˆ’ 1 โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) ]

โ‰ค ๐›พ โข sup ( ๐‘  , ๐‘Ž ๐‘” ) โˆˆ ๐’ฎ ร— ๐’œ ๐‘” ๐”ผ ๐‘  ๐‘” โ€ฒ โˆผ ๐‘ƒ ๐‘” ( โ‹… | ๐‘  ๐‘” , ๐‘Ž ๐‘” ) ,

๐‘  ๐‘– โ€ฒ โˆผ ๐‘ƒ ๐‘™ ( โ‹… | ๐‘  ๐‘– , ๐‘  ๐‘” ) , โˆ€ ๐‘– โˆˆ [ ๐‘› ] โข max ๐‘Ž ๐‘” โ€ฒ โˆˆ ๐’œ ๐‘” โก [ ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) โˆ’ 1 ( ๐‘› ๐‘˜ ) โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) ๐‘„ ^ ๐‘˜ ๐‘‡ โˆ’ 1 โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) ]

โ‰ค ๐›พ โข sup ( ๐‘  โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) โˆˆ ๐’ฎ ร— ๐’œ ๐‘” [ ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) โˆ’ 1 ( ๐‘› ๐‘˜ ) โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) ๐‘„ ^ ๐‘˜ ๐‘‡ โˆ’ 1 โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) ]

We justify the first inequality by noting the general property that for positive vectors ๐‘ฃ , ๐‘ฃ โ€ฒ for which ๐‘ฃ โชฐ ๐‘ฃ โ€ฒ which follows from the triangle inequality:

โ€– ๐‘ฃ โˆ’ 1 ( ๐‘› ๐‘˜ ) โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) ๐‘ฃ โ€ฒ โ€– โˆž
โ‰ฅ | โ€– ๐‘ฃ โ€– โˆž โˆ’ โ€– 1 ( ๐‘› ๐‘˜ ) โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) ๐‘ฃ โ€ฒ โ€– โˆž |

โ€– ๐‘ฃ โ€– โˆž โˆ’ โ€– 1 ( ๐‘› ๐‘˜ ) โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) ๐‘ฃ โ€ฒ โ€– โˆž

โ‰ฅ โ€– ๐‘ฃ โ€– โˆž โˆ’ 1 ( ๐‘› ๐‘˜ ) โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) โ€– ๐‘ฃ โ€ฒ โ€– โˆž

Therefore:

๐‘„ โˆ— โข ( ๐‘  , ๐‘Ž ๐‘” )
โˆ’ 1 ( ๐‘› ๐‘˜ ) โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” )

โ‰ค ๐›พ ๐‘‡ โข sup ( ๐‘  โ€ฒ , ๐‘Ž ๐‘” ) โˆˆ ๐’ฎ ร— ๐’œ ๐‘” [ ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) โˆ’ 1 ( ๐‘› ๐‘˜ ) โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) ๐‘„ ^ ๐‘˜ 0 โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐‘Ž ๐‘” โ€ฒ ) ]

๐›พ ๐‘‡ โข ๐‘Ÿ ~ 1 โˆ’ ๐›พ

The first inequality follows from the ๐›พ -contraction property of the update procedure, and the ensuing equality follows from our bound on the maximum possible value of ๐‘„ from Lemma A.7 and noting that ๐‘„ ^ ๐‘˜ 0 := 0 . Therefore, as ๐‘‡ โ†’ โˆž , ๐‘„ โˆ— โข ( ๐‘  , ๐‘Ž ๐‘” ) โˆ’ 1 ( ๐‘› ๐‘˜ ) โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) ๐‘„ ^ ๐‘‡ โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) โ†’ 0 , which proves the lemma.โˆŽ

Appendix CBounding Total Variation Distance

As | ฮ” | โ†’ ๐‘› , the total variation (TV) distance between the empirical distribution of ๐‘  [ ๐‘› ] and ๐‘  ฮ” goes to 0 . We formalize this notion and prove this statement by obtaining tight bounds on the difference and showing that this error decays quickly.

Remark C.1.

First, observe that if ฮ” is an independent random variable uniformly supported on ( [ ๐‘› ] ๐‘˜ ) , then ๐‘  ฮ” is also an independent random variable uniformly supported on the global state ( ๐‘  [ ๐‘› ] ๐‘˜ ) . To see this, let ๐œ“ 1 : [ ๐‘› ] โ†’ ๐’ฎ ๐‘™ where ๐œ“ โข ( ๐‘– )

๐‘  ๐‘– . This naturally extends to ๐œ“ ๐‘˜ : [ ๐‘› ] ๐‘˜ โ†’ ๐’ฎ ๐‘™ ๐‘˜ given by ๐œ“ ๐‘˜ โข ( ๐‘– 1 , โ€ฆ , ๐‘– ๐‘˜ )

( ๐‘  ๐‘– 1 , โ€ฆ , ๐‘  ๐‘– ๐‘˜ ) , for all ๐‘˜ โˆˆ [ ๐‘› ] . Then, the independence of ฮ” implies the independence of the generated ๐œŽ -algebra. Further, ๐œ“ ๐‘˜ (which is a Lebesgue measurable function of a ๐œŽ -algebra) is a sub-algebra, implying that ๐‘  ฮ” must also be an independent random variable.

For reference, we present the multidimensional Dvoretzky-Kiefer-Wolfowitz (DKW) inequality Dvoretzky et al. (1956); Massart (1990); Naaman (2021) which bounds the difference between an empirical distribution function for ๐‘  ฮ” and ๐‘  [ ๐‘› ] when each element of ฮ” for | ฮ” |

๐‘˜ is sampled uniformly randomly from [ ๐‘› ] with replacement.

Theorem C.2 (Dvoretzky-Kiefer-Wolfowitz (DFW) inequality Dvoretzky et al. (1956)).

By the multi-dimensional version of the DKW inequality Naaman (2021), assume that ๐’ฎ ๐‘™ โŠ‚ โ„ ๐‘‘ . Then, for any ๐œ–

0 , the following statement holds for when ฮ” โІ [ ๐‘› ] is sampled uniformly with replacement.

Pr [ sup ๐‘ฅ โˆˆ ๐’ฎ ๐‘™ | 1 | ฮ” | โˆ‘ ๐‘– โˆˆ ฮ” ๐Ÿ™ { ๐‘  ๐‘–

๐‘ฅ } โˆ’ 1 ๐‘› โˆ‘ ๐‘–

1 ๐‘› ๐Ÿ™ { ๐‘  ๐‘–

๐‘ฅ } | < ๐œ– ] โ‰ฅ 1 โˆ’ ๐‘‘ ( ๐‘› + 1 ) ๐‘’ โˆ’ 2 โข | ฮ” | โข ๐œ– 2 โ‹…

We give an analogous bound for the case when ฮ” is sampled uniformly from [ ๐‘› ] without replacement. However, our bound does not have a dependency on ๐‘‘ , the dimension of ๐’ฎ ๐‘™ which allows us to consider non-numerical state-spaces.

Before giving the proof, we add a remark on this problem. Intuitively, when samples are chosen without replacement from a finite population, the marginal distribution, when conditioned on the random variable chosen, takes the running empirical distribution closer to the true distribution with high probability. However, we need a uniform probabilistic bound on the error that adapts to worst-case marginal distributions and decays with ๐‘˜ .

Recall the landmark results of Hoeffding and Serfling in Hoeffding (1963) and Serfling (1974) which we restate below.

Lemma C.3 (Lemma 4, Hoeffding).

Given a finite population, note that for any convex and continuous function ๐‘“ : โ„ โ†’ โ„ , if ๐‘‹

{ ๐‘ฅ 1 , โ€ฆ , ๐‘ฅ ๐‘˜ } denotes a sample with replacement and ๐‘Œ

{ ๐‘ฆ 1 , โ€ฆ , ๐‘ฆ ๐‘˜ } denotes a sample without replacement, then:

๐”ผ โข ๐‘“ โข ( โˆ‘ ๐‘– โˆˆ ๐‘‹ ๐‘– ) โ‰ค ๐”ผ โข ๐‘“ โข ( โˆ‘ ๐‘– โˆˆ ๐‘Œ ๐‘– )

Lemma C.4 (Corollary 1.1, Serfling).

Suppose the finite subset ๐’ณ โŠ‚ โ„ such that | ๐’ณ |

๐‘› is bounded between [ ๐‘Ž , ๐‘ ] . Then, let ๐‘‹

( ๐‘ฅ 1 , โ€ฆ , ๐‘ฅ ๐‘˜ ) be a random sample of ๐’ณ of size ๐‘˜ chosen uniformly and without replacement. Denote ๐œ‡ := 1 ๐‘› โข โˆ‘ ๐‘–

1 ๐‘› ๐‘ฅ ๐‘– . Then:

Pr โก [ | 1 ๐‘˜ โข โˆ‘ ๐‘–

1 ๐‘˜ ๐‘ฅ ๐‘– โˆ’ ๐œ‡ |

๐œ– ] < 2 โข ๐‘’ โˆ’ 2 โข ๐‘˜ โข ๐œ– 2 ( ๐‘ โˆ’ ๐‘Ž ) 2 โข ( 1 โˆ’ ๐‘˜ โˆ’ 1 ๐‘› )

We now present a sampling without replacement analog of the DKW inequality.

Theorem C.5 (Sampling without replacement analogue of the DKW inequality).

Consider a finite population ๐’ณ

( ๐‘ฅ 1 , โ€ฆ , ๐‘ฅ ๐‘› ) โˆˆ ๐’ฎ ๐‘™ ๐‘› . Let ฮ” โІ [ ๐‘› ] be a random sample of size ๐‘˜ chosen uniformly and without replacement.

Then, for all ๐‘ฅ โˆˆ ๐’ฎ ๐‘™ :

Pr โก [ sup ๐‘ฅ โˆˆ ๐’ฎ ๐‘™ | 1 | ฮ” | โข โˆ‘ ๐‘– โˆˆ ฮ” ๐Ÿ™ โข { ๐‘ฅ ๐‘–

๐‘ฅ } โˆ’ 1 ๐‘› โข โˆ‘ ๐‘– โˆˆ [ ๐‘› ] ๐Ÿ™ โข { ๐‘ฅ ๐‘–

๐‘ฅ } | < ๐œ– ] โ‰ฅ 1 โˆ’ 2 โข | ๐’ฎ ๐‘™ | โข ๐‘’ โˆ’ 2 โข | ฮ” | โข ๐‘› โข ๐œ– 2 ๐‘› โˆ’ | ฮ” | + 1

Proof.

For each ๐‘ฅ โˆˆ ๐’ฎ ๐‘™ , define the โ€œ ๐‘ฅ -surrogate populationโ€ of indicator variables as

๐’ณ ยฏ ๐‘ฅ

( ๐Ÿ™ { ๐‘ฅ 1

๐‘ฅ } , โ€ฆ , ๐Ÿ™ { ๐‘ฅ ๐‘›

๐‘ฅ } ) โˆˆ { 0 , 1 } ๐‘›

(22)

Since the maximal difference between each element in this surrogate population is 1 , we set ๐‘ โˆ’ ๐‘Ž

1 in Lemma C.4 when applied to ๐’ณ ยฏ ๐‘ฅ to get:

Pr โก [ | 1 | ฮ” | โข โˆ‘ ๐‘– โˆˆ ฮ” ๐Ÿ™ โข { ๐‘ฅ ๐‘–

๐‘ฅ } โˆ’ 1 ๐‘› โข โˆ‘ ๐‘– โˆˆ [ ๐‘› ] ๐Ÿ™ โข { ๐‘ฅ ๐‘–

๐‘ฅ } | < ๐œ– ] โ‰ฅ 1 โˆ’ 2 โข ๐‘’ โˆ’ 2 โข | ฮ” | โข ๐‘› โข ๐œ– 2 ๐‘› โˆ’ | ฮ” | + 1

In the above equation, the probability is over ฮ” โІ ( [ ๐‘› ] ๐‘˜ ) and it holds for each ๐‘ฅ โˆˆ ๐’ฎ ๐‘™ . Therefore, the randomness is only over ฮ” . Then, by a union bounding argument, we have:

Pr [ sup ๐‘ฅ โˆˆ ๐’ฎ ๐‘™ | 1 | ฮ” | โˆ‘ ๐‘– โˆˆ ฮ” ๐Ÿ™ { ๐‘ฅ ๐‘–

๐‘ฅ }
โˆ’ 1 ๐‘› โˆ‘ ๐‘– โˆˆ [ ๐‘› ] ๐Ÿ™ { ๐‘ฅ ๐‘–

๐‘ฅ } | < ๐œ– ]

Pr โก [ โ‹‚ ๐‘ฅ โˆˆ ๐’ฎ ๐‘™ { | 1 | ฮ” | โข โˆ‘ ๐‘– โˆˆ ฮ” ๐Ÿ™ โข { ๐‘ฅ ๐‘–

๐‘ฅ } โˆ’ 1 ๐‘› โข โˆ‘ ๐‘– โˆˆ [ ๐‘› ] ๐Ÿ™ โข { ๐‘ฅ ๐‘–

๐‘ฅ } | < ๐œ– } ]

1 โˆ’ โˆ‘ ๐‘ฅ โˆˆ ๐’ฎ ๐‘™ Pr โก [ | 1 | ฮ” | โข โˆ‘ ๐‘– โˆˆ ฮ” ๐Ÿ™ โข { ๐‘ฅ ๐‘–

๐‘ฅ } โˆ’ 1 ๐‘› โข โˆ‘ ๐‘– โˆˆ [ ๐‘› ] ๐Ÿ™ โข { ๐‘ฅ ๐‘–

๐‘ฅ } | โ‰ฅ ๐œ– ]

โ‰ฅ 1 โˆ’ 2 โข | ๐’ฎ ๐‘™ | โข ๐‘’ โˆ’ 2 โข | ฮ” | โข ๐‘› โข ๐œ– 2 ๐‘› โˆ’ | ฮ” | + 1

This proves the claim.โˆŽ

Then, combining the Lipschitz continuity bound from Theorem 4.1 and the total variation distance bound from Theorem 4.2 yields Theorem C.6.

Theorem C.6.

For all ๐‘  ๐‘” โˆˆ ๐’ฎ ๐‘” , ๐‘  1 , โ€ฆ , ๐‘  ๐‘› โˆˆ ๐’ฎ ๐‘™ ๐‘› , ๐‘Ž ๐‘” โˆˆ ๐’œ ๐‘” , we have that with probability atleast 1 โˆ’ ๐›ฟ :

| ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) โˆ’ ๐‘„ ^ ๐‘› ๐‘‡ โข ( ๐‘  ๐‘” , ๐น ๐‘  [ ๐‘› ] , ๐‘Ž ๐‘” ) | โ‰ค 2 โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž 1 โˆ’ ๐›พ โข ๐‘› โˆ’ | ฮ” | + 1 8 โข ๐‘› โข | ฮ” | โข ln โก ( 2 โข | ๐’ฎ ๐‘™ | / ๐›ฟ )

Proof.

By the definition of total variation distance, observe that

TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  [ ๐‘› ] ) โ‰ค ๐œ– โ‡” sup ๐‘ฅ โˆˆ ๐’ฎ ๐‘™ | ๐น ๐‘  ฮ” โˆ’ ๐น ๐‘  [ ๐‘› ] | < 2 โข ๐œ–

(23)

Then, let ๐’ณ

๐’ฎ ๐‘™ be the finite population in Theorem C.5 and recall the Lipschitz-continuity of ๐‘„ ^ ๐‘˜ ๐‘‡ from Theorem B.2:

| ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) โˆ’ ๐‘„ ^ ๐‘› ๐‘‡ โข ( ๐‘  ๐‘” , ๐น ๐‘  [ ๐‘› ] , ๐‘Ž ๐‘” ) |
โ‰ค ( โˆ‘ ๐‘ก

0 ๐‘‡ โˆ’ 1 2 โข ๐›พ ๐‘ก ) โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž โ‹… TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  [ ๐‘› ] )

โ‰ค 2 1 โˆ’ ๐›พ โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž โ‹… ๐œ–

By setting the error parameter in Theorem C.5 to 2 โข ๐œ– , we find that Equation 23 occurs with probability at least 1 โˆ’ 2 โข | ๐’ฎ ๐‘™ | โข ๐‘’ โˆ’ 2 โข | ฮ” | โข ๐‘› โข ๐œ– 2 / ( ๐‘› โˆ’ | ฮ” | + 1 ) .

Pr โก [ | ๐‘„ ^ ๐‘˜ ๐‘‡ โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) โˆ’ ๐‘„ ^ ๐‘› ๐‘‡ โข ( ๐‘  ๐‘” , ๐น ๐‘  [ ๐‘› ] , ๐‘Ž ๐‘” ) | โ‰ค 2 โข ๐œ– 1 โˆ’ ๐›พ โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž ] โ‰ฅ 1 โˆ’ 2 โข | ๐’ฎ ๐‘™ | โข ๐‘’ โˆ’ 8 โข ๐‘› โข | ฮ” | โข ๐œ– 2 ๐‘› โˆ’ | ฮ” | + 1

Finally, we parameterize the probability to 1 โˆ’ ๐›ฟ to solve for ๐œ– , which yields

๐œ–

๐‘› โˆ’ | ฮ” | + 1 8 โข ๐‘› โข | ฮ” | โข ln โก ( 2 โข | ๐’ฎ ๐‘™ | / ๐›ฟ ) .

This proves the theorem.โˆŽ

The following lemma is not used in the main result; however, we include it to demonstrate why popular TV-distance bounding methods using the Kullback-Liebler (KL) divergence and the Bretagnolle-Huber inequality Tsybakov (2008) only yield results with a suboptimal subtractive decay of | ฮ” | / ๐‘› . In comparison, Theorem 4.2 achieves a stronger multiplicative decay of 1 / | ฮ” | .

Lemma C.7.

TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  [ ๐‘› ] ) โ‰ค 1 โˆ’ | ฮ” | / ๐‘›

Proof.

By the symmetry of the total variation distance, we have TV โข ( ๐น ๐‘  [ ๐‘› ] , ๐น ๐‘  ฮ” )

TV โข ( ๐น ๐‘  ฮ” , ๐น ๐‘  [ ๐‘› ] ) .

From the Bretagnolle-Huber inequality Tsybakov (2008) we have that TV โข ( ๐‘“ , ๐‘” )

1 โˆ’ ๐‘’ โˆ’ ๐ท KL โข ( ๐‘“ โˆฅ ๐‘” ) . Here, ๐ท KL โข ( ๐‘“ โˆฅ ๐‘” ) is the Kullback-Leibler (KL) divergence metric between probability distributions ๐‘“ and ๐‘” over the sample space, which we denote by ๐’ณ and is given by

๐ท KL โข ( ๐‘“ โˆฅ ๐‘” ) := โˆ‘ ๐‘ฅ โˆˆ ๐’ณ ๐‘“ โข ( ๐‘ฅ ) โข ln โก ๐‘“ โข ( ๐‘ฅ ) ๐‘” โข ( ๐‘ฅ )

(24)

Thus, from Equation 24:

๐ท KL โข ( ๐น ๐‘  ฮ” โˆฅ ๐น ๐‘  [ ๐‘› ] )

โˆ‘ ๐‘ฅ โˆˆ ๐’ฎ ๐‘™ ( 1 | ฮ” | โข โˆ‘ ๐‘– โˆˆ ฮ” ๐Ÿ™ โข { ๐‘  ๐‘–

๐‘ฅ } ) โข ln โก ๐‘› โข โˆ‘ ๐‘– โˆˆ ฮ” ๐Ÿ™ โข { ๐‘  ๐‘–

๐‘ฅ } | ฮ” | โข โˆ‘ ๐‘– โˆˆ [ ๐‘› ] ๐Ÿ™ โข { ๐‘  ๐‘–

๐‘ฅ }

1 | ฮ” | โข โˆ‘ ๐‘ฅ โˆˆ ๐’ฎ ๐‘™ ( โˆ‘ ๐‘– โˆˆ ฮ” ๐Ÿ™ โข { ๐‘  ๐‘–

๐‘ฅ } ) โข ln โก ๐‘› | ฮ” |

+ 1 | ฮ” | โข โˆ‘ ๐‘ฅ โˆˆ ๐’ฎ ๐‘™ ( โˆ‘ ๐‘– โˆˆ ฮ” ๐Ÿ™ โข { ๐‘  ๐‘–

๐‘ฅ } ) โข ln โก โˆ‘ ๐‘– โˆˆ ฮ” ๐Ÿ™ โข { ๐‘  ๐‘–

๐‘ฅ } โˆ‘ ๐‘– โˆˆ [ ๐‘› ] ๐Ÿ™ โข { ๐‘  ๐‘–

๐‘ฅ }

ln โก ๐‘› | ฮ” | + 1 | ฮ” | โข โˆ‘ ๐‘ฅ โˆˆ ๐’ฎ ๐‘™ ( โˆ‘ ๐‘– โˆˆ ฮ” ๐Ÿ™ โข { ๐‘  ๐‘–

๐‘ฅ } ) โข ln โก โˆ‘ ๐‘– โˆˆ ฮ” ๐Ÿ™ โข { ๐‘  ๐‘–

๐‘ฅ } โˆ‘ ๐‘– โˆˆ [ ๐‘› ] ๐Ÿ™ โข { ๐‘  ๐‘–

๐‘ฅ }

โ‰ค ln โก ( ๐‘› / | ฮ” | )

In the third line, we note that โˆ‘ ๐‘ฅ โˆˆ ๐’ฎ ๐‘™ โˆ‘ ๐‘– โˆˆ ฮ” ๐Ÿ™ โข { ๐‘  ๐‘–

๐‘ฅ }

| ฮ” | since each local agent contained in ฮ” must have some state contained in ๐’ฎ ๐‘™ . In the last line, we note that โˆ‘ ๐‘– โˆˆ ฮ” ๐Ÿ™ โข { ๐‘  ๐‘–

๐‘ฅ } โ‰ค โˆ‘ ๐‘– โˆˆ [ ๐‘› ] ๐Ÿ™ โข { ๐‘  ๐‘–

๐‘ฅ } , For all ๐‘ฅ โˆˆ ๐’ฎ ๐‘™ , and thus the summation of logarithmic terms in the third line is negative. Finally, using this bound in the Bretagnolle-Huber inequality yields the lemma.โˆŽ

Appendix DUsing the Performance Difference Lemma to Bound the Optimality Gap

Recall from Definition A.13 that the fixed-point of the empirical adapted Bellman operator ๐’ฏ ^ ๐‘˜ , ๐‘š is ๐‘„ ^ ๐‘˜ , ๐‘š est . Further, recall from Lemma 3.3 that โ€– ๐‘„ ^ ๐‘˜ โˆ— โˆ’ ๐‘„ ^ ๐‘˜ , ๐‘š est โ€– โˆž โ‰ค ๐œ– ๐‘˜ , ๐‘š .

Lemma D.1.

Fix ๐‘  โˆˆ ๐’ฎ := ๐’ฎ ๐‘” ร— ๐’ฎ ๐‘™ ๐‘› . Suppose we are given a ๐‘‡ -length sequence of i.i.d. random variables ฮ” 1 , โ€ฆ , ฮ” ๐‘‡ , distributed uniformly over the support ( [ ๐‘› ] ๐‘˜ ) . Further, suppose we are given a fixed sequence ๐›ฟ 1 , โ€ฆ , ๐›ฟ ๐‘‡ โˆˆ ( 0 , 1 ) . Then, for each action ๐‘Ž ๐‘” โˆˆ ๐’œ ๐‘” and for ๐‘– โˆˆ [ ๐‘‡ ] , define events ๐ต ๐‘– ๐‘Ž ๐‘” such that:

๐ต ๐‘– ๐‘Ž ๐‘” := { | ๐‘„ โˆ— โข ( ๐‘  ๐‘” , ๐‘  [ ๐‘› ] , ๐‘Ž ๐‘” ) โˆ’ ๐‘„ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” ๐‘– , ๐‘Ž ๐‘” ) |

๐‘› โˆ’ ๐‘˜ + 1 8 โข ๐‘˜ โข ๐‘› โข ln โก 2 โข | ๐’ฎ ๐‘™ | ๐›ฟ ๐‘– โ‹… 2 1 โˆ’ ๐›พ โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž + ๐œ– ๐‘˜ , ๐‘š }

Next, for ๐‘– โˆˆ [ ๐‘€ ] , we define โ€œbad-eventsโ€ ๐ต ๐‘– such that ๐ต ๐‘–

โ‹ƒ ๐‘Ž ๐‘” โˆˆ ๐’œ ๐‘” ๐ต ๐‘– ๐‘Ž ๐‘” . Next, denote ๐ต

โˆช ๐‘–

1 ๐‘‡ ๐ต ๐‘– . Then, the probability that no โ€œbad eventโ€ occurs is:

Pr โก [ ๐ต ยฏ ] โ‰ฅ 1 โˆ’ | ๐’œ ๐‘” | โข โˆ‘ ๐‘–

1 ๐‘‡ ๐›ฟ ๐‘–

Proof.

| ๐‘„ โˆ— โข ( ๐‘  ๐‘” , ๐‘  [ ๐‘› ] , ๐‘Ž ๐‘” ) โˆ’ ๐‘„ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) |

โ‰ค | ๐‘„ โˆ— โข ( ๐‘  ๐‘” , ๐‘  [ ๐‘› ] , ๐‘Ž ๐‘” ) โˆ’ ๐‘„ ^ ๐‘˜ โˆ— โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) |

  • | ๐‘„ ^ ๐‘˜ โˆ— โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) โˆ’ ๐‘„ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) |

โ‰ค | ๐‘„ โˆ— โข ( ๐‘  ๐‘” , ๐‘  [ ๐‘› ] , ๐‘Ž ๐‘” ) โˆ’ ๐‘„ ^ ๐‘˜ โˆ— โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) | + ๐œ– ๐‘˜ , ๐‘š

The first inequality above follows from the triangle inequality, and the second inequality uses | ๐‘„ โˆ— โข ( ๐‘  ๐‘” , ๐‘  [ ๐‘› ] , ๐‘Ž ๐‘” ) โˆ’ ๐‘„ ^ ๐‘˜ โˆ— โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) | โ‰ค โ€– ๐‘„ โˆ— โข ( ๐‘  ๐‘” , ๐‘  [ ๐‘› ] , ๐‘Ž ๐‘” ) โˆ’ ๐‘„ ^ ๐‘˜ โˆ— โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) โ€– โˆž โ‰ค ๐œ– ๐‘˜ , ๐‘š , where ๐œ– ๐‘˜ , ๐‘š is defined in Lemma 3.3. Then, from Theorem C.6, we have that with probability at least 1 โˆ’ ๐›ฟ ๐‘– ,

| ๐‘„ โˆ— โข ( ๐‘  ๐‘” , ๐‘  [ ๐‘› ] , ๐‘Ž ๐‘” ) โˆ’ ๐‘„ ^ ๐‘˜ โˆ— โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” , ๐‘Ž ๐‘” ) | โ‰ค ๐‘› โˆ’ ๐‘˜ + 1 8 โข ๐‘› โข ๐‘˜ โข ln โก 2 โข | ๐’ฎ ๐‘™ | ๐›ฟ ๐‘– โ‹… 2 1 โˆ’ ๐›พ โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž

So, event ๐ต ๐‘– occurs with probability atmost ๐›ฟ ๐‘– . Thus, by repeated applications of the union bound, we get:

Pr โก [ ๐ต ยฏ ]
โ‰ฅ 1 โˆ’ โˆ‘ ๐‘–

1 ๐‘‡ โˆ‘ ๐‘Ž ๐‘” โˆˆ ๐’œ ๐‘” Pr โก [ ๐ต ๐‘– ๐‘Ž ๐‘” ]

โ‰ฅ 1 โˆ’ | ๐’œ ๐‘” | โข โˆ‘ ๐‘–

1 ๐‘‡ Pr โก [ ๐ต ๐‘– ๐‘Ž ๐‘” ]

Finally, substituting Pr โก [ ๐ต ยฏ ๐‘– ๐‘Ž ๐‘” ] โ‰ค ๐›ฟ ๐‘– yields the lemma. โˆŽ

Recall that for any ๐‘  โˆˆ ๐’ฎ := ๐’ฎ ๐‘” ร— ๐’ฎ ๐‘™ ๐‘› โ‰… ๐’ฎ ๐‘” , the policy function ๐œ‹ ๐‘˜ , ๐‘š est โข ( ๐‘  ) is defined as a uniformly random element in the maximal set of ๐œ‹ ^ ๐‘˜ , ๐‘š est evaluated on all possible choices of ฮ” . Formally:

๐œ‹ ๐‘˜ , ๐‘š est โข ( ๐‘  ) โˆผ ๐’ฐ โข { ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” ) : ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) }

(25)

We now use the celebrated performance difference lemma from Kakade & Langford (2002), restated below for convenience in Theorem D.2, to bound the value functions generated between ๐œ‹ ๐‘˜ , ๐‘š est and ๐œ‹ โˆ— .

Theorem D.2 (Performance Difference Lemma).

Given policies ๐œ‹ 1 , ๐œ‹ 2 , with corresponding value functions ๐‘‰ ๐œ‹ 1 , ๐‘‰ ๐œ‹ 2 :

๐‘‰ ๐œ‹ 1 โข ( ๐‘  ) โˆ’ ๐‘‰ ๐œ‹ 2 โข ( ๐‘  )

1 1 โˆ’ ๐›พ โข ๐”ผ ๐‘  โ€ฒ โˆผ ๐‘‘ ๐‘  ๐œ‹ 1

๐‘Ž โ€ฒ โˆผ ๐œ‹ 1 ( โ‹… | ๐‘  โ€ฒ ) โข [ ๐ด ๐œ‹ 2 โข ( ๐‘  โ€ฒ , ๐‘Ž โ€ฒ ) ]

Here, ๐ด ๐œ‹ 2 โข ( ๐‘  โ€ฒ , ๐‘Ž โ€ฒ ) := ๐‘„ ๐œ‹ 2 โข ( ๐‘  โ€ฒ , ๐‘Ž โ€ฒ ) โˆ’ ๐‘‰ ๐œ‹ 2 โข ( ๐‘  โ€ฒ ) and ๐‘‘ ๐‘  ๐œ‹ 1 โข ( ๐‘  โ€ฒ )

( 1 โˆ’ ๐›พ ) โข โˆ‘ โ„Ž

0 โˆž ๐›พ โ„Ž โข Pr โ„Ž ๐œ‹ 1 โก [ ๐‘  โ€ฒ , ๐‘  ] where Pr โ„Ž ๐œ‹ 1 โก [ ๐‘  โ€ฒ , ๐‘  ] is the probability of ๐œ‹ 1 reaching state ๐‘  โ€ฒ at time step โ„Ž starting from state ๐‘  .

Theorem D.3 (Bounding value difference).

For any ๐‘  โˆˆ ๐’ฎ := ๐’ฎ ๐‘” ร— ๐’ฎ ๐‘™ ๐‘› and ( ๐›ฟ 1 , ๐›ฟ 2 ) โˆˆ ( 0 , 1 ] 2 , we have:

๐‘‰ ๐œ‹ โˆ— โข ( ๐‘  ) โˆ’ ๐‘‰ ๐œ‹ ๐‘˜ , ๐‘š est โข ( ๐‘  ) โ‰ค 2 โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž ( 1 โˆ’ ๐›พ ) 2 โข ๐‘› โˆ’ ๐‘˜ + 1 2 โข ๐‘› โข ๐‘˜ โข ln โก 2 โข | ๐’ฎ ๐‘™ | ๐›ฟ 1 + 2 โข ๐‘Ÿ ~ ( 1 โˆ’ ๐›พ ) 2 โข | ๐’œ ๐‘” | โข ๐›ฟ 1 + 2 โข ๐œ– ๐‘˜ , ๐‘š 1 โˆ’ ๐›พ

Proof.

Note that by definition of the advantage function, we have:

๐”ผ ๐‘Ž โ€ฒ โˆผ ๐œ‹ ๐‘˜ , ๐‘š est ( โ‹… | ๐‘  โ€ฒ ) โข ๐ด ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ , ๐‘Ž โ€ฒ )

๐”ผ ๐‘Ž โ€ฒ โˆผ ๐œ‹ ๐‘˜ , ๐‘š est ( โ‹… | ๐‘  โ€ฒ ) โข [ ๐‘„ ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ , ๐‘Ž โ€ฒ ) โˆ’ ๐‘‰ ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ ) ]

๐”ผ ๐‘Ž โ€ฒ โˆผ ๐œ‹ ๐‘˜ , ๐‘š est ( โ‹… | ๐‘  โ€ฒ ) โข [ ๐‘„ ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ , ๐‘Ž โ€ฒ ) โˆ’ ๐”ผ ๐‘Ž โˆผ ๐œ‹ โˆ— ( โ‹… | ๐‘  โ€ฒ ) โข ๐‘„ ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ , ๐‘Ž ) ]

๐”ผ ๐‘Ž โ€ฒ โˆผ ๐œ‹ ๐‘˜ , ๐‘š est ( โ‹… | ๐‘  โ€ฒ ) โข ๐”ผ ๐‘Ž โˆผ ๐œ‹ โˆ— ( โ‹… | ๐‘  โ€ฒ ) โข [ ๐‘„ ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ , ๐‘Ž โ€ฒ ) โˆ’ ๐‘„ ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ , ๐‘Ž ) ]

Since ๐œ‹ โˆ— is a deterministic policy, we can write:

๐”ผ ๐‘Ž โ€ฒ โˆผ ๐œ‹ ๐‘˜ , ๐‘š est ( โ‹… | ๐‘  โ€ฒ ) โข ๐”ผ ๐‘Ž โˆผ ๐œ‹ โˆ— ( โ‹… | ๐‘  โ€ฒ ) โข ๐ด ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ , ๐‘Ž โ€ฒ )

๐”ผ ๐‘Ž โ€ฒ โˆผ ๐œ‹ ๐‘˜ , ๐‘š est ( โ‹… | ๐‘  โ€ฒ ) โข [ ๐‘„ ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ , ๐‘Ž โ€ฒ ) โˆ’ ๐‘„ ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ ) ) ]

1 ( ๐‘› ๐‘˜ ) โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) [ ๐‘„ ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ ) ) โˆ’ ๐‘„ ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ ) ) ]

Then, by the linearity of expectations and the performance difference lemma (while noting that ๐‘„ ๐œ‹ โˆ— โข ( โ‹… , โ‹… )

๐‘„ โˆ— โข ( โ‹… , โ‹… ) ):

๐‘‰ ๐œ‹ โˆ— โข ( ๐‘  ) โˆ’ ๐‘‰ ๐œ‹ ๐‘˜ , ๐‘š est โข ( ๐‘  )

1 1 โˆ’ ๐›พ โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) 1 ( ๐‘› ๐‘˜ ) โข ๐”ผ ๐‘  โ€ฒ โˆผ ๐‘‘ ๐‘  ๐œ‹ ๐‘˜ , ๐‘š est โข [ ๐‘„ ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ ) ) โˆ’ ๐‘„ ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ ) ) ]

1 1 โˆ’ ๐›พ โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) 1 ( ๐‘› ๐‘˜ ) โข ๐”ผ ๐‘  โ€ฒ โˆผ ๐‘‘ ๐‘  ๐œ‹ ๐‘˜ , ๐‘š est โข [ ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ ) ) โˆ’ ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ ) ) ]

Next, we use Lemma D.4 to bound this difference (where the probability distribution function of ๐’Ÿ is set as ๐‘‘ ๐‘  ๐œ‹ ๐‘˜ , ๐‘š est as defined in Theorem D.2) while letting ๐›ฟ 1

๐›ฟ 2 :

๐‘‰ ๐œ‹ โˆ— โข ( ๐‘  ) โˆ’ ๐‘‰ ๐œ‹ ๐‘˜ , ๐‘š est โข ( ๐‘  )

โ‰ค 1 1 โˆ’ ๐›พ โข โˆ‘ ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) 1 ( ๐‘› ๐‘˜ ) โข [ 2 โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž 1 โˆ’ ๐›พ โข ๐‘› โˆ’ ๐‘˜ + 1 2 โข ๐‘› โข ๐‘˜ โข ( ln โก 2 โข | ๐’ฎ ๐‘™ | ๐›ฟ 1 ) + 2 โข ๐‘Ÿ ~ 1 โˆ’ ๐›พ โข | ๐’œ ๐‘” | โข ๐›ฟ 1 + 2 โข ๐œ– ๐‘˜ , ๐‘š ]

โ‰ค 2 โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž ( 1 โˆ’ ๐›พ ) 2 โข ๐‘› โˆ’ ๐‘˜ + 1 2 โข ๐‘› โข ๐‘˜ โข ( ln โก 2 โข | ๐’ฎ ๐‘™ | ๐›ฟ 1 ) + 2 โข ๐‘Ÿ ~ ( 1 โˆ’ ๐›พ ) 2 โข | ๐’œ ๐‘” | โข ๐›ฟ 1 + 2 โข ๐œ– ๐‘˜ , ๐‘š 1 โˆ’ ๐›พ

This proves the theorem. โˆŽ

Lemma D.4.

For any arbitrary distribution ๐’Ÿ of states ๐’ฎ := ๐’ฎ ๐‘” ร— ๐’ฎ ๐‘™ ๐‘› , for any ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) and for ๐›ฟ 1 , ๐›ฟ 2 โˆˆ ( 0 , 1 ] , we have:

๐”ผ ๐‘  โ€ฒ โˆผ ๐’Ÿ [ ๐‘„ โˆ— ( ๐‘  โ€ฒ , ๐œ‹ โˆ— ( ๐‘  โ€ฒ ) ) โˆ’ ๐‘„ โˆ— ( ๐‘  โ€ฒ , ๐œ‹ ^ ๐‘˜ , ๐‘š est ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ ) ) ]

โ‰ค 2 โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž 1 โˆ’ ๐›พ โข ๐‘› โˆ’ ๐‘˜ + 1 8 โข ๐‘› โข ๐‘˜ โข ( ln โก 2 โข | ๐’ฎ ๐‘™ | ๐›ฟ 1 + ln โก 2 โข | ๐’ฎ ๐‘™ | ๐›ฟ 2 ) + ๐‘Ÿ ~ 1 โˆ’ ๐›พ โข | ๐’œ ๐‘” | โข ( ๐›ฟ 1 + ๐›ฟ 2 ) + 2 โข ๐œ– ๐‘˜ , ๐‘š

Proof.

Denote ๐œ ๐‘˜ , ๐‘š ๐‘  , ฮ” := ๐‘„ โˆ— ( ๐‘  , ๐œ‹ โˆ— ( ๐‘  ) ) โˆ’ ๐‘„ โˆ— ( ๐‘  , ๐œ‹ ^ ๐‘˜ , ๐‘š est ( ๐‘  ๐‘” , ๐น ๐‘  ฮ” ) . We define the indicator function โ„ : ๐’ฎ ร— โ„• ร— ( 0 , 1 ] ร— ( 0 , 1 ] by:

โ„ โข ( ๐‘  , ๐‘˜ , ๐›ฟ 1 , ๐›ฟ 2 )

๐Ÿ™ โข { ๐œ ๐‘˜ , ๐‘š ๐‘  , ฮ” โ‰ค 2 โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž 1 โˆ’ ๐›พ โข ๐‘› โˆ’ ๐‘˜ + 1 8 โข ๐‘› โข ๐‘˜ โข ( ln โก 2 โข | ๐’ฎ ๐‘™ | ๐›ฟ 1 + ln โก 2 โข | ๐’ฎ ๐‘™ | ๐›ฟ 2 ) + 2 โข ๐œ– ๐‘˜ , ๐‘š }

We then study the expected difference between ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ ) ) and ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ ) ) . Observe that:

๐”ผ ๐‘  โ€ฒ โˆผ ๐’Ÿ โข [ ๐œ ๐‘˜ , ๐‘š ๐‘  , ฮ” ]

๐”ผ ๐‘  โ€ฒ โˆผ ๐’Ÿ โข [ ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ ) ) โˆ’ ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ ) ) ]

๐”ผ ๐‘  โ€ฒ โˆผ ๐’Ÿ โข [ โ„ โข ( ๐‘  โ€ฒ , ๐‘˜ , ๐›ฟ 1 , ๐›ฟ 2 ) โข ( ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ ) ) โˆ’ ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ ) ) ) ]

  • ๐”ผ ๐‘  โ€ฒ โˆผ ๐’Ÿ โข [ ( 1 โˆ’ โ„ โข ( ๐‘  โ€ฒ , ๐‘˜ , ๐›ฟ 1 , ๐›ฟ 2 ) ) โข ( ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ ) ) โˆ’ ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ ) ) ) ]

Here, we have used the general property for a random variable ๐‘‹ and constant ๐‘ that ๐”ผ โข [ ๐‘‹ ]

๐”ผ โข [ ๐‘‹ โข ๐Ÿ™ โข { ๐‘‹ โ‰ค ๐‘ } ] + ๐”ผ โข [ ( 1 โˆ’ ๐Ÿ™ โข { ๐‘‹ โ‰ค ๐‘ } ) โข ๐‘‹ ] . Then,

๐”ผ ๐‘  โ€ฒ โˆผ ๐’Ÿ [ ๐‘„ โˆ— ( ๐‘  โ€ฒ , ๐œ‹ โˆ— ( ๐‘  โ€ฒ ) )

โˆ’ ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ ) ]

โ‰ค 2 โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž 1 โˆ’ ๐›พ โข ๐‘› โˆ’ ๐‘˜ + 1 8 โข ๐‘› โข ๐‘˜ โข ( ln โก 2 โข | ๐’ฎ ๐‘™ | ๐›ฟ 1 + ln โก 2 โข | ๐’ฎ ๐‘™ | ๐›ฟ 2 ) ) + 2 โข ๐œ– ๐‘˜ , ๐‘š

  • ๐‘Ÿ ~ 1 โˆ’ ๐›พ ( 1 โˆ’ ๐”ผ ๐‘  โ€ฒ โˆผ ๐’Ÿ โ„ ( ๐‘  โ€ฒ , ๐‘˜ , ๐›ฟ 1 , ๐›ฟ 2 ) ) )

โ‰ค 2 โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž 1 โˆ’ ๐›พ โข ๐‘› โˆ’ ๐‘˜ + 1 8 โข ๐‘› โข ๐‘˜ โข ( ln โก 2 โข | ๐’ฎ ๐‘™ | ๐›ฟ 1 + ln โก 2 โข | ๐’ฎ ๐‘™ | ๐›ฟ 2 ) ) + 2 โข ๐œ– ๐‘˜ , ๐‘š

  • ๐‘Ÿ ~ 1 โˆ’ ๐›พ โข | ๐’œ ๐‘” | โข ( ๐›ฟ 1
  • ๐›ฟ 2 )

For the first term in the first inequality, we use ๐”ผ โข [ ๐‘‹ โข ๐Ÿ™ โข { ๐‘‹ โ‰ค ๐‘ } ] โ‰ค ๐‘ . For the second term, we trivially bound ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ ) ) โˆ’ ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ ) ) by the maximum value ๐‘„ โˆ— can take, which is ๐‘Ÿ ~ 1 โˆ’ ๐›พ by Lemma A.7. In the second inequality, we use the fact that the expectation of an indicator function is the conditional probability of the underlying event. The second inequality follows from Lemma D.5 which yields the claim.โˆŽ

Lemma D.5.

For a fixed ๐‘  โ€ฒ โˆˆ ๐’ฎ := ๐’ฎ ๐‘” ร— ๐’ฎ ๐‘™ ๐‘› , for any ฮ” โˆˆ ( [ ๐‘› ] ๐‘˜ ) , and for ๐›ฟ 1 , ๐›ฟ 2 โˆˆ ( 0 , 1 ] , we have that with probability at least 1 โˆ’ | ๐’œ ๐‘” | โข ( ๐›ฟ 1 + ๐›ฟ 2 ) :

๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ ) ) โˆ’ ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ ) ) โ‰ค 2 โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž 1 โˆ’ ๐›พ โข ๐‘› โˆ’ ๐‘˜ + 1 8 โข ๐‘› โข ๐‘˜ โข ( ln โก 2 โข | ๐’ฎ ๐‘™ | ๐›ฟ 1 + ln โก 2 โข | ๐’ฎ ๐‘™ | ๐›ฟ 2 ) + 2 โข ๐œ– ๐‘˜ , ๐‘š
Proof.
๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ ) )
โˆ’ ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ ) )

๐‘„ โˆ— ( ๐‘  โ€ฒ , ๐œ‹ โˆ— ( ๐‘  โ€ฒ ) ) โˆ’ ๐‘„ โˆ— ( ๐‘  โ€ฒ , ๐œ‹ ^ ๐‘˜ , ๐‘š est ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ ) ) + ๐‘„ ^ ๐‘˜ , ๐‘š est ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ , ๐œ‹ โˆ— ( ๐‘  โ€ฒ ) )

โˆ’ ๐‘„ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ , ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ ) ) + ๐‘„ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐‘  ฮ” โ€ฒ , ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ ) )

โˆ’ ๐‘„ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ ) )

By the monotonicity of the absolute value and the triangle inequality, we have:

๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ ) )

โˆ’ ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ ) )

โ‰ค | ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ ) ) โˆ’ ๐‘„ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ ) ) |

  • | ๐‘„ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ ) ) โˆ’ ๐‘„ โˆ— โข ( ๐‘  โ€ฒ , ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ ) ) |

The above inequality crucially uses the fact that the residual term ๐‘„ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐œ‹ โˆ— โข ( ๐‘  โ€ฒ ) ) โˆ’ ๐‘„ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ , ๐œ‹ ^ ๐‘˜ , ๐‘š est โข ( ๐‘  ๐‘” โ€ฒ , ๐น ๐‘  ฮ” โ€ฒ ) ) โ‰ค 0 , since ๐œ‹ ^ ๐‘˜ , ๐‘š est is the optimal greedy policy for ๐‘„ ^ ๐‘˜ , ๐‘š est . Finally, applying the error bound derived in Lemma D.1 for two timesteps completes the proof. โˆŽ

Corollary D.6.

Optimizing parameters in Theorem D.3 yields:

๐‘‰ ๐œ‹ โˆ— โข ( ๐‘  ) โˆ’ ๐‘‰ ๐œ‹ ๐‘˜ , ๐‘š est โข ( ๐‘  ) โ‰ค 2 โข ๐‘Ÿ ~ ( 1 โˆ’ ๐›พ ) 2 โข ( ๐‘› โˆ’ ๐‘˜ + 1 2 โข ๐‘› โข ๐‘˜ โข ln โก ( 2 โข | ๐’ฎ ๐‘™ | โข | ๐’œ ๐‘” | โข ๐‘˜ ) + 1 ๐‘˜ ) + 2 โข ๐œ– ๐‘˜ , ๐‘š 1 โˆ’ ๐›พ

Proof.

Recall from Theorem D.3 that:

๐‘‰ ๐œ‹ โˆ— โข ( ๐‘  ) โˆ’ ๐‘‰ ๐œ‹ ๐‘˜ , ๐‘š est โข ( ๐‘  ) โ‰ค 2 โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž ( 1 โˆ’ ๐›พ ) 2 โข ๐‘› โˆ’ ๐‘˜ + 1 2 โข ๐‘› โข ๐‘˜ โข ( ln โก 2 โข | ๐’ฎ ๐‘™ | ๐›ฟ 1 ) + 2 โข โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž ( 1 โˆ’ ๐›พ ) 2 โข | ๐’œ ๐‘” | โข ๐›ฟ 1 + 2 โข ๐œ– ๐‘˜ , ๐‘š 1 โˆ’ ๐›พ

Note โ€– ๐‘Ÿ ๐‘™ โข ( โ‹… , โ‹… ) โ€– โˆž โ‰ค ๐‘Ÿ ~ from Assumption 2.2. Then,

๐‘‰ ๐œ‹ โˆ— โข ( ๐‘  ) โˆ’ ๐‘‰ ๐œ‹ ๐‘˜ , ๐‘š est โข ( ๐‘  ) โ‰ค 2 โข ๐‘Ÿ ~ ( 1 โˆ’ ๐›พ ) 2 โข ( ๐‘› โˆ’ ๐‘˜ + 1 2 โข ๐‘› โข ๐‘˜ โข ln โก 2 โข | ๐’ฎ ๐‘™ | ๐›ฟ 1 + | ๐’œ ๐‘” | โข ๐›ฟ 1 ) + 2 โข ๐œ– ๐‘˜ , ๐‘š 1 โˆ’ ๐›พ

Finally, setting ๐›ฟ 1

1 ๐‘˜ 1 / 2 โข | ๐’œ ๐‘” | yields the claim.โˆŽ

Corollary D.7.

Therefore, from Corollary D.6, we have:

๐‘‰ ๐œ‹ โˆ— โข ( ๐‘  ) โˆ’ ๐‘‰ ๐œ‹ ๐‘˜ , ๐‘š est โข ( ๐‘  )
โ‰ค ๐‘‚ โข ( ๐‘Ÿ ~ ๐‘˜ โข ( 1 โˆ’ ๐›พ ) 2 โข ln โก ( 2 โข | ๐’ฎ ๐‘™ | โข | ๐’œ ๐‘” | โข ๐‘˜ ) + ๐œ– ๐‘˜ , ๐‘š 1 โˆ’ ๐›พ )

๐‘‚ ~ โข ( ๐‘Ÿ ~ โข ( 1 โˆ’ ๐›พ ) โˆ’ 2 ๐‘˜ + ๐œ– ๐‘˜ , ๐‘š 1 โˆ’ ๐›พ )

This yields the bound from Theorem 3.4.

Appendix EAdditional Discussions Discussion E.1 (Tighter Endpoint Analysis).

Our theoretical result shows that ๐‘‰ ๐œ‹ โˆ— โข ( ๐‘  ) โˆ’ ๐‘‰ ๐œ‹ ๐‘˜ , ๐‘š est decays on the order of ๐‘‚ โข ( 1 / ๐‘˜ + ๐œ– ๐‘˜ , ๐‘š ) . For ๐‘˜

๐‘› , this bound is actually suboptimal since ๐‘„ ^ ๐‘˜ โˆ— becomes ๐‘„ โˆ— . However, placing | ฮ” |

๐‘› in our weaker TV bound in Lemma C.7, we recovers a total variation distance of 0 when ๐‘˜

๐‘› , recovering the optimal endpoint bound.

Discussion E.2 (Choice of ๐‘˜ ).

Discussion 3.6 previously discussed the tradeoff in ๐‘˜ between the polynomial in ๐‘˜ complexity of learning the ๐‘„ ^ ๐‘˜ function and the decay in the optimality gap of ๐‘‚ โข ( 1 / ๐‘˜ ) . This discussion promoted ๐‘˜

๐‘‚ โข ( log โก ๐‘› ) as a means to balance the tradeoff. However, the โ€œcorrectโ€ choice of ๐‘˜ truly depends on the amount of compute available, as well as the accuracy desired from the method. If the former is available, we recommend setting ๐‘˜

ฮฉ โข ( ๐‘› ) as it will yield a more optimal policy. Conversely, setting ๐‘˜

๐‘‚ โข ( log โก ๐‘› ) , when ๐‘› is large, would be the minimum ๐‘˜ recommended to realize any asymptotic decay of the optimality gap.

Generated on Tue Oct 22 18:48:42 2024 by LaTeXML Report Issue Report Issue for Selection

Xet Storage Details

Size:
155 kB
ยท
Xet hash:
b6e72b8876ae6e3d2879b9fa7016997099078e152adaad890e00ab2a2f90b454

Xet efficiently stores files, intelligently splitting them into unique chunks and accelerating uploads and downloads. More info.