Buckets:

|
download
raw
132 kB

Title: Optimal Stochastic Non-smooth Non-convex Optimization through Online-to-Non-convex Conversion

URL Source: https://arxiv.org/html/2302.03775

Markdown Content: Back to arXiv

This is experimental HTML to improve accessibility. We invite you to report rendering errors. Use Alt+Y to toggle on accessible reporting links and Alt+Shift+Y to toggle off. Learn more about this project and help improve conversions.

Why HTML? Report Issue Back to Abstract Download PDF Abstract 1Introduction 2Definitions and Setup 3Online-to-Non-Convex Conversion 4Bounds for the ๐ฟ 1 Norm 5From Non-smooth to Smooth Guarantees 6Deterministic and Smooth Case 7Lower Bounds 8Conclusion References

HTML conversions sometimes display errors due to content that did not convert correctly from the source. This paper uses the following packages that are not yet supported by the HTML conversion tool. Feedback on these issues are not necessary; they are known and are being worked on.

failed: forloop.sty failed: epic.sty failed: eepic.sty

Authors: achieve the best HTML results from your LaTeX submissions by following these best practices.

License: arXiv.org perpetual non-exclusive license arXiv:2302.03775v3 [cs.LG] 07 Aug 2025 Optimal Stochastic Non-smooth Non-convex Optimization through Online-to-Non-convex Conversion Ashok Cutkosky Boston University Boston, MA ashok@cutkosky.com Harsh Mehta Google Research Mountain View, CA harshm@google.com Francesco Orabona Boston University Boston, MA francesco@orabona.com Abstract

We present new algorithms for optimizing non-smooth, non-convex stochastic objectives based on a novel analysis technique. This improves the current best-known complexity for finding a ( ๐›ฟ , ๐œ– ) -stationary point from ๐‘‚ โ€‹ ( ๐œ– โˆ’ 4 โ€‹ ๐›ฟ โˆ’ 1 ) stochastic gradient queries to ๐‘‚ โ€‹ ( ๐œ– โˆ’ 3 โ€‹ ๐›ฟ โˆ’ 1 ) , which we also show to be optimal. Our primary technique is a reduction from non-smooth non-convex optimization to online learning, after which our results follow from standard regret bounds in online learning. For deterministic and second-order smooth objectives, applying more advanced optimistic online learning techniques enables a new complexity of ๐‘‚ โ€‹ ( ๐œ– โˆ’ 1.5 โ€‹ ๐›ฟ โˆ’ 0.5 ) . Our techniques also recover all optimal or best-known results for finding ๐œ– stationary points of smooth or second-order smooth objectives in both stochastic and deterministic settings.

1Introduction

Algorithms for non-convex optimization are some of the most important tools in modern machine learning, as training neural networks requires optimizing a non-convex objective. Given the abundance of data in many domains, the time to train a neural network is the current bottleneck to having bigger and more powerful machine learning models. Motivated by this need, the past few years have seen an explosion of research focused on understanding non-convex optimization (Ghadimi & Lan, 2013; Carmon et al., 2017; Arjevani et al., 2019; 2020; Carmon et al., 2019; Fang et al., 2018). Despite significant progress, key issues remain unaddressed.

In this paper, we work to minimize a potentially non-convex objective ๐น : โ„ ๐‘‘ โ†’ โ„ which we only accesss in some stochastic or โ€œnoisyโ€ manner. As motivation, consider ๐น โ€‹ ( ๐ฑ ) โ‰œ ๐”ผ ๐ณ [ ๐‘“ โ€‹ ( ๐ฑ , ๐ณ ) ] , where ๐ฑ can represent the model weights, ๐ณ a minibatch of i.i.d. examples, and ๐‘“ the loss of a model with parameters ๐ฑ on the minibatch ๐ณ . In keeping with standard empirical practice, we will restrict ourselves to first order algorithms (gradient-based optimization).

The vast majority of prior analyses of non-convex optimization algorithms impose various smoothness conditions on the objective (Ghadimi & Lan, 2013; Carmon et al., 2017; Allen-Zhu, 2018; Tripuraneni et al., 2018; Fang et al., 2018; Zhou et al., 2018; Fang et al., 2019; Cutkosky & Orabona, 2019; Li & Orabona, 2019; Cutkosky & Mehta, 2020; Zhang et al., 2020a; Karimireddy et al., 2020; Levy et al., 2021; Faw et al., 2022; Liu et al., 2022). One motivation for smoothness assumptions is that they allow for a convenient surrogate for global minimization: rather than finding a global minimum of a neural networkโ€™s loss surface (which may be intractable), we can hope to find an ๐œ– -stationary point, i.e., a point ๐ฑ such that โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– โ‰ค ๐œ– . By now, the fundamental limits on first order smooth non-convex optimization are well understood: Stochastic Gradient Descent (SGD) will find an ๐œ– -stationary point in ๐‘‚ โ€‹ ( ๐œ– โˆ’ 4 ) iterations, which is the optimal rate (Arjevani et al., 2019). Moreover, if ๐น happens to be second-order smooth, SGD requires only ๐‘‚ โ€‹ ( ๐œ– โˆ’ 3.5 ) iterations, which is also optimal (Fang et al., 2019; Arjevani et al., 2020). These optimality results motivate the popularity of SGD and its variants in practice (Kingma & Ba, 2014; Loshchilov & Hutter, 2016; 2018; Goyal et al., 2017; You et al., 2019).

Unfortunately, many standard neural network architectures are non-smooth (e.g., architectures incorporating ReLUs or max-pools cannot be smooth). As a result, these analyses can only provide intuition about what might occur when an algorithm is deployed in practice: the theorems themselves do not apply (see Patel & Berahas (2022) for examples of failure of SGD in non-smooth settings, or Li et al. (2021) for futher discussion of assumptions). Despite the obvious need for non-smooth analyses, recent results suggest that even approaching a neighborhood of a stationary point may be impossible for non-smooth objectives (Kornowski & Shamir, 2022b). Nevertheless, optimization clearly is possible in practice, which suggests that we may need to rethink our assumptions and goals in order to understand non-smooth optimization.

Fortunately, Zhang et al. (2020b) recently considered an alternative definition of stationarity that is tractable even for non-smooth objectives and which has attracted much interest (Davis et al., 2021; Tian et al., 2022; Kornowski & Shamir, 2022a; Tian & So, 2022; Jordan et al., 2022). Roughly speaking, instead of โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– โ‰ค ๐œ– , we ask that there is a random variable ๐ฒ supported in a ball of radius ๐›ฟ about ๐ฑ such that โ€– ๐”ผ [ โˆ‡ ๐น โ€‹ ( ๐ฒ ) ] โ€– โ‰ค ๐œ– . We call such an ๐ฑ an ( ๐›ฟ , ๐œ– ) -stationary point, so that the previous definition ( โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– โ‰ค ๐œ– ) is a ( 0 , ๐œ– ) -stationary point. The current best-known complexity for identifying an ( ๐›ฟ , ๐œ– ) stationary point is ๐‘‚ โ€‹ ( ๐œ– โˆ’ 4 โ€‹ ๐›ฟ โˆ’ 1 ) stochastic gradient evaluations.

In this paper, we significantly improve this result: we can identify an ( ๐›ฟ , ๐œ– ) -stationary point with only ๐‘‚ โ€‹ ( ๐œ– โˆ’ 3 โ€‹ ๐›ฟ โˆ’ 1 ) stochastic gradient evaluations. Moreover, we also show that this rate is optimal. Our primary technique is a novel online-to-non-convex conversion: a connection between non-convex stochastic optimization and online learning, which is a classical field of learning theory that already has a deep literature (Cesa-Bianchi & Lugosi, 2006; Hazan, 2019; Orabona, 2019). In particular, we show that an online learning algorithm that provides a shifting regret bound can be used to decide the update step, when fed with linear losses constructed using the stochastic gradients of the function ๐น . By establishing this connection, we open new avenues for algorithm design in non-convex optimization and also motivate new research directions in online learning.

In sum, we make the following contributions:

โ€ข

A reduction from non-convex non-smooth stochastic optimization to online learning: better online learning algorithms result in faster non-convex optimization. Applying this reduction to standard online learning algorithms allows us to identify an ( ๐›ฟ , ๐œ– ) stationary point in ๐‘‚ โ€‹ ( ๐œ– โˆ’ 3 โ€‹ ๐›ฟ โˆ’ 1 ) stochastic gradient evaluations. The previous best-known rate in this setting was ๐‘‚ โ€‹ ( ๐œ– โˆ’ 4 โ€‹ ๐›ฟ โˆ’ 1 ) .

โ€ข

We show that the ๐‘‚ โ€‹ ( ๐œ– โˆ’ 3 โ€‹ ๐›ฟ โˆ’ 1 ) rate is optimal for all ๐›ฟ , ๐œ– such that ๐œ– โ‰ค ๐‘‚ โ€‹ ( ๐›ฟ ) .

Additionally, we prove important corollaries for smooth ๐น :

โ€ข

The ๐‘‚ โ€‹ ( ๐œ– โˆ’ 3 โ€‹ ๐›ฟ โˆ’ 1 ) complexity implies the optimal ๐‘‚ โ€‹ ( ๐œ– โˆ’ 4 ) and ๐‘‚ โ€‹ ( ๐œ– โˆ’ 3.5 ) respective complexities for finding ( 0 , ๐œ– ) -stationary points of smooth or second-order smooth objectives.

โ€ข

For deterministic and second-order smooth objectives, we obtain a rate of ๐‘‚ โ€‹ ( ๐œ– โˆ’ 3 / 2 โ€‹ ๐›ฟ โˆ’ 1 / 2 ) , which implies the best-known ๐‘‚ โ€‹ ( ๐œ– โˆ’ 7 / 4 ) complexity for finding ( 0 , ๐œ– ) -stationary points.

2Definitions and Setup

Here, we formally introduce our setting and notation. We are interested in optimizing real-valued functions ๐น : โ„‹ โ†’ โ„ where โ„‹ is a real Hilbert space (e.g., usually โ„‹

โ„ ๐‘‘ ). We assume ๐น โ‹† โ‰œ inf ๐ฑ ๐น โ€‹ ( ๐ฑ ) > โˆ’ โˆž . We assume that ๐น is differentiable, but we do not assume that ๐น is smooth. All norms โˆฅ โ‹… โˆฅ are the Hilbert space norm (i.e., the 2-norm) unless otherwise specified. As mentioned in the introduction, the motivating example to keep in mind in our development is the case ๐น โ€‹ ( ๐ฑ )

๐”ผ ๐ณ [ ๐‘“ โ€‹ ( ๐ฑ , ๐ณ ) ] .

Our algorithms access information about ๐น through a stochastic gradient oracle Grad : โ„‹ ร— ๐’ต โ†’ โ„ . Given a point ๐ฑ in โ„‹ , the oracle will sample an i.i.d. random variable ๐ณ โˆˆ ๐’ต and return Grad โ€‹ ( ๐ฑ , ๐ณ ) โˆˆ โ„‹ such that ๐”ผ [ Grad โ€‹ ( ๐ฑ , ๐ณ ) ]

โˆ‡ ๐น โ€‹ ( ๐ฑ ) and Var โ€‹ ( Grad โ€‹ ( ๐ฑ , ๐ณ ) ) โ‰ค ๐œŽ 2 .

In the following, we only consider functions satisfying the following mild regularity condition.

Definition 1.

We define a differentiable function ๐น : โ„‹ โ†’ โ„ to be well-behaved if for all ๐ฑ , ๐ฒ โˆˆ โ„‹ , it holds that

๐น โ€‹ ( ๐ฒ ) โˆ’ ๐น โ€‹ ( ๐ฑ )

โˆซ 0 1 โŸจ โˆ‡ ๐น โ€‹ ( ๐ฑ + ๐‘ก โ€‹ ( ๐ฒ โˆ’ ๐ฑ ) ) , ๐ฒ โˆ’ ๐ฑ โŸฉ โ€‹ d ๐‘ก .

If ๐น happens to be differentiable and locally Lipschitz, then this assumption is simply the Fundamental Theorem of Calculus. Under this assumption, our results can be applied to improve the past results on non-smooth stochastic optimization. In fact, Proposition 2 (proof in Appendix A) below shows that for the wide class of functions that are locally Lipschitz (but possibly non-differentiable), applying an arbitrarily small perturbation to the function is sufficient to ensure both differentiability and well-behavedness. This result works via standard perturbation arguments similar to those used previously by Davis et al. (2021) (see also Bertsekas (1973); Duchi et al. (2012); Flaxman et al. (2005) for similar techniques in the convex setting). In practice we suspect that such perturbation arguments are unnecessary: intuitively an algorithm is unlikely to query a point of non-differentiability (see also Bianchi et al. (2022) for some formal evidence for this idea).

Proposition 2.

Let ๐น : โ„ ๐‘‘ โ†’ โ„ be locally Lipschitz with stochastic oracle Grad such that ๐”ผ ๐ณ [ Grad โ€‹ ( ๐ฑ , ๐ณ ) ]

โˆ‡ ๐น โ€‹ ( ๐ฑ ) whenever ๐น is differentiable. We have two cases:

โ€ข

If ๐น is differentiable everywhere, then ๐น is well-behaved.

โ€ข

If ๐น is not differentiable everywhere, let ๐‘ > 0 be an arbitrary number and let ๐ฎ be a random vector in โ„ ๐‘‘ uniformly distributed on the unit ball. Define ๐น ^ โ€‹ ( ๐ฑ ) โ‰œ ๐”ผ ๐ฎ [ ๐น โ€‹ ( ๐ฑ + ๐‘ โ€‹ ๐ฎ ) ] . Then, ๐น ^ is differentiable and well-behaved, and the oracle Grad ^ โ€‹ ( ๐ฑ , ( ๐ณ , ๐ฎ ) )

Grad โ€‹ ( ๐ฑ + ๐‘ โ€‹ ๐ฎ , ๐ณ ) is a stochastic gradient oracle for ๐น ^ . Moreover, ๐น is differentiable at ๐ฑ + ๐‘ โ€‹ ๐ฎ with probability 1 and if ๐น is ๐บ -Lipschitz, then | ๐น ^ โ€‹ ( ๐ฑ ) โˆ’ ๐น โ€‹ ( ๐ฑ ) | โ‰ค ๐‘ โ€‹ ๐บ for all ๐ฑ .

Remark 3.

We explicitly note that our results cover the case in which ๐น is directionally differentiable and we have access to a stochastic directional gradient oracle, as considered by Zhang et al. (2020b). This is a less standard oracle Grad โ€‹ ( ๐ฑ , ๐ฏ , ๐ณ ) that outputs ๐  such that ๐”ผ [ โŸจ ๐  , ๐ฏ โŸฉ ] is the directional derivative of ๐น in the direction ๐ฏ . This setting is subtly different (although a directional derivative oracle is a gradient oracle at all points for which ๐น is continuously differentiable). In order to keep technical complications to a minimum, in the main text we consider the simpler stochastic gradient oracle discussed above. In Appendix H, we show that our results and techniques also apply using directional gradient oracles with only superficial modification.

2.1 ( ๐›ฟ , ๐œ– ) -Stationary Points

Now, let us define our notion of ( ๐›ฟ , ๐œ– ) -stationary point. This definition is essentially the same as used in Zhang et al. (2020b); Davis et al. (2021); Tian et al. (2022). It is in fact mildly more stringent since we restrict to distributions of finite support and require an โ€œunbiasednessโ€ condition in order to make eventual connections to second-order smooth objectives easier.

Definition 4.

A point ๐ฑ is an ( ๐›ฟ , ๐œ– ) -stationary point of an almost-everywhere differentiable function ๐น if there is a finite subset ๐‘† of the ball of radius ๐›ฟ centered at ๐ฑ such that for ๐ฒ selected uniformly at random from ๐‘† , ๐”ผ [ ๐ฒ ]

๐ฑ and โ€– ๐”ผ [ โˆ‡ ๐น โ€‹ ( ๐ณ ) ] โ€– โ‰ค ๐œ– .

As a counterpart to this definition, we also define:

Definition 5.

Given a point ๐ฑ , a number ๐›ฟ

0 and a almost-everywhere differentiable function ๐น , define

โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– ๐›ฟ โ‰œ inf ๐‘† โŠ‚ ๐ต โ€‹ ( ๐ฑ , ๐›ฟ ) , 1 | ๐‘† | โ€‹ โˆ‘ ๐ฒ โˆˆ ๐‘† ๐ฒ

๐ฑ โ€– 1 | ๐‘† | โ€‹ โˆ‘ ๐ฒ โˆˆ ๐‘† โˆ‡ ๐น โ€‹ ( ๐ฒ ) โ€– .

Letโ€™s also state an immediate corollary of Proposition 2 that converts a guarantee on a randomized smoothed function to one on the original function. This result is also immediate from Theorem 3.1 of Lin et al. (2022).

Corollary 6.

Let ๐น : โ„ ๐‘‘ โ†’ โ„ be ๐บ -Lipschitz. For ๐œ–

0 , let ๐‘ โ‰ค ๐›ฟ and let ๐ฎ be a random vector in โ„ ๐‘‘ uniformly distributed on the unit ball. Define ๐น ^ โ€‹ ( ๐ฑ ) โ‰œ ๐”ผ ๐ฎ [ ๐น โ€‹ ( ๐ฑ + ๐‘ โ€‹ ๐ฎ ) ] . If a point ๐ฑ satisfies โ€– โˆ‡ ๐น ^ โ€‹ ( ๐ฑ ) โ€– ๐›ฟ โ‰ค ๐œ– , then โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– 2 โ€‹ ๐›ฟ โ‰ค ๐œ– .

Our ultimate goal is to use ๐‘ stochastic gradient evaluations of ๐น to identify a point ๐ฑ with as small a value of ๐”ผ [ โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– ๐›ฟ ] as possible. For the rest of this paper we will consider exclusively the case of well-behaved and differentiable objectives ๐น . We focus our development on this conceptually simpler case in order to simplify the proofs as much as possible, however due to Proposition 2 and Corollary 6, our results will immediately extend from differentiable ๐น to those ๐น that are locally Lipschitz and for which Grad โ€‹ ( ๐ฑ , ๐ณ ) returns a unbiased estimate of โˆ‡ ๐น โ€‹ ( ๐ฑ ) whenever ๐น is differentiable at ๐ฑ .

2.2Online Learning

Here, we very briefly introduce the setting of online linear learning with shifting competitors, that will be the core of our online-to-non-convex conversion. We refer the interested reader to Cesa-Bianchi & Lugosi (2006); Hazan (2019); Orabona (2019) for a comprehensive introduction to online learning. In the online learning setting, the learning process goes on in rounds. In each round the algorithm outputs a point ๐šซ ๐‘ก in a feasible set ๐‘‰ , and then receives a linear loss function โ„“ ๐‘ก โ€‹ ( โ‹… )

โŸจ ๐  ๐‘ก , โ‹… โŸฉ and it pays โ„“ ๐‘ก โ€‹ ( ๐šซ ๐‘ก ) . The goal of the algorithm is to minimize the static regret over ๐‘‡ rounds, defined as the difference between its cumulative loss and the one of an arbitrary comparison vector ๐ฎ โˆˆ ๐‘‰ :

๐‘… ๐‘‡ โ€‹ ( ๐ฎ ) โ‰œ โˆ‘ ๐‘ก

1 ๐‘‡ โŸจ ๐  ๐‘ก , ๐šซ ๐‘ก โˆ’ ๐ฎ โŸฉ .

With no stochastic assumption, it is possible to design online algorithms that guarantee that the regret is upper bounded by ๐‘‚ โ€‹ ( ๐‘‡ ) . In this work, we frequently make use of a more challenging objective: minimizing the ๐พ -shifting regret. This is the regret with respect to an arbitrary sequence of ๐พ vectors ๐ฎ 1 , โ€ฆ , ๐ฎ ๐พ โˆˆ ๐‘‰ that changes every ๐‘‡ iterations:

๐‘… ๐‘‡ โ€‹ ( ๐ฎ 1 , โ€ฆ , ๐ฎ ๐พ ) โ‰œ โˆ‘ ๐‘˜

1 ๐พ โˆ‘ ๐‘›

( ๐‘˜ โˆ’ 1 ) โ€‹ ๐‘‡ + 1 ๐‘˜ โ€‹ ๐‘‡ โŸจ ๐  ๐‘› , ๐šซ ๐‘› โˆ’ ๐ฎ ๐‘˜ โŸฉ .

(1)

It should be intuitive that resetting the online algorithm every ๐‘‡ iterations can achieve a shifting regret of ๐‘‚ โ€‹ ( ๐พ โ€‹ ๐‘‡ ) .

2.3Related Work

In addition to the papers discussed in the introduction, here we discuss further related work.

In this paper we build on top of the definition of ( ๐›ฟ , ๐œ– ) -stationary points proposed by Zhang et al. (2020b). There, they prove a complexity rate of ๐‘‚ โ€‹ ( ๐œ– โˆ’ 4 โ€‹ ๐›ฟ โˆ’ 1 ) for stochastic Lipschitz functions, which we improve to ๐‘‚ โ€‹ ( ๐œ– โˆ’ 3 โ€‹ ๐›ฟ โˆ’ 1 ) and prove the optimality of this result.

In a concurrent work, Chen et al. (2023) consider the setting of zeroth-order stochastic optimization (i.e. evaluation of function values only rather than gradients) and achieve a similar asymptotic rate of ๐‘‚ โ€‹ ( ๐‘‘ 3 / 2 โ€‹ ๐œ– โˆ’ 3 โ€‹ ๐›ฟ โˆ’ 1 ) by applying variance-reduction to a smoothed version of the objective ๐น . This result is an intriguing contrast to many zeroth-order algorithms based on such smoothing in that the algorithm is not obtained by applying applying smoothing to a first-order algorithm. More recently, Kornowski & Shamir (2023) improved the dimension dependence in the rate for zeroth-order optimization to ๐‘‚ โ€‹ ( ๐‘‘ โ€‹ ๐œ– โˆ’ 3 โ€‹ ๐›ฟ โˆ’ 1 ) by employing the algorithm described in this paper in concert with a refined analysis of the smoothing operation.

The idea to reduce machine learning to online learning was pioneered by Cesa-Bianchi et al. (2004) with the online-to-batch conversion. There is also previous work exploring the possibility of transforming non-convex problems into online learning ones. Ghai et al. (2022) provides some conditions under which online gradient descent on non-convex losses is equivalent to a convex online mirror descent. Hazan et al. (2017) defines a notion of regret which can be used to find approximate stationary points of smooth objectives. Zhuang et al. (2019) transform the problem of tuning of learning rates in stochastic non-convex optimization into an online learning problem. Our proposed approach differs from all the ones above in applying to non-smooth objectives. Moreover, as discusses in the next section, we employ online learning algorithms with shifting regret Herbster & Warmuth (1998) to generate the updates (i.e. the differences between successive iterates), rather than the iterates themselves.

3Online-to-Non-Convex Conversion

In this section, we explain the online-to-non-convex conversion. The core idea transforms the minimization of a non-convex and non-smooth function onto the problem of minimizing the shifting regret over linear losses. In particular, consider an optimization algorithm that updates a previous iterate ๐ฑ ๐‘› โˆ’ 1 by moving in a direction ๐šซ ๐‘› : ๐ฑ ๐‘›

๐ฑ ๐‘› โˆ’ 1 + ๐šซ ๐‘› . For example, SGD sets ๐šซ ๐‘›

โˆ’ ๐œ‚ โ€‹ ๐  ๐‘› โˆ’ 1

โˆ’ ๐œ‚ โ‹… Grad โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 , ๐ณ ๐‘› โˆ’ 1 ) for a learning rate ๐œ‚ . Instead, we let an online learning algorithm ๐’œ decide the update direction ๐šซ ๐‘› , using linear losses โ„“ ๐‘› โ€‹ ( ๐ฑ )

โŸจ ๐  ๐‘› , ๐ฑ โŸฉ .

The motivation behind essentially all first order algorithms is that ๐น โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 + ๐šซ ๐‘› ) โˆ’ ๐น โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 ) โ‰ˆ โŸจ ๐  ๐‘› , ๐šซ ๐‘› โŸฉ . This suggests that ๐šซ ๐‘› should be chosen to minimize the inner product โŸจ ๐  ๐‘› , ๐šซ ๐‘› โŸฉ . However, we are faced with two difficulties. The first difficulty is the the approximation error in the first-order expansion. The second is the fact that ๐šซ ๐‘› needs to be chosen before ๐  ๐‘› is revealed, so that ๐šซ ๐‘› needs in some sense to โ€œpredict the futureโ€. Typical analysis of algorithms such as SGD use the remainder form of Taylorโ€™s theorem to address both difficulties simultaneously for smooth objectives, but in our non-smooth case this is not a valid approach. Instead, we tackle these difficulties independently. We overcome the first difficulty using the same randomized scaling trick employed by Zhang et al. (2020b): define ๐  ๐‘› to be a gradient evaluated not at ๐ฑ ๐‘› โˆ’ 1 or ๐ฑ ๐‘› โˆ’ 1 + ๐šซ ๐‘› , but at a random point along the line segment connecting the two. Then for a well-behaved function we will have ๐น โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 + ๐šซ ๐‘› ) โˆ’ ๐น โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 )

๐”ผ [ โŸจ ๐  ๐‘› , ๐šซ ๐‘› โŸฉ ] . The second difficulty is where online learning shines: online learning algorithms are specifically designed to predict completely arbitrary sequences of vectors as accurately as possible.

The previous intuition is formalized in Algorithm 1 and the following result, which we will elaborate on in Theorem 8 before yielding our main result in Corollary 9.

Theorem 7.

Suppose ๐น is well-behaved. Define โˆ‡ ๐‘›

โˆซ 0 1 โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 + ๐‘  โ€‹ ๐šซ ๐‘› ) โ€‹ d ๐‘  . Then, with the notation in Algorithm 1 and for any sequence of vectors ๐ฎ 1 , โ€ฆ , ๐ฎ ๐‘ , we have the equality:

๐น โ€‹ ( ๐ฑ ๐‘€ )

๐น โ€‹ ( ๐ฑ 0 ) + โˆ‘ ๐‘›

1 ๐‘€ โŸจ ๐  ๐‘› , ๐šซ ๐‘› โˆ’ ๐ฎ ๐‘› โŸฉ + โˆ‘ ๐‘›

1 ๐‘€ โŸจ โˆ‡ ๐‘› โˆ’ ๐  ๐‘› , ๐šซ ๐‘› โŸฉ + โˆ‘ ๐‘›

1 ๐‘€ โŸจ ๐  ๐‘› , ๐ฎ ๐‘› โŸฉ .

Moreover, if we let ๐‘  ๐‘› be independent random variables uniformly distributed in [ 0 , 1 ] , then we have

๐”ผ [ ๐น โ€‹ ( ๐ฑ ๐‘€ ) ]

๐น โ€‹ ( ๐ฑ 0 ) + ๐”ผ [ โˆ‘ ๐‘›

1 ๐‘€ โŸจ ๐  ๐‘› , ๐šซ ๐‘› โˆ’ ๐ฎ ๐‘› โŸฉ ] + ๐”ผ [ โˆ‘ ๐‘›

1 ๐‘€ โŸจ ๐  ๐‘› , ๐ฎ ๐‘› โŸฉ ] .

Proof.

By the well-behaveness of ๐น , we have

๐น โ€‹ ( ๐ฑ ๐‘› ) โˆ’ ๐น โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 )

โˆซ 0 1 โŸจ โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 + ๐‘  โ€‹ ( ๐ฑ ๐‘› โˆ’ ๐ฑ ๐‘› โˆ’ 1 ) ) , ๐ฑ ๐‘› โˆ’ ๐ฑ ๐‘› โˆ’ 1 โŸฉ โ€‹ d ๐‘ 

โˆซ 0 1 โŸจ โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 + ๐‘  โ€‹ ๐šซ ๐‘› ) , ๐šซ ๐‘› โŸฉ โ€‹ d ๐‘ 

โŸจ โˆ‡ ๐‘› , ๐šซ ๐‘› โŸฉ

โŸจ ๐  ๐‘› , ๐šซ ๐‘› โˆ’ ๐ฎ ๐‘› โŸฉ + โŸจ โˆ‡ ๐‘› โˆ’ ๐  ๐‘› , ๐šซ ๐‘› โŸฉ + โŸจ ๐  ๐‘› , ๐ฎ ๐‘› โŸฉ .

Now, sum over ๐‘› and telescope to obtain the stated bound.

For the second statement, simply observe that by definition we have ๐”ผ [ ๐  ๐‘› ]

โˆซ 0 1 โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 + ๐‘  โ€‹ ๐šซ ๐‘› ) โ€‹ d ๐‘ 

โˆ‡ ๐‘› . โˆŽ

Algorithm 1 Online-to-Non-Convex Conversion โ€‚Input: Initial point ๐ฑ 0 , ๐พ โˆˆ โ„• , ๐‘‡ โˆˆ โ„• , online learning algorithm ๐’œ . โ€‚Set ๐‘€

๐พ โ‹… ๐‘‡ โ€‚for  ๐‘›

1 โ€‹ โ€ฆ โ€‹ ๐‘€  do โ€ƒโ€‚Get ๐šซ ๐‘› from ๐’œ โ€ƒโ€‚Set ๐ฑ ๐‘›

๐ฑ ๐‘› โˆ’ 1 + ๐šซ ๐‘› โ€ƒโ€‚Generate ๐‘  ๐‘› โˆˆ [ 0 , 1 ] // usually uniformly random, see Theorem statements for precise settings. โ€ƒโ€‚Set ๐ฐ ๐‘›

๐ฑ ๐‘› โˆ’ 1 + ๐‘  ๐‘› โ€‹ ๐šซ ๐‘› โ€ƒโ€‚Sample random ๐ณ ๐‘› โ€ƒโ€‚Generate gradient ๐  ๐‘›

Grad โ€‹ ( ๐ฐ ๐‘› , ๐ณ ๐‘› ) โ€ƒโ€‚Send ๐  ๐‘› to ๐’œ as gradient โ€‚end for โ€‚Set ๐ฐ ๐‘ก ๐‘˜

๐ฐ ( ๐‘˜ โˆ’ 1 ) โ€‹ ๐‘‡ + ๐‘ก for ๐‘˜

1 , โ€ฆ , ๐พ and ๐‘ก

1 , โ€ฆ , ๐‘‡ โ€‚Set ๐ฐ ยฏ ๐‘˜

1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ ๐ฐ ๐‘ก ๐‘˜ for ๐‘˜

1 , โ€ฆ , ๐พ โ€‚Return { ๐ฐ ยฏ 1 , โ€ฆ , ๐ฐ ยฏ ๐พ } 3.1Guarantees for Non-Smooth Non-Convex Functions

The primary value of Theorem 7 is that the term โˆ‘ ๐‘›

1 ๐‘€ โŸจ ๐  ๐‘› , ๐šซ ๐‘› โˆ’ ๐ฎ ๐‘› โŸฉ is exactly the regret of an online learning algorithm: lower regret clearly translates to a smaller bound on ๐น โ€‹ ( ๐ฑ ๐‘€ ) . Next, by carefully choosing ๐ฎ ๐‘› , we will be able to relate the term โˆ‘ ๐‘›

1 ๐‘€ โŸจ ๐  ๐‘› , ๐ฎ ๐‘› โŸฉ to the gradient averages that appear in the definition of ( ๐›ฟ , ๐œ– ) -stationarity. Formalizing these ideas, we have the following:

Theorem 8.

Assume ๐น is well-behaved. With the notation in Algorithm 1, set ๐‘  ๐‘› to be a random variable sampled uniformly from [ 0 , 1 ] . Set ๐‘‡ , ๐พ โˆˆ โ„• and ๐‘€

๐พ โ€‹ ๐‘‡ . Define ๐ฎ ๐‘˜

โˆ’ ๐ท โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โ€– โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โ€– for some ๐ท > 0 for ๐‘˜

1 , โ€ฆ , ๐พ . Finally, suppose Var โ€‹ ( ๐  ๐‘› ) โ‰ค ๐œŽ 2 . Then:

๐”ผ [ 1 ๐พ โ€‹ โˆ‘ ๐‘˜

1 ๐พ โ€– 1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โ€– ]

โ‰ค ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ๐ท โ€‹ ๐‘€ + ๐”ผ [ ๐‘… ๐‘‡ โ€‹ ( ๐ฎ 1 , โ€ฆ , ๐ฎ ๐พ ) ] ๐ท โ€‹ ๐‘€ + ๐œŽ ๐‘‡ .

Proof.

From Theorem 7, we have

๐”ผ [ ๐น โ€‹ ( ๐ฑ ๐‘€ ) ]

๐น โ€‹ ( ๐ฑ 0 ) + ๐”ผ [ ๐‘… ๐‘‡ โ€‹ ( ๐ฎ 1 , โ€ฆ , ๐ฎ ๐พ ) ] + ๐”ผ [ โˆ‘ ๐‘›

1 ๐‘€ โŸจ ๐  ๐‘› , ๐ฎ ๐‘› โŸฉ ] .

Now, since ๐ฎ ๐‘˜

โˆ’ ๐ท โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โ€– โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โ€– , ๐”ผ [ ๐  ๐‘› ]

๐”ผ [ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘› ) ] , and Var โ€‹ ( ๐  ๐‘› ) โ‰ค ๐œŽ 2 , we have

๐”ผ [ โˆ‘ ๐‘›

1 ๐‘€ โŸจ ๐  ๐‘› , ๐ฎ ๐‘› โŸฉ ]
โ‰ค ๐”ผ [ โˆ‘ ๐‘˜

1 ๐พ โŸจ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) , ๐ฎ ๐‘˜ โŸฉ ] + ๐”ผ [ ๐ท โ€‹ โˆ‘ ๐‘˜

1 ๐พ โ€– โˆ‘ ๐‘ก

1 ๐‘‡ ( โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โˆ’ ๐  ๐‘‡ โ€‹ ( ๐‘˜ โˆ’ 1 ) + ๐‘ก ) โ€– ]

โ‰ค ๐”ผ [ โˆ‘ ๐‘˜

1 ๐พ โŸจ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) , ๐ฎ ๐‘˜ โŸฉ ] + ๐ท โ€‹ ๐œŽ โ€‹ ๐พ โ€‹ ๐‘‡

๐”ผ [ โˆ’ โˆ‘ ๐‘˜

1 ๐พ ๐ท โ€‹ ๐‘‡ โ€‹ โ€– 1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โ€– ] + ๐ท โ€‹ ๐œŽ โ€‹ ๐พ โ€‹ ๐‘‡ .

Putting this all together, we have

๐น โ‹†
โ‰ค ๐”ผ [ ๐น โ€‹ ( ๐ฑ ๐‘€ ) ] โ‰ค ๐น โ€‹ ( ๐ฑ 0 ) + ๐”ผ [ ๐‘… ๐‘‡ โ€‹ ( ๐ฎ 1 , โ€ฆ , ๐ฎ ๐พ ) ] + ๐œŽ โ€‹ ๐ท โ€‹ ๐พ โ€‹ ๐‘‡ โˆ’ ๐ท โ€‹ ๐‘‡ โ€‹ โˆ‘ ๐‘˜

1 ๐พ ๐”ผ [ โ€– 1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โ€– ] .

Dividing by ๐พ โ€‹ ๐ท โ€‹ ๐‘‡

๐ท โ€‹ ๐‘€ and reordering, we have the stated bound. โˆŽ

We now instantiate Theorem 8 with the simplest online learning algorithm: online gradient descent (OGD) (Zinkevich, 2003). OGD takes input a radius ๐ท and a step size ๐œ‚ and makes the update ๐šซ ๐‘› + 1

ฮ  โ€– ๐šซ โ€– โ‰ค ๐ท โ€‹ [ ๐šซ ๐‘› โˆ’ ๐œ‚ โ€‹ ๐  ๐‘› ] with ๐šซ 1

0 . The standard analysis shows that if ๐”ผ [ โ€– ๐  ๐‘› โ€– 2 ] โ‰ค ๐บ 2 for all ๐‘› , then with ๐œ‚

๐ท ๐บ โ€‹ ๐‘‡ , OGD will ensure1 static regret ๐”ผ [ ๐‘… ๐‘‡ โ€‹ ( ๐ฎ ) ] โ‰ค ๐ท โ€‹ ๐บ โ€‹ ๐‘‡ for any ๐ฎ satisfying โ€– ๐ฎ โ€– โ‰ค ๐ท . Thus, by resetting the algorithm every ๐‘‡ iterations, we achieve ๐”ผ [ ๐‘… ๐‘‡ โ€‹ ( ๐ฎ 1 , โ€ฆ โ€‹ ๐ฎ ๐พ ) ] โ‰ค ๐พ โ€‹ ๐ท โ€‹ ๐บ โ€‹ ๐‘‡ . This powerful guarantee for all sequences is characteristic of online learning. We are now free to optimize the remaining parameters ๐พ and ๐ท to achieve our main result, presented in Corollary 9.

Corollary 9.

Suppose we have a budget of ๐‘ gradient evaluations. Under the assumptions of Theorem 8, suppose in addition ๐”ผ [ โ€– ๐  ๐‘› โ€– 2 ] โ‰ค ๐บ 2 and that ๐’œ guarantees โ€– ๐šซ ๐‘› โ€– โ‰ค ๐ท for some user-specified ๐ท for all ๐‘› and ensures the worst-case ๐พ -shifting regret bound ๐”ผ [ ๐‘… ๐‘‡ โ€‹ ( ๐ฎ 1 , โ€ฆ , ๐ฎ ๐พ ) ] โ‰ค ๐ท โ€‹ ๐บ โ€‹ ๐พ โ€‹ ๐‘‡ for all โ€– ๐ฎ ๐‘˜ โ€– โ‰ค ๐ท (e.g., as achieved by the OGD algorithm that is reset every ๐‘‡ iterations). Let ๐›ฟ > 0 be an arbitrary number. Set ๐ท

๐›ฟ / ๐‘‡ , ๐‘‡

min โก ( โŒˆ ( ๐บ โ€‹ ๐‘ โ€‹ ๐›ฟ ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) 2 / 3 โŒ‰ , ๐‘ 2 ) , and ๐พ

โŒŠ ๐‘ ๐‘‡ โŒ‹ . Then, for all ๐‘˜ and ๐‘ก , we have โ€– ๐ฐ ยฏ ๐‘˜ โˆ’ ๐ฐ ๐‘ก ๐‘˜ โ€– โ‰ค ๐›ฟ .

Moreover, we have the inequality

๐”ผ
[ 1 ๐พ โ€‹ โˆ‘ ๐‘˜

1 ๐พ โ€– 1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โ€– ] โ‰ค 2 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) ๐›ฟ โ€‹ ๐‘ + max โก ( 5 โ€‹ ๐บ 2 / 3 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) 1 / 3 ( ๐‘ โ€‹ ๐›ฟ ) 1 / 3 , 6 โ€‹ ๐บ ๐‘ ) ,

which implies

๐”ผ [ 1 ๐พ โ€‹ โˆ‘ ๐‘ก

1 ๐พ โ€– โˆ‡ ๐น โ€‹ ( ๐ฐ ยฏ ๐‘˜ ) โ€– ๐›ฟ ] โ‰ค 2 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) ๐›ฟ โ€‹ ๐‘ + max โก ( 5 โ€‹ ๐บ 2 / 3 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) 1 / 3 ( ๐‘ โ€‹ ๐›ฟ ) 1 / 3 , 6 โ€‹ ๐บ ๐‘ ) .

Before providing the proof, let us discuss the implications. Notice that if we select ๐ฐ ^ at random from { ๐ฐ ยฏ 1 , โ€ฆ , ๐ฐ ยฏ ๐พ } , then we clearly have ๐”ผ [ โ€– โˆ‡ ๐น โ€‹ ( ๐ฐ ^ ) โ€– ๐›ฟ ]

๐”ผ [ 1 ๐พ โ€‹ โˆ‘ ๐‘ก

1 ๐พ โ€– โˆ‡ ๐น โ€‹ ( ๐ฐ ยฏ ๐‘˜ ) โ€– ๐›ฟ ] . Therefore, the Corollary asserts that for a function ๐น with ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ inf ๐น โ€‹ ( ๐ฑ ) โ‰ค ๐›พ with a stochastic gradient oracle whose second moment is bounded by ๐บ 2 , a properly instantiated Algorithm 1 finds a ( ๐›ฟ , ๐œ– ) stationary point in ๐‘

๐‘‚ โ€‹ ( ๐บ โ€‹ ๐›พ โ€‹ ๐œ– โˆ’ 3 โ€‹ ๐›ฟ โˆ’ 1 ) gradient evaluations. In Section 7, we will provide a lower bound showing that this rate is optimal essentially whenever ๐›ฟ โ€‹ ๐บ 2 โ‰ฅ ๐œ– โ€‹ ๐›พ . Together, the Corollary and the lower bound provide a nearly complete characterization of the complexity of finding ( ๐›ฟ , ๐œ– ) -stationary points in the stochastic setting.

It is also interesting to note that the bound does not appear to improve if the gradients are deterministic. Specifically, in the assumptions for Corollary 9, we could try to relax ๐”ผ [ โ€– ๐  ๐‘ก โ€– 2 ] โ‰ค ๐บ to โ€– โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ) โ€– โ‰ค ๐บ and Var โ€‹ ( ๐  ๐‘ก ) โ‰ค ๐œŽ 2 for some ๐œŽ . We might then hope to improve the bound as ๐œŽ โ†’ 0 by taking advantage of the ๐œŽ -dependency in Theorem 8. However, it turns out that the ๐œŽ -dependency in Corollary 9 is dominated by a dependency on ๐บ coming from the regret bound of OGD. This highlights an interesting open question: is it actually possible to improve in the deterministic setting? It is conceivable that the answer is โ€œnoโ€: in the non-smooth convex optimization setting, it is well-known that the optimal rates for stochastic and deterministic optimization are the same (see, e.g., Bubeck (2015) for proofs of both upper and lower bounds).

Remark 10.

We conjecture that by employing martingale concentration, the above can be extended to identify a ( ๐›ฟ , ๐‘‚ โ€‹ ( ๐บ 2 / 3 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) 1 / 3 ( ๐‘ โ€‹ ๐›ฟ ) 1 / 3 ) ) -stationary point with high probability, although we do not establish such a result here.

It is also interesting to explicitly write the update of the overall algorithm:

๐ฑ ๐‘›

๐ฑ ๐‘› โˆ’ 1 + ๐šซ ๐‘›

๐  ๐‘›

Grad โ€‹ ( ๐ฑ ๐‘› + ( ๐‘  ๐‘› โˆ’ 1 ) โ€‹ ๐šซ ๐‘› , ๐ณ ๐‘› )

๐šซ ๐‘› + 1

clip ๐ท โ€‹ ( ๐šซ ๐‘› + ๐œ‚ โ€‹ ๐  ๐‘› )

where clip ( ๐ฑ ) ๐ท

๐ฑ min ( ๐ท โ€– ๐ฑ โ€– , 1 ) . In words, the update is reminiscent of the SGD update with momentum and clipping. The primary different element is the fact that the stochastic gradient is taken on a slightly perturbed ๐ฑ ๐‘› .

Proof of Corollary 9.

Since ๐’œ guarantees โ€– ๐šซ ๐‘› โ€– โ‰ค ๐ท , for all ๐‘› < ๐‘› โ€ฒ โ‰ค ๐‘› + ๐‘‡ โˆ’ 1 , we have

โ€– ๐ฐ ๐‘› โˆ’ ๐ฐ ๐‘› โ€ฒ โ€–

โ€– ๐ฑ ๐‘› โˆ’ ( 1 โˆ’ ๐‘  ๐‘› ) โ€‹ ๐šซ ๐‘› โˆ’ ๐ฑ ๐‘› โ€ฒ โˆ’ 1 + ๐‘  ๐‘› โ€ฒ โ€‹ ๐šซ ๐‘› โ€ฒ โ€–

โ‰ค โ€– โˆ‘ ๐‘–

๐‘› + 1 ๐‘› โ€ฒ โˆ’ 1 ๐šซ ๐‘– โ€– + โ€– ๐šซ ๐‘› โ€– + โ€– ๐šซ ๐‘› โ€ฒ โ€–

โ‰ค ๐ท โ€‹ ( ( ๐‘› โ€ฒ โˆ’ 1 ) โˆ’ ( ๐‘› + 1 ) + 1 ) + 2 โ€‹ ๐ท โ‰ค ๐ท โ€‹ ๐‘‡ .

Therefore, we clearly have โ€– ๐ฐ ๐‘ก ๐‘˜ โˆ’ ๐ฐ ยฏ ๐‘˜ โ€– โ‰ค ๐ท โ€‹ ๐‘‡

๐›ฟ .

Note that from the choice of ๐พ and ๐‘‡ we have ๐‘€

๐พ โ€‹ ๐‘‡ โ‰ฅ ๐‘ โˆ’ ๐‘‡ โ‰ฅ ๐‘ / 2 . So, for the second fact, notice that Var โ€‹ ( ๐  ๐‘› ) โ‰ค ๐”ผ [ โ€– ๐  ๐‘ก โ€– 2 ] โ‰ค ๐บ 2 for all ๐‘› . Thus, applying Theorem 8 in concert with the additional assumption ๐”ผ [ ๐‘… ๐‘‡ โ€‹ ( ๐ฎ 1 , โ€ฆ , ๐ฎ ๐พ ) ] โ‰ค ๐ท โ€‹ ๐บ โ€‹ ๐พ โ€‹ ๐‘‡ , we have:

๐”ผ [ 1 ๐พ โ€‹ โˆ‘ ๐‘˜

1 ๐พ โ€– 1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โ€– ]

โ‰ค 2 โ€‹ ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ๐ท โ€‹ ๐‘ + 2 โ€‹ ๐พ โ€‹ ๐ท โ€‹ ๐บ โ€‹ ๐‘‡ ๐ท โ€‹ ๐‘ + ๐บ ๐‘‡

โ‰ค 2 โ€‹ ๐‘‡ โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) ๐›ฟ โ€‹ ๐‘ + 3 โ€‹ ๐บ ๐‘‡

โ‰ค max โก ( 5 โ€‹ ๐บ 2 / 3 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) 1 / 3 ( ๐‘ โ€‹ ๐›ฟ ) 1 / 3 , 6 โ€‹ ๐บ ๐‘ ) + 2 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) ๐›ฟ โ€‹ ๐‘ ,

where the last inequality is due to the choice of ๐‘‡ .

Finally, observe that โ€– ๐ฐ ๐‘ก ๐‘˜ โˆ’ ๐ฐ ยฏ ๐‘˜ โ€– โ‰ค ๐›ฟ for all ๐‘ก and ๐‘˜ , and also that ๐ฐ ยฏ ๐‘˜

1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ ๐ฐ ๐‘ก ๐‘˜ . Therefore ๐‘†

{ ๐ฐ 1 ๐‘˜ , โ€ฆ , ๐ฐ ๐‘‡ ๐‘˜ } satisfies the conditions in the infimum in Definition 5 so that โ€– โˆ‡ ๐น โ€‹ ( ๐ฐ ยฏ ๐‘˜ ) โ€– ๐›ฟ โ‰ค โ€– 1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โ€– . โˆŽ

4Bounds for the ๐ฟ 1 Norm

It is a well-known trick in the online learning literature that running a separate instance of an online learning algorithm on each coordinate of ๐šซ yields regret bounds with respect to ๐ฟ 1 norms of the linear costs (e.g., as in AdaGrad (Duchi et al., 2010; McMahan & Streeter, 2010)). For example, we can run the online gradient descent algorithm with a separate learning rate for each coordinate: ๐šซ ๐‘› + 1 , ๐‘–

ฮ  [ โˆ’ ๐ท โˆž , ๐ท โˆž ] โ€‹ [ ๐šซ ๐‘› , ๐‘– โˆ’ ๐œ‚ ๐‘– โ€‹ ๐  ๐‘› , ๐‘– ] . The regret of this procedure is simply the sum of the regrets of each of the individual algorithms. In particular, if ๐”ผ [ ๐  ๐‘› , ๐‘– 2 ] โ‰ค ๐บ ๐‘– 2 , then setting ๐œ‚ ๐‘–

๐ท โˆž ๐บ ๐‘– โ€‹ ๐‘‡ yields the regret bound ๐”ผ [ ๐‘… ๐‘‡ โ€‹ ( ๐ฎ ) ] โ‰ค ๐ท โˆž โ€‹ ๐‘‡ โ€‹ โˆ‘ ๐‘–

1 ๐‘ ๐บ ๐‘– for any ๐ฎ satisfying โ€– ๐ฎ โ€– โˆž โ‰ค ๐ท โˆž . By employing such online algorithms with our online-to-non-convex conversion, we can obtain a guarantee on the ๐ฟ 1 norm of the gradients.

Definition 11.

A point ๐ฑ is a ( ๐›ฟ , ๐œ– ) -stationary point with respect to the ๐ฟ 1 norm of an almost-everywhere differentiable function ๐น if there exists a finite subset ๐‘† of the ๐ฟ โˆž ball of radius ๐›ฟ centered at ๐ฑ such that if ๐ฒ is selected uniformly at random from ๐‘† , ๐”ผ [ ๐ฒ ]

๐ฑ and โ€– ๐”ผ [ โˆ‡ ๐น โ€‹ ( ๐ฒ ) ] โ€– 1 โ‰ค ๐œ– .

As a counterpart to this definition, we define:

Definition 12.

Given a point ๐ฑ , a number ๐›ฟ

0 and an almost-everywhere differentiable function ๐น , define

โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– 1 , ๐›ฟ โ‰œ inf ๐‘† โŠ‚ ๐ต โˆž ( ๐ฑ , ๐›ฟ ) | , 1 | ๐‘† | โˆ‘ ๐ฒ โˆˆ ๐‘† ๐ฒ

๐ฑ โ€– 1 | ๐‘† | โ€‹ โˆ‘ ๐ฒ โˆˆ ๐‘† โˆ‡ ๐น โ€‹ ( ๐ฒ ) โ€– 1 .

We now can state a theorem similar to Corollary 9. Given that the proof is also very similar, we defer it to Appendix G.

Theorem 13.

Suppose we have a budget of ๐‘ gradient evaluations. Assume ๐น : โ„ ๐‘‘ โ†’ โ„ is well-behaved. With the notation in Algorithm 1, set ๐‘  ๐‘› to be a random variable sampled uniformly from [ 0 , 1 ] . Set ๐‘‡ , ๐พ โˆˆ โ„• and ๐‘€

๐พ โ€‹ ๐‘‡ . Assume that ๐”ผ [ ๐‘” ๐‘› , ๐‘– 2 ] โ‰ค ๐บ ๐‘– 2 for ๐‘–

1 , โ€ฆ , ๐‘‘ for all ๐‘› . Assume that ๐’œ guarantees โ€– ๐šซ ๐‘› โ€– โˆž โ‰ค ๐ท โˆž for some user-specified ๐ท โˆž for all ๐‘› and ensures the ๐พ -shifting regret bound ๐”ผ [ ๐‘… ๐‘‡ โ€‹ ( ๐ฎ 1 , โ€ฆ , ๐ฎ ๐พ ) ] โ‰ค ๐ท โˆž โ€‹ ๐พ โ€‹ ๐‘‡ โ€‹ โˆ‘ ๐‘–

1 ๐‘‘ ๐บ ๐‘– for all โ€– ๐ฎ ๐‘˜ โ€– โˆž โ‰ค ๐ท โˆž . Let ๐›ฟ > 0 be an arbitrary number. Set ๐ท โˆž

๐›ฟ / ๐‘‡ , ๐‘‡

min โก ( โŒˆ ( ๐‘ โ€‹ ๐›ฟ โ€‹ โˆ‘ ๐‘–

1 ๐‘‘ ๐บ ๐‘– ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) 2 / 3 โŒ‰ , ๐‘ 2 ) , and ๐พ

โŒŠ ๐‘ ๐‘‡ โŒ‹ . Then we have:

1 ๐พ โ€‹ โˆ‘ ๐‘ก

1 ๐พ โ€– โˆ‡ ๐น โ€‹ ( ๐ฐ ยฏ ๐‘˜ ) โ€– 1 , ๐›ฟ โ‰ค 2 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) ๐›ฟ โ€‹ ๐‘ + max โก ( 5 โ€‹ ( โˆ‘ ๐‘–

1 ๐‘‘ ๐บ ๐‘– ) 2 / 3 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) 1 / 3 ( ๐‘ โ€‹ ๐›ฟ ) 1 / 3 , 6 โ€‹ โˆ‘ ๐‘–

1 ๐‘‘ ๐บ ๐‘– ๐‘ ) .

Letโ€™s compare this result with Corollary 9. For a fair comparison, we set ๐บ ๐‘– and ๐บ such that โˆ‘ ๐‘–

1 ๐‘‘ ๐บ ๐‘– 2

๐บ 2 . Then, we can lower bound โˆฅ โ‹… โˆฅ ๐›ฟ with 1 ๐‘‘ โˆฅ โ‹… โˆฅ 1 , ๐›ฟ . Hence, under the assumption ๐”ผ [ โ€– ๐  ๐‘› โ€– 2 ]

โˆ‘ ๐‘–

1 ๐‘‘ ๐”ผ [ ๐‘” ๐‘› , ๐‘– 2 ] โ‰ค โˆ‘ ๐‘–

1 ๐‘‘ ๐บ ๐‘– 2

๐บ 2 , Corollary 9 implies 1 ๐พ โ€‹ โˆ‘ ๐‘ก

1 ๐พ โ€– โˆ‡ ๐น โ€‹ ( ๐ฐ ยฏ ๐‘˜ ) โ€– 1 , ๐›ฟ โ‰ค ๐‘‚ โ€‹ ( ๐บ 2 / 3 โ€‹ ๐‘‘ ( ๐‘ โ€‹ ๐›ฟ ) 1 / 3 ) .

Now, let us see what would happen if we instead employed the above Corollary 13. First, observe that โˆ‘ ๐‘–

1 ๐‘‘ ๐บ ๐‘– โ‰ค ๐‘‘ โ€‹ โˆ‘ ๐‘–

1 ๐‘‘ ๐บ ๐‘– 2 โ‰ค ๐‘‘ โ€‹ ๐บ . Substituting this expression into Theorem 13 now gives an upper bound on โˆฅ โ‹… โˆฅ 1 , ๐›ฟ that is ๐‘‚ โ€‹ ( ๐‘‘ 1 / 3 โ€‹ ๐บ 2 / 3 ( ๐‘ โ€‹ ๐›ฟ ) 1 / 3 ) , which is better than the one we could obtain from Corollary 9 under the same assumptions.

5From Non-smooth to Smooth Guarantees

Let us now see what our results imply for smooth objectives. The following two propositions show that for smooth ๐น , a ( ๐›ฟ , ๐œ– ) -stationary point is automatically a ( 0 , ๐œ– โ€ฒ ) -stationary point for some appropriate ๐œ– โ€ฒ . The proofs are in Appendix E.

Proposition 14.

Suppose that ๐น is ๐ป -smooth (that is, โˆ‡ ๐น is ๐ป -Lipschitz) and ๐‘ฅ also satisfies โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– ๐›ฟ โ‰ค ๐œ– . Then, โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– โ‰ค ๐œ– + ๐ป โ€‹ ๐›ฟ .

Proposition 15.

Suppose that ๐น is ๐ฝ -second-order-smooth (that is, โ€– โˆ‡ 2 ๐น โ€‹ ( ๐ฑ ) โˆ’ โˆ‡ 2 ๐น โ€‹ ( ๐ฒ ) โ€– op โ‰ค ๐ฝ โ€‹ โ€– ๐ฑ โˆ’ ๐ฒ โ€– for all ๐ฑ and ๐ฒ ). Suppose also that ๐ฑ satisfies โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– ๐›ฟ โ‰ค ๐œ– . Then, โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– โ‰ค ๐œ– + ๐ฝ 2 โ€‹ ๐›ฟ 2 .

Now, recall that Corollary 9 shows that we can find a ( ๐›ฟ , ๐œ– ) stationary point in ๐‘‚ โ€‹ ( ๐œ– โˆ’ 3 โ€‹ ๐›ฟ โˆ’ 1 ) iteration. Thus, Proposition 14 implies that by setting ๐›ฟ

๐œ– / ๐ป , we can find a ( 0 , ๐œ– ) -stationary point of an ๐ป -smooth objective ๐น in ๐‘‚ โ€‹ ( ๐œ– โˆ’ 4 ) iterations, which matches the (optimal) guarantee of standard SGD (Ghadimi & Lan, 2013; Arjevani et al., 2019). Further, Proposition 15 shows that by setting ๐›ฟ

๐œ– / ๐ฝ , we can find a ( 0 , ๐œ– ) -stationary point of a ๐ฝ -second order smooth objective in ๐‘‚ โ€‹ ( ๐œ– โˆ’ 3.5 ) iterations. This matches the performance of more refined SGD variants and is also known to be tight (Fang et al., 2019; Cutkosky & Mehta, 2020; Arjevani et al., 2020). In summary: the online-to-non-convex conversion also recovers the optimal results for smooth stochastic losses.

6Deterministic and Smooth Case

We will now consider the case of a non-stochastic oracle (that is, Grad โ€‹ ( ๐ฑ , ๐ณ )

โˆ‡ ๐น โ€‹ ( ๐ฑ ) for all ๐ณ , ๐ฑ ) and ๐น is ๐ป -smooth (i.e. โˆ‡ ๐น is ๐ป -Lipschitz). We will show that optimistic online algorithms (Rakhlin & Sridharan, 2013; Hazan & Kale, 2010) achieve rates matching the optimal deterministic results. In particular, we consider online algorithms that ensure static regret:

๐‘… ๐‘‡ โ€‹ ( ๐ฎ ) โ‰ค ๐‘‚ โ€‹ ( ๐ท โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โ€– ๐ก ๐‘ก โˆ’ ๐  ๐‘ก โ€– 2 ) ,

(2)

for some โ€œhintโ€ vectors ๐ก ๐‘ก . In Appendix B, we provide an explicit construction of such an algorithm for completeness. The standard setting for the hints is ๐ก ๐‘ก

๐  ๐‘ก โˆ’ 1 . As explained in Section 2.2, to obtain a ๐พ -shifting regret it will be enough to reset the algorithm every ๐‘‡ iterations.

Theorem 16.

Suppose we have a budget of ๐‘ gradient evaluations. and that we have an online algorithm ๐’œ ๐‘  โ€‹ ๐‘ก โ€‹ ๐‘Ž โ€‹ ๐‘ก โ€‹ ๐‘– โ€‹ ๐‘ that guarantees โ€– ๐šซ ๐‘› โ€– โ‰ค ๐ท for all ๐‘› and ensures the optimistic regret bound ๐‘… ๐‘‡ โ€‹ ( ๐ฎ ) โ‰ค ๐ถ โ€‹ ๐ท โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โ€– ๐  ๐‘ก โˆ’ ๐  ๐‘ก โˆ’ 1 โ€– 2 for some constant ๐ถ , and we define ๐  0

๐ŸŽ . In Algorithm 1, set ๐’œ to be ๐’œ static that is reset every ๐‘‡ rounds. Let ๐›ฟ > 0 be an arbitrary number. Set ๐ท

๐›ฟ / ๐‘‡ , ๐‘‡

min โก ( โŒˆ ( ๐ถ โ€‹ ๐›ฟ 2 โ€‹ ๐ป โ€‹ ๐‘ ) 2 / 5 ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) 2 / 5 โŒ‰ , ๐‘ 2 ) , and ๐พ

โŒŠ ๐‘ ๐‘‡ โŒ‹ . Finally, suppose that ๐น is ๐ป -smooth and that the gradient oracle is deterministic (that is, ๐  ๐‘›

โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘› ) ). Then we have:

๐”ผ [ 1 ๐พ โ€‹ โˆ‘ ๐‘ก

1 ๐พ โ€– โˆ‡ ๐น โ€‹ ( ๐ฐ ยฏ ๐‘˜ ) โ€– ๐›ฟ ]

โ‰ค 2 โ€‹ ๐ถ โ€‹ ๐บ 1 ๐‘ + 2 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) ๐›ฟ โ€‹ ๐‘

  • max โก ( 6 โ€‹ ( ๐ถ โ€‹ ๐ป ) 2 / 5 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) 3 / 5 ๐›ฟ 1 / 5 โ€‹ ๐‘ 3 / 5 , 17 โ€‹ ๐ถ โ€‹ ๐›ฟ โ€‹ ๐ป ๐‘ 3 / 2 ) .

Note that the expectation here encompasses only the randomness in the choice of ๐‘  ๐‘ก ๐‘˜ , because the gradient oracle is assumed to be deterministic. Theorem 16 finds a ( ๐›ฟ , ๐œ– ) stationary point in ๐‘‚ โ€‹ ( ๐œ– โˆ’ 5 / 3 โ€‹ ๐›ฟ โˆ’ 1 / 3 ) iteratations. Thus, by setting ๐›ฟ

๐œ– / ๐ป , Proposition 14 shows we can find a ( 0 , ๐œ– ) stationary point in ๐‘‚ โ€‹ ( ๐œ– โˆ’ 2 ) iterations, which matches the standard optimal rate (Carmon et al., 2021).

Proof.

First, observe that for all ๐‘˜ , ๐‘ก , โ€– ๐ฐ ยฏ ๐‘˜ โˆ’ ๐ฐ ๐‘ก ๐‘˜ โ€– โ‰ค ๐›ฟ . This holds for precisely the same reason that it holds in Corollary 9.

Next, observe that for ๐‘˜

1 we have

๐‘… ๐‘‡ โ€‹ ( ๐ฎ ๐‘˜ )
โ‰ค ๐ถ โ€‹ ๐ท โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โ€– ๐  ๐‘ก ๐‘˜ โˆ’ ๐  ๐‘ก โˆ’ 1 ๐‘˜ โ€– 2

โ‰ค ๐ถ โ€‹ ๐ท โ€‹ ๐บ 1 2 + โˆ‘ ๐‘ก

2 ๐‘‡ โ€– โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โˆ’ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก โˆ’ 1 ๐‘˜ ) โ€– 2

โ‰ค ๐ถ โ€‹ ๐ท โ€‹ ๐บ 1 2 + โˆ‘ ๐‘ก

2 ๐‘‡ ๐ป 2 โ€‹ โ€– ๐ฐ ๐‘ก ๐‘˜ โˆ’ ๐ฐ ๐‘ก โˆ’ 1 ๐‘˜ โ€– 2

โ‰ค ๐ถ โ€‹ ๐ท โ€‹ ๐บ 1 2 + 4 โ€‹ ๐ป 2 โ€‹ ๐‘‡ โ€‹ ๐ท 2 โ‰ค ๐ถ โ€‹ ๐ท โ€‹ ๐บ 1 + 2 โ€‹ ๐ถ โ€‹ ๐ท 2 โ€‹ ๐ป โ€‹ ๐‘‡ .

Similarly, for ๐‘˜

1 , we observe that

โˆ‘ ๐‘ก

1 ๐‘‡ โ€– ๐  ๐‘ก ๐‘˜ โˆ’ ๐  ๐‘ก โˆ’ 1 ๐‘˜ โ€– 2
โ‰ค โˆ‘ ๐‘ก

2 ๐‘‡ โ€– โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โˆ’ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก โˆ’ 1 ๐‘˜ ) โ€– 2 + โ€– โˆ‡ ๐น โ€‹ ( ๐ฐ 1 ๐‘˜ ) โˆ’ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘‡ ๐‘˜ โˆ’ 1 ) โ€– 2

โ‰ค ๐ป 2 โ€‹ ( โ€– ๐ฐ 1 ๐‘˜ โˆ’ ๐ฐ ๐‘‡ ๐‘˜ โˆ’ 1 โ€– 2 + โˆ‘ ๐‘ก

2 ๐‘‡ โ€– ๐ฐ ๐‘ก ๐‘˜ โˆ’ ๐ฐ ๐‘ก โˆ’ 1 ๐‘˜ โ€– 2 )

โ‰ค 4 โ€‹ ๐‘‡ โ€‹ ๐ป 2 โ€‹ ๐ท 2 .

Thus, we have

๐‘… ๐‘‡ โ€‹ ( ๐ฎ ๐‘˜ )
โ‰ค ๐ถ โ€‹ ๐ท โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โ€– ๐  ๐‘ก ๐‘˜ โˆ’ ๐  ๐‘ก โˆ’ 1 ๐‘˜ โ€– 2

โ‰ค ๐ถ โ€‹ ๐ท โ€‹ 4 โ€‹ ๐ป 2 โ€‹ ๐‘‡ โ€‹ ๐ท 2

โ‰ค 2 โ€‹ ๐ถ โ€‹ ๐ท 2 โ€‹ ๐ป โ€‹ ๐‘‡ .

Now, applying Theorem 8 in concert with the above bounds on ๐‘… ๐‘‡ โ€‹ ( ๐ฎ ๐‘˜ ) , we have

๐”ผ [ 1 ๐พ โ€‹ โˆ‘ ๐‘˜

1 ๐พ โ€– 1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โ€– ]
โ‰ค 2 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) ๐ท โ€‹ ๐‘ + 2 โ€‹ ๐ถ โ€‹ ๐ท โ€‹ ๐บ 1 + 4 โ€‹ ๐ถ โ€‹ ๐พ โ€‹ ๐ท 2 โ€‹ ๐ป โ€‹ ๐‘‡ ๐ท โ€‹ ๐‘

2 โ€‹ ๐‘‡ โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) ๐›ฟ โ€‹ ๐‘ + 2 โ€‹ ๐ถ โ€‹ ๐บ 1 ๐‘ + 4 โ€‹ ๐ถ โ€‹ ๐›ฟ โ€‹ ๐ป ๐‘‡ 3 / 2

โ‰ค max โก ( 6 โ€‹ ( ๐ถ โ€‹ ๐ป ) 2 / 5 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) 3 / 5 ๐›ฟ 1 / 5 โ€‹ ๐‘ 3 / 5 , 17 โ€‹ ๐ถ โ€‹ ๐›ฟ โ€‹ ๐ป ๐‘ 3 / 2 )

  • 2 โ€‹ ๐ถ โ€‹ ๐บ 1 ๐‘
  • 2 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) ๐›ฟ โ€‹ ๐‘ .

Recalling that โ€– ๐ฐ ๐‘ก ๐‘˜ โˆ’ ๐ฐ ยฏ ๐‘˜ โ€– โ‰ค ๐›ฟ , the conclusion follows. โˆŽ

6.1Better Results with Second-Order Smoothness

When ๐น is ๐ฝ -second-order smooth (i.e., โˆ‡ 2 ๐น is ๐ฝ -Lipschitz) we can do even better. First, observe that by Theorem 16, if ๐น is ๐ฝ -second-order-smooth, then by Proposition 15, the ๐‘‚ โ€‹ ( ๐œ– โˆ’ 5 / 3 โ€‹ ๐›ฟ โˆ’ 1 / 3 ) iteration complexity of Theorem 16 implies an ๐‘‚ โ€‹ ( ๐œ– โˆ’ 11 / 6 ) iteration complexity for finding ( 0 , ๐œ– ) stationary points by setting ๐›ฟ

๐œ– / ๐ฝ . This already improves upon the ๐‘‚ โ€‹ ( ๐œ– โˆ’ 2 ) result for smooth losses, but we can improve still further. The key idea is to generate more informative hints ๐ก ๐‘ก . If we can make ๐ก ๐‘ก โ‰ˆ ๐  ๐‘ก , then by (2), we can achieve smaller regret and so a better guarantee.

To do so, we abandon randomization: instead of choosing ๐‘  ๐‘› randomly, we just set ๐‘  ๐‘›

1 / 2 . This setting still allows ๐น โ€‹ ( ๐ฑ ๐‘› ) โ‰ˆ ๐น โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 ) + โŸจ ๐  ๐‘› , ๐šซ ๐‘› โŸฉ with very little error when ๐น is second-order-smooth. By inspecting the optimistic mirror descent update formula, we can identify an ๐ก ๐‘ก with โ€– ๐ก ๐‘ก โˆ’ ๐  ๐‘ก โ€– โ‰ค ๐‘‚ โ€‹ ( 1 / ๐‘ ) using ๐‘‚ โ€‹ ( log โก ( ๐‘ ) ) gradient queries. This more advanced online learning algorithm is presented in Algorithm 2 (full analysis in Appendix C).

Overall, Algorithm 2โ€™s update has an โ€œimplicitโ€ flavor:

๐šซ ๐‘›

ฮ  โ€– ๐šซ โ€– โ‰ค ๐ท โ€‹ [ ๐šซ ๐‘› โˆ’ 1 โˆ’ ๐  ๐‘› 2 โ€‹ ๐ป ] ,

๐  ๐‘›

โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 + ๐šซ ๐‘› / 2 ) .
Algorithm 2 Optimistic Mirror Descent with Careful Hints โ€‚Input: Learning rate ๐œ‚ , number ๐‘„ ( ๐‘„ will be ๐‘‚ โ€‹ ( log โก ๐‘ ) ), function ๐น , horizon ๐‘‡ , radius ๐ท โ€‚Receive initial iterate ๐ฑ 0 โ€‚Set ๐šซ 1 โ€ฒ

๐ŸŽ โ€‚for  ๐‘ก

1 โ€‹ โ€ฆ โ€‹ ๐‘‡  do โ€ƒโ€‚Set ๐ก ๐‘ก 0

โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘ก โˆ’ 1 ) โ€ƒโ€‚for  ๐‘–

1 โ€‹ โ€ฆ โ€‹ ๐‘„  do โ€ƒโ€ƒโ€‚Set ๐ก ๐‘ก ๐‘–

โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘ก โˆ’ 1 + 1 2 โ€‹ ฮ  โ€– ๐šซ โ€– โ‰ค ๐ท โ€‹ [ ๐šซ ๐‘ก โ€ฒ โˆ’ ๐œ‚ โ€‹ ๐ก ๐‘ก ๐‘– โˆ’ 1 ] ) โ€ƒโ€‚end for โ€ƒโ€‚Set ๐ก ๐‘ก

๐ก ๐‘ก ๐‘„ โ€ƒโ€‚Output ๐šซ ๐‘ก

ฮ  โ€– ๐šซ โ€– โ‰ค ๐ท โ€‹ [ ๐šซ ๐‘ก โ€ฒ โˆ’ ๐œ‚ โ€‹ ๐ก ๐‘ก ] โ€ƒโ€‚Receive ๐‘ก th gradient ๐  ๐‘ก โ€ƒโ€‚Set ๐šซ ๐‘ก + 1 โ€ฒ

ฮ  โ€– ๐šซ โ€– โ‰ค ๐ท โ€‹ [ ๐šซ ๐‘ก โ€ฒ โˆ’ ๐œ‚ โ€‹ ๐  ๐‘ก ] โ€‚end for

With this refined online algorithm, we can show the following convergence guarantee, whose proof is in Appendix D.

Theorem 17.

In Algorithm 1, assume that ๐  ๐‘›

โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘› ) , and set ๐‘  ๐‘›

1 2 . Use Algorithm 2 restarted every ๐‘‡ rounds as ๐’œ . Let ๐›ฟ > 0 an arbitrary number. Set ๐‘‡

min โก ( โŒˆ ( ๐›ฟ 2 โ€‹ ( ๐ป + ๐ฝ โ€‹ ๐›ฟ ) โ€‹ ๐‘ ) 1 / 3 ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) 1 / 3 โŒ‰ , ๐‘ / 2 ) and ๐พ

โŒŠ ๐‘ ๐‘‡ โŒ‹ . In Algorithm 2, set ๐œ‚

1 / 2 โ€‹ ๐ป , ๐ท

๐›ฟ / ๐‘‡ , and ๐‘„

โŒˆ log 2 โก ( ๐‘ โ€‹ ๐บ / ๐ป โ€‹ ๐ท ) โŒ‰ . Finally, suppose that ๐น is ๐ฝ -second-order-smooth. Then, the following facts hold:

1.

For all ๐‘˜ , ๐‘ก , โ€– ๐ฐ ยฏ ๐‘˜ โˆ’ ๐ฐ ๐‘ก ๐‘˜ โ€– โ‰ค ๐›ฟ .

2.

We have the inequality

1 ๐พ โ€‹ โˆ‘ ๐‘˜

1 ๐พ โ€– 1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โ€–

โ‰ค 4 โ€‹ ๐บ ๐‘ + 2 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) ๐‘ โ€‹ ๐›ฟ

  • 3 โ€‹ ( ๐ป
  • ๐ฝ โ€‹ ๐›ฟ ) 1 / 3 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) 2 / 3 ๐›ฟ 1 / 3 โ€‹ ๐‘ 2 / 3
  • 10 โ€‹ ๐›ฟ โ€‹ ( ๐ป
  • ๐ฝ โ€‹ ๐›ฟ ) ๐‘ 2 .

3.

With ๐›ฟ

๐ป 1 / 7 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ€‹ ( ๐ฑ ๐‘ ) ) 2 / 7 ๐ฝ 3 / 7 โ€‹ ๐‘ 2 / 7 , we have

1 ๐พ
โˆ‘ ๐‘ก

1 ๐พ โ€– โˆ‡ ๐น โ€‹ ( ๐ฐ ยฏ ๐‘˜ ) โ€– โ‰ค ๐‘‚ โ€‹ ( ๐ฝ 1 / 7 โ€‹ ๐ป 2 / 7 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) 4 / 7 ๐‘ 4 / 7 ) .

Moreover, the total number of gradient queries consumed is ๐‘ โ€‹ ๐‘„

๐‘‚ โ€‹ ( ๐‘ โ€‹ log โก ( ๐‘ ) )

This result finds a ( ๐›ฟ , ๐œ– ) stationary point in ๐‘‚ ~ โ€‹ ( ๐œ– โˆ’ 3 / 2 โ€‹ ๐›ฟ โˆ’ 1 / 2 ) iterations. Via Proposition 15, this translates to ๐‘‚ ~ โ€‹ ( ๐œ– โˆ’ 7 / 4 ) iterations for finding a ( 0 , ๐œ– ) stationary point, matching the best known rate (up to a logarithmic factor) (Carmon et al., 2017). Note that this may not be optimal: the best lower bound is ฮฉ โ€‹ ( ๐œ– โˆ’ 12 / 7 ) (Carmon et al., 2021). Intriguingly, our technique seems distinct from previous work, which usually relies on acceleration and detecting or exploiting negative curvature (Carmon et al., 2017; Agarwal et al., 2016; Carmon et al., 2018; Li & Lin, 2022).

7Lower Bounds

In this section, we show that our ๐‘‚ โ€‹ ( ๐œ– โˆ’ 3 โ€‹ ๐›ฟ โˆ’ 1 ) complexity achieved in Corollary 9 is tight. We do this by a simple extension of the lower bound for stochastic smooth non-convex optimization of Arjevani et al. (2019). We provide an informal statement and proof-sketch below. The formal result (Theorem 28) and proof is provided in Appendix F.

Theorem 18 (informal).

There is a universal constant ๐ถ such that for any ๐›ฟ , ๐œ– , ๐›พ and ๐บ โ‰ฅ ๐ถ โ€‹ ๐œ– โ€‹ ๐›พ ๐›ฟ , for any first-order algorithm ๐’œ , there is a ๐บ -Lipschitz, ๐ถ โˆž function ๐น : โ„ ๐‘‘ โ†’ โ„ for some ๐‘‘ with ๐น โ€‹ ( 0 ) โˆ’ inf ๐ฑ ๐น โ€‹ ( ๐ฑ ) โ‰ค ๐›พ and a stochastic first-order gradient oracle for ๐น whose outputs ๐  satisfy ๐”ผ [ โ€– ๐  โ€– 2 ] โ‰ค ๐บ 2 such that such that ๐’œ requires ฮฉ โ€‹ ( ๐บ 2 โ€‹ ๐›พ / ๐›ฟ โ€‹ ๐œ– 3 ) stochastic oracle queries to identify a point ๐ฑ with ๐”ผ [ โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– ๐›ฟ ] โ‰ค ๐œ– .

Proof sketch.

The construction of Arjevani et al. (2019) provides, for any ๐œŽ a function ๐น and stochastic oracle whose outputs have variance at most ๐œŽ 2 such that ๐น is ๐ป -smooth, ๐‘‚ โ€‹ ( ๐ป โ€‹ ๐›พ ) -Lipschitz and ๐’œ requires ฮฉ โ€‹ ( ๐œŽ 2 โ€‹ ๐ป โ€‹ ๐›พ / ๐œ– 4 ) oracle queries to find a point ๐ฑ with โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– โ‰ค 2 โ€‹ ๐œ– . By setting ๐ป

๐œ– ๐›ฟ and ๐œŽ

๐บ / 2 , this becomes an ๐œ– โ€‹ ๐›พ / ๐›ฟ -Lipschitz function, and so is at most ๐บ / 2 -Lipschitz. Thus, the second moment of the gradient oracle is at most ๐บ 2 / 2 + ๐บ 2 / 2

๐บ 2 . Further, the algorithm requires ฮฉ โ€‹ ( ๐บ 2 โ€‹ ๐›พ / ๐›ฟ โ€‹ ๐œ– 3 ) queries to find a point ๐ฑ with โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– โ‰ค 2 โ€‹ ๐œ– . Now, if โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– ๐›ฟ โ‰ค ๐œ– , then since ๐น is ๐ป

๐œ– ๐›ฟ -smooth, by Proposition 14, โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– โ‰ค ๐œ– + ๐›ฟ โ€‹ ๐ป

2 โ€‹ ๐œ– . Thus, we see that we need ฮฉ โ€‹ ( ๐บ 2 โ€‹ ๐›พ / ๐›ฟ โ€‹ ๐œ– 3 ) queries to find a point with โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– ๐›ฟ โ‰ค ๐œ– as desired. โˆŽ

8Conclusion

We have presented a new online-to-non-convex conversion technique that applies online learning algorithms to non-convex and non-smooth stochastic optimization. When used with online gradient descent, this achieves the optimal ๐œ– โˆ’ 3 โ€‹ ๐›ฟ โˆ’ 1 complexity for finding ( ๐›ฟ , ๐œ– ) stationary points.

These results suggest new directions for work in online learning. Much past work is motivated by the online-to-batch conversion relating static regret to convex optimization. We employ switching regret for non-convex optimization. More refined analysis may be possible via generalizations such as strongly adaptive or dynamic regret (Daniely et al., 2015; Jun et al., 2017; Zhang et al., 2018; Jacobsen & Cutkosky, 2022; Cutkosky, 2020; Lu et al., 2022; Luo et al., 2022; Zhang et al., 2021; Baby & Wang, 2022; Zhang et al., 2022). Moreover, our analysis assumes perfect tuning of constants (e.g., ๐ท , ๐‘‡ , ๐พ ) for simplicity. In practice, we would prefer to adapt to unknown parameters, motivating new applications and problems for adaptive online learning, which is already an area of active current investigation (see, e.g., Orabona & Pรกl, 2015; Hoeven et al., 2018; Cutkosky & Orabona, 2018; Cutkosky, 2019; Mhammedi & Koolen, 2020; Chen et al., 2021; Sachs et al., 2022; Zhang & Cutkosky, 2022; Wang et al., 2022). We hope that this expertise can be applied in the non-convex setting as well.

Finally, our results leave an important question unanswered: the current best-known algorithm for deterministic non-smooth optimization still requires ๐‘‚ โ€‹ ( ๐œ– โˆ’ 3 โ€‹ ๐›ฟ โˆ’ 1 ) iterations to find a ( ๐›ฟ , ๐œ– ) -stationary point (Zhang et al., 2020b). We achieve this same result even in the stochastic case. Thus it is natural to wonder if the deterministic rate is tight. For example, is the ๐‘‚ โ€‹ ( ๐œ– โˆ’ 3 / 2 โ€‹ ๐›ฟ โˆ’ 1 / 2 ) complexity we achieve in the smooth setting also achievable in the non-smooth setting? Intriguingly, prior work Kornowski & Shamir (2022a); Jordan et al. (2022) shows that randomization is necessary, even if the gradient oracle itself is deterministic.

Acknowledgements

The authors would like to thank Zijian Liu for identifying an error in the original proof of Theorem 18.

Ashok Cutkosky is supported by the National Science Foundation grant CCF-2211718 as well as a Google gift. Francesco Orabona is supported by the National Science Foundation under the grants no. 2022446 โ€œFoundations of Data Science Instituteโ€ and no. 2046096 โ€œCAREER: Parameter-free Optimization Algorithms for Machine Learningโ€.

References Agarwal et al. (2016) โ†‘ Agarwal, N., Allen-Zhu, Z., Bullins, B., Hazan, E., and Ma, T.Finding approximate local minima for nonconvex optimization in linear time.arXiv preprint arXiv:1611.01146, 2016. Allen-Zhu (2018) โ†‘ Allen-Zhu, Z.Natasha 2: Faster non-convex optimization than SGD.In Advances in neural information processing systems, pp. 2675โ€“2686, 2018. Arjevani et al. (2019) โ†‘ Arjevani, Y., Carmon, Y., Duchi, J. C., Foster, D. J., Srebro, N., and Woodworth, B.Lower bounds for non-convex stochastic optimization.arXiv preprint arXiv:1912.02365, 2019. Arjevani et al. (2020) โ†‘ Arjevani, Y., Carmon, Y., Duchi, J. C., Foster, D. J., Sekhari, A., and Sridharan, K.Second-order information in non-convex stochastic optimization: Power and limitations.In Conference on Learning Theory, pp.  242โ€“299, 2020. Baby & Wang (2022) โ†‘ Baby, D. and Wang, Y.-X.Optimal dynamic regret in proper online learning with strongly convex losses and beyond.In International Conference on Artificial Intelligence and Statistics, pp.  1805โ€“1845. PMLR, 2022. Bertsekas (1973) โ†‘ Bertsekas, D. P.Stochastic optimization problems with nondifferentiable cost functionals.Journal of Optimization Theory and Applications, 12(2):218โ€“231, 1973. Bianchi et al. (2022) โ†‘ Bianchi, P., Hachem, W., and Schechtman, S.Convergence of constant step stochastic gradient descent for non-smooth non-convex functions.Set-Valued and Variational Analysis, 30(3):1117โ€“1147, 2022. Bubeck (2015) โ†‘ Bubeck, S.Convex optimization: Algorithms and complexity.Foundations and Trendsยฎ in Machine Learning, 8(3-4):231โ€“357, 2015. Carmon et al. (2017) โ†‘ Carmon, Y., Duchi, J. C., Hinder, O., and Sidford, A.โ€œconvex until proven guiltyโ€: Dimension-free acceleration of gradient descent on non-convex functions.In International Conference on Machine Learning, pp. 654โ€“663. PMLR, 2017. Carmon et al. (2018) โ†‘ Carmon, Y., Duchi, J. C., Hinder, O., and Sidford, A.Accelerated methods for nonconvex optimization.SIAM Journal on Optimization, 28(2):1751โ€“1772, 2018. Carmon et al. (2019) โ†‘ Carmon, Y., Duchi, J. C., Hinder, O., and Sidford, A.Lower bounds for finding stationary points I.Mathematical Programming, pp.  1โ€“50, 2019. Carmon et al. (2021) โ†‘ Carmon, Y., Duchi, J. C., Hinder, O., and Sidford, A.Lower bounds for finding stationary points II: first-order methods.Mathematical Programming, 185(1-2), 2021. Cesa-Bianchi & Lugosi (2006) โ†‘ Cesa-Bianchi, N. and Lugosi, G.Prediction, learning, and games.Cambridge University Press, 2006. Cesa-Bianchi et al. (2004) โ†‘ Cesa-Bianchi, N., Conconi, A., and Gentile, C.On the generalization ability of on-line learning algorithms.Information Theory, IEEE Transactions on, 50(9):2050โ€“2057, 2004. Chen et al. (2021) โ†‘ Chen, L., Luo, H., and Wei, C.-Y.Impossible tuning made possible: A new expert algorithm and its applications.In Conference on Learning Theory, pp.  1216โ€“1259. PMLR, 2021. Chen et al. (2023) โ†‘ Chen, L., Xu, J., and Luo, L.Faster gradient-free algorithms for nonsmooth nonconvex stochastic optimization.2023. Clarke (1990) โ†‘ Clarke, F. H.Optimization and nonsmooth analysis.SIAM, 1990. Cutkosky (2019) โ†‘ Cutkosky, A.Combining online learning guarantees.In Proceedings of the Thirty-Second Conference on Learning Theory, pp.  895โ€“913, 2019. Cutkosky (2020) โ†‘ Cutkosky, A.Parameter-free, dynamic, and strongly-adaptive online learning.In International Conference on Machine Learning, volume 2, 2020. Cutkosky & Mehta (2020) โ†‘ Cutkosky, A. and Mehta, H.Momentum improves normalized SGD.In International Conference on Machine Learning, 2020. Cutkosky & Orabona (2018) โ†‘ Cutkosky, A. and Orabona, F.Black-box reductions for parameter-free online learning in Banach spaces.In Conference On Learning Theory, pp.  1493โ€“1529, 2018. Cutkosky & Orabona (2019) โ†‘ Cutkosky, A. and Orabona, F.Momentum-based variance reduction in non-convex SGD.In Advances in Neural Information Processing Systems, pp. 15210โ€“15219, 2019. Daniely et al. (2015) โ†‘ Daniely, A., Gonen, A., and Shalev-Shwartz, S.Strongly adaptive online learning.In International Conference on Machine Learning, pp. 1405โ€“1411. PMLR, 2015. Davis et al. (2021) โ†‘ Davis, D., Drusvyatskiy, D., Lee, Y. T., Padmanabhan, S., and Ye, G.A gradient sampling method with complexity guarantees for lipschitz functions in high and low dimensions.arXiv preprint arXiv:2112.06969, 2021. Duchi et al. (2010) โ†‘ Duchi, J., Hazan, E., and Singer, Y.Adaptive subgradient methods for online learning and stochastic optimization.In Conference on Learning Theory (COLT), pp.  257โ€“269, 2010. Duchi et al. (2012) โ†‘ Duchi, J. C., Bartlett, P. L., and Wainwright, M. J.Randomized smoothing for stochastic optimization.SIAM Journal on Optimization, 22(2):674โ€“701, 2012. Fang et al. (2018) โ†‘ Fang, C., Li, C. J., Lin, Z., and Zhang, T.SPIDER: Near-optimal non-convex optimization via stochastic path-integrated differential estimator.In Advances in Neural Information Processing Systems, pp. 689โ€“699, 2018. Fang et al. (2019) โ†‘ Fang, C., Lin, Z., and Zhang, T.Sharp analysis for nonconvex sgd escaping from saddle points.In Conference on Learning Theory, pp.  1192โ€“1234, 2019. Faw et al. (2022) โ†‘ Faw, M., Tziotis, I., Caramanis, C., Mokhtari, A., Shakkottai, S., and Ward, R.The power of adaptivity in sgd: Self-tuning step sizes with unbounded gradients and affine variance.In Conference on Learning Theory, pp.  313โ€“355. PMLR, 2022. Flaxman et al. (2005) โ†‘ Flaxman, A. D., Kalai, A. T., and McMahan, H. B.Online convex optimization in the bandit setting: gradient descent without a gradient.In Proceedings of the sixteenth annual ACM-SIAM symposium on Discrete algorithms, pp.  385โ€“394, 2005. Ghadimi & Lan (2013) โ†‘ Ghadimi, S. and Lan, G.Stochastic first-and zeroth-order methods for nonconvex stochastic programming.SIAM Journal on Optimization, 23(4):2341โ€“2368, 2013. Ghai et al. (2022) โ†‘ Ghai, U., Lu, Z., and Hazan, E.Non-convex online learning via algorithmic equivalence.arXiv preprint arXiv:2205.15235, 2022. Goyal et al. (2017) โ†‘ Goyal, P., Dollรกr, P., Girshick, R., Noordhuis, P., Wesolowski, L., Kyrola, A., Tulloch, A., Jia, Y., and He, K.Accurate, large minibatch SGD: Training ImageNet in 1 hour.arXiv preprint arXiv:1706.02677, 2017. Hazan (2019) โ†‘ Hazan, E.Introduction to online convex optimization.arXiv preprint arXiv:1909.05207, 2019. Hazan & Kale (2010) โ†‘ Hazan, E. and Kale, S.Extracting certainty from uncertainty: Regret bounded by variation in costs.Machine learning, 80(2-3):165โ€“188, 2010. Hazan et al. (2017) โ†‘ Hazan, E., Singh, K., and Zhang, C.Efficient regret minimization in non-convex games.In International Conference on Machine Learning, pp. 1433โ€“1441. PMLR, 2017. Herbster & Warmuth (1998) โ†‘ Herbster, M. and Warmuth, M. K.Tracking the best regressor.In Proceedings of the eleventh annual conference on Computational learning theory, pp.  24โ€“31, 1998. Hoeven et al. (2018) โ†‘ Hoeven, D., Erven, T., and Kotล‚owski, W.The many faces of exponential weights in online learning.In Conference On Learning Theory, pp.  2067โ€“2092. PMLR, 2018. Jacobsen & Cutkosky (2022) โ†‘ Jacobsen, A. and Cutkosky, A.Parameter-free mirror descent.In Proceedings of Thirty Fifth Conference on Learning Theory, volume 178 of Proceedings of Machine Learning Research, pp. 4160โ€“4211. PMLR, 2022. Jordan et al. (2022) โ†‘ Jordan, M. I., Lin, T., and Zampetakis, M.On the complexity of deterministic nonsmooth and nonconvex optimization.arXiv preprint arXiv:2209.12463, 2022. Jun et al. (2017) โ†‘ Jun, K.-S., Orabona, F., Wright, S., and Willett, R.Improved strongly adaptive online learning using coin betting.In Artificial Intelligence and Statistics, pp.  943โ€“951. PMLR, 2017. Karimireddy et al. (2020) โ†‘ Karimireddy, S. P., Jaggi, M., Kale, S., Mohri, M., Reddi, S. J., Stich, S. U., and Suresh, A. T.Mime: Mimicking centralized stochastic algorithms in federated learning.arXiv preprint arXiv:2008.03606, 2020. Kingma & Ba (2014) โ†‘ Kingma, D. and Ba, J.Adam: A method for stochastic optimization.arXiv preprint arXiv:1412.6980, 2014. Kornowski & Shamir (2022a) โ†‘ Kornowski, G. and Shamir, O.On the complexity of finding small subgradients in nonsmooth optimization.In OPT 2022: Optimization for Machine Learning (NeurIPS 2022 Workshop), 2022a. Kornowski & Shamir (2022b) โ†‘ Kornowski, G. and Shamir, O.Oracle complexity in nonsmooth nonconvex optimization.Journal of Machine Learning Research, 23(314):1โ€“44, 2022b. Kornowski & Shamir (2023) โ†‘ Kornowski, G. and Shamir, O.An algorithm with optimal dimension-dependence for zero-order nonsmooth nonconvex stochastic optimization.arXiv preprint arXiv:2307.04504, 2023. Levy et al. (2021) โ†‘ Levy, K., Kavis, A., and Cevher, V.Storm+: Fully adaptive SGD with recursive momentum for nonconvex optimization.Advances in Neural Information Processing Systems, 34:20571โ€“20582, 2021. Li & Lin (2022) โ†‘ Li, H. and Lin, Z.Restarted nonconvex accelerated gradient descent: No more polylogarithmic factor in the ๐‘œ โ€‹ ( ๐œ– โˆ’ 7 / 4 ) complexity.In International Conference on Machine Learning. PMLR, 2022. Li & Orabona (2019) โ†‘ Li, X. and Orabona, F.On the convergence of stochastic gradient descent with adaptive stepsizes.In The 22nd International Conference on Artificial Intelligence and Statistics, pp.  983โ€“992. PMLR, 2019. Li et al. (2021) โ†‘ Li, X., Zhuang, Z., and Orabona, F.A second look at exponential and cosine step sizes: Simplicity, adaptivity, and performance.In International Conference on Machine Learning, pp. 6553โ€“6564. PMLR, 2021. Lin et al. (2022) โ†‘ Lin, T., Zheng, Z., and Jordan, M.Gradient-free methods for deterministic and stochastic nonsmooth nonconvex optimization.Advances in Neural Information Processing Systems, 35:26160โ€“26175, 2022. Liu et al. (2022) โ†‘ Liu, Z., Nguyen, T. D., Nguyen, T. H., Ene, A., and Nguyen, H. L.META-STORM: Generalized fully-adaptive variance reduced SGD for unbounded functions.arXiv preprint arXiv:2209.14853, 2022. Loshchilov & Hutter (2016) โ†‘ Loshchilov, I. and Hutter, F.SGDR: Stochastic gradient descent with warm restarts.arXiv preprint arXiv:1608.03983, 2016. Loshchilov & Hutter (2018) โ†‘ Loshchilov, I. and Hutter, F.Decoupled weight decay regularization.In International Conference on Learning Representations, 2018. Lu et al. (2022) โ†‘ Lu, Z., Xia, W., Arora, S., and Hazan, E.Adaptive gradient methods with local guarantees.arXiv preprint arXiv:2203.01400, 2022. Luo et al. (2022) โ†‘ Luo, H., Zhang, M., Zhao, P., and Zhou, Z.-H.Corralling a larger band of bandits: A case study on switching regret for linear bandits.In Conference on Learning Theory, 2022. McMahan & Streeter (2010) โ†‘ McMahan, H. B. and Streeter, M.Adaptive bound optimization for online convex optimization.In Proceedings of the 23rd Annual Conference on Learning Theory (COLT), pp.  244โ€“256, 2010. Mhammedi & Koolen (2020) โ†‘ Mhammedi, Z. and Koolen, W. M.Lipschitz and comparator-norm adaptivity in online learning.Conference on Learning Theory, pp.  2858โ€“2887, 2020. Orabona (2019) โ†‘ Orabona, F.A modern introduction to online learning.arXiv preprint arXiv:1912.13213, 2019. Orabona & Pรกl (2015) โ†‘ Orabona, F. and Pรกl, D.Scale-free algorithms for online linear optimization.In Chaudhuri, K., Gentile, C., and Zilles, S. (eds.), Algorithmic Learning Theory, pp.  287โ€“301. Springer International Publishing, 2015. Patel & Berahas (2022) โ†‘ Patel, V. and Berahas, A. S.Gradient descent in the absence of global lipschitz continuity of the gradients: Convergence, divergence and limitations of its continuous approximation.arXiv preprint arXiv:2210.02418, 2022. Rakhlin & Sridharan (2013) โ†‘ Rakhlin, A. and Sridharan, K.Online learning with predictable sequences.In Conference on Learning Theory (COLT), pp.  993โ€“1019, 2013. Sachs et al. (2022) โ†‘ Sachs, S., Hadiji, H., van Erven, T., and Guzmรกn, C.Between stochastic and adversarial online convex optimization: Improved regret bounds via smoothness.arXiv preprint arXiv:2202.07554, 2022. Stein & Shakarchi (2009) โ†‘ Stein, E. M. and Shakarchi, R.Real analysis: measure theory, integration, and Hilbert spaces.Princeton University Press, 2009. Tian & So (2022) โ†‘ Tian, L. and So, A. M.-C.No dimension-free deterministic algorithm computes approximate stationarities of lipschitzians.arXiv preprint arXiv:2210.06907, 2022. Tian et al. (2022) โ†‘ Tian, L., Zhou, K., and So, A. M.-C.On the finite-time complexity and practical computation of approximate stationarity concepts of lipschitz functions.In International Conference on Machine Learning, pp. 21360โ€“21379. PMLR, 2022. Tripuraneni et al. (2018) โ†‘ Tripuraneni, N., Stern, M., Jin, C., Regier, J., and Jordan, M. I.Stochastic cubic regularization for fast nonconvex optimization.In Advances in neural information processing systems, pp. 2899โ€“2908, 2018. Wang et al. (2022) โ†‘ Wang, G., Hu, Z., Muthukumar, V., and Abernethy, J.Adaptive oracle-efficient online learning.arXiv preprint arXiv:2210.09385, 2022. You et al. (2019) โ†‘ You, Y., Li, J., Reddi, S., Hseu, J., Kumar, S., Bhojanapalli, S., Song, X., Demmel, J., Keutzer, K., and Hsieh, C.-J.Large batch optimization for deep learning: Training BERT in 76 minutes.arXiv preprint arXiv:1904.00962, 2019. Zhang & Cutkosky (2022) โ†‘ Zhang, J. and Cutkosky, A.Parameter-free regret in high probability with heavy tails.In Advances in Neural Information Processing Systems, 2022. Zhang et al. (2020a) โ†‘ Zhang, J., Karimireddy, S. P., Veit, A., Kim, S., Reddi, S., Kumar, S., and Sra, S.Why are adaptive methods good for attention models?Advances in Neural Information Processing Systems, 33:15383โ€“15393, 2020a. Zhang et al. (2020b) โ†‘ Zhang, J., Lin, H., Jegelka, S., Sra, S., and Jadbabaie, A.Complexity of finding stationary points of nonconvex nonsmooth functions.In International Conference on Machine Learning, 2020b. Zhang et al. (2018) โ†‘ Zhang, L., Lu, S., and Zhou, Z.-H.Adaptive online learning in dynamic environments.In Proceedings of the 32nd International Conference on Neural Information Processing Systems, pp.  1330โ€“1340, 2018. Zhang et al. (2021) โ†‘ Zhang, L., Wang, G., Tu, W.-W., Jiang, W., and Zhou, Z.-H.Dual adaptivity: A universal algorithm for minimizing the adaptive regret of convex functions.Advances in Neural Information Processing Systems, 34:24968โ€“24980, 2021. Zhang et al. (2022) โ†‘ Zhang, Z., Cutkosky, A., and Paschalidis, I.Adversarial tracking control via strongly adaptive online learning with memory.In International Conference on Artificial Intelligence and Statistics, pp.  8458โ€“8492. PMLR, 2022. Zhou et al. (2018) โ†‘ Zhou, D., Xu, P., and Gu, Q.Stochastic nested variance reduction for nonconvex optimization.In Proceedings of the 32nd International Conference on Neural Information Processing Systems, pp.  3925โ€“3936, 2018. Zhuang et al. (2019) โ†‘ Zhuang, Z., Cutkosky, A., and Orabona, F.Surrogate losses for online learning of stepsizes in stochastic non-convex optimization.In International Conference on Machine Learning, pp. 7664โ€“7672, 2019. Zinkevich (2003) โ†‘ Zinkevich, M.Online convex programming and generalized infinitesimal gradient ascent.In Proceedings of the 20th International Conference on Machine Learning (ICML-03), pp.  928โ€“936, 2003. Appendix AProof of Proposition 2

First, we state a technical lemma that will be used to prove Proposition 2.

Lemma 19.

Let ๐น : โ„ ๐‘‘ โ†’ โ„ be locally Lipschitz. Then, ๐น is differentiable almost everywhere, is Lipschitz on all compact sets, and for all ๐ฏ โˆˆ โ„ ๐‘‘ , ๐ฑ โ†ฆ โŸจ โˆ‡ ๐น โ€‹ ( ๐ฑ ) , ๐ฏ โŸฉ is integrable on all compact sets. Finally, for any compact measurable set ๐ท โŠ‚ โ„ ๐‘‘ , the vector ๐ฐ

โˆซ ๐ท โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€‹ d ๐ฑ is well-defined and the operator ๐œŒ โ€‹ ( ๐ฏ )

โˆซ ๐ท โŸจ โˆ‡ ๐น โ€‹ ( ๐ฑ ) , ๐ฏ โŸฉ โ€‹ d ๐ฑ is linear and equal to โŸจ ๐ฐ , ๐ฏ โŸฉ .

Proof.

First, observe that since ๐น is locally Lipschitz, for every point ๐ฑ โˆˆ โ„ ๐‘‘ with rational coordinates there is a neighborhood ๐‘ˆ ๐ฑ of ๐ฑ on which ๐น is Lipschitz. Thus, by Rademacherโ€™s theorem, ๐น is differentiable almost everywhere in ๐‘ˆ ๐ฑ . Since the set of points with rational coordiantes is dense in โ„ ๐‘‘ , โ„ ๐‘‘ is equal to the countable union โ‹ƒ ๐‘ˆ ๐ฑ . Thus, since the set of points of non-differentiability of ๐น in ๐‘ˆ ๐ฑ is measure zero, the total set of points of non-differentability is a countable union of sets of measure zero and so must be measure zero. Thus ๐น is differentiable almost everywhere. This implies that ๐น is differentiable at ๐ฑ + ๐‘ โ€‹ ๐ฎ with probability 1.

Next, observe that for any compact set ๐‘† โŠ‚ โ„ ๐‘‘ , for every point ๐ฑ โˆˆ ๐‘† with rational coordinates, ๐น is Lipschitz on some neighborhood ๐‘ˆ ๐ฑ containing ๐ฑ with Lipschitz constant ๐บ ๐ฑ . Since ๐‘† is compact, there is a finite set ๐ฑ 1 , โ€ฆ , ๐ฑ ๐พ such that ๐‘†

โ‹ƒ ๐‘ˆ ๐ฑ ๐‘– . Therefore, ๐น is max ๐‘– โก ๐บ ๐ฑ ๐‘– -Lipschitz on ๐‘† and so ๐น is Lipschitz on every compact set.

Now, for almost all ๐ฑ , for all ๐ฏ we have that the limit lim ๐›ฟ โ†’ 0 ๐น โ€‹ ( ๐ฑ + ๐›ฟ โ€‹ ๐ฏ ) โˆ’ ๐น โ€‹ ( ๐ฑ ) ๐›ฟ exists and is equal to โŸจ โˆ‡ ๐น โ€‹ ( ๐ฑ ) , ๐ฏ โŸฉ by definition of differentiability. Further, on any compact set ๐‘† we have that | ๐น โ€‹ ( ๐ฑ + ๐›ฟ โ€‹ ๐ฏ ) โˆ’ ๐น โ€‹ ( ๐ฑ ) | ๐›ฟ โ‰ค ๐ฟ for some ๐ฟ for all ๐ฑ โˆˆ ๐‘† . Therefore, by the bounded convergence theorem (see e.g., Stein & Shakarchi (2009, Theorem 1.4)), we have that โŸจ โˆ‡ ๐น โ€‹ ( ๐ฑ ) , ๐ฏ โŸฉ is integrable on ๐‘† .

Next, we prove the linearity of the operator ๐œŒ . Observe that for any vectors ๐ฏ and ๐ฐ , and scalar ๐‘ , by linearity of integration, we have

โˆซ ๐ท โŸจ โˆ‡ ๐น โ€‹ ( ๐ฑ ) , ๐‘ โ€‹ ๐ฏ + ๐ฐ โŸฉ โ€‹ d ๐ฑ

โˆซ ๐ท โŸจ โˆ‡ ๐น โ€‹ ( ๐ฑ ) , ๐‘ โ€‹ ๐ฏ โŸฉ + โŸจ โˆ‡ ๐น โ€‹ ( ๐ฑ ) , ๐ฐ โŸฉ โ€‹ d โ€‹ ๐ฑ

โˆซ ๐ท ๐‘ โ€‹ โŸจ โˆ‡ ๐น โ€‹ ( ๐ฑ ) , ๐ฏ โŸฉ + โŸจ โˆ‡ ๐น โ€‹ ( ๐ฑ ) , ๐ฐ โŸฉ โ€‹ d โ€‹ ๐ฑ

๐‘ โ€‹ โˆซ ๐ท โŸจ โˆ‡ ๐น โ€‹ ( ๐ฑ ) , ๐ฏ โŸฉ โ€‹ d ๐ฑ + โˆซ ๐ท โŸจ โˆ‡ ๐น โ€‹ ( ๐ฑ ) , ๐ฐ โŸฉ โ€‹ d ๐ฑ .

For the remaining statement, given that โ„ ๐‘‘ is finite dimensional, there must exist ๐ฐ โˆˆ โ„ ๐‘‘ such that ๐œŒ โ€‹ ( ๐ฏ )

โŸจ ๐ฐ , ๐ฏ โŸฉ for all ๐ฏ . Further, ๐ฐ is uniquely determined by โŸจ ๐ฐ , ๐ž ๐‘– โŸฉ for ๐‘–

1 , โ€ฆ , ๐‘‘ where ๐ž ๐‘– indicates the ๐‘– th standard basis vector. Then, since โˆ‡ ๐น โ€‹ ( ๐ฑ ) ๐‘–

โŸจ โˆ‡ ๐น โ€‹ ( ๐ฑ ) , ๐ž ๐‘– โŸฉ is integrable on compact sets, we have

โŸจ ๐ฐ , ๐ž ๐‘– โŸฉ

โˆซ ๐ท โŸจ โˆ‡ ๐น โ€‹ ( ๐ฑ ) , ๐ž ๐‘– โŸฉ โ€‹ d ๐ฑ

โˆซ ๐ท โˆ‡ ๐น โ€‹ ( ๐ฑ ) ๐‘– โ€‹ d ๐ฑ ,

which is the definition of โˆซ ๐ท โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€‹ d ๐ฑ when the integral is defined. โˆŽ

We can now prove the Proposition.

Proof of Proposition 2.

Since ๐น is locally Lipschitz, by Proposition 19, ๐น is Lipschitz on compact sets. Therefore, ๐น must be Lipschitz on the line segment connecting ๐ฑ and ๐ฒ . Thus the function ๐‘˜ โ€‹ ( ๐‘ก )

๐น โ€‹ ( ๐ฑ + ๐‘ก โ€‹ ( ๐ฒ โˆ’ ๐ฑ ) ) is absolutely continuous on [ 0 , 1 ] . As a result, ๐‘˜ โ€ฒ is integrable on [ 0 , 1 ] and ๐น โ€‹ ( ๐ฒ ) โˆ’ ๐น โ€‹ ( ๐ฑ )

๐‘˜ โ€‹ ( 1 ) โˆ’ ๐‘˜ โ€‹ ( 0 )

โˆซ 0 1 ๐‘˜ โ€ฒ โ€‹ ( ๐‘ก ) โ€‹ d ๐‘ก

โˆซ 0 1 โŸจ โˆ‡ ๐น โ€‹ ( ๐ฑ + ๐‘ก โ€‹ ( ๐ฒ โˆ’ ๐ฑ ) ) , ๐ฒ โˆ’ ๐ฑ โŸฉ โ€‹ d ๐‘ก by the Fundamental Theorem of Calculus (see, e.g., Stein & Shakarchi (2009, Theorem 3.11)).

Now, we tackle the case that ๐น is not differentiable everywhere. Notice that the last statement of the Proposition is an immediate consequence of Lipschitzness. So, we focus on showing the remaining parts.

Now, by Lemma 19, we have that ๐น is differentiable almost everywhere. Further, ๐  ๐ฑ

๐”ผ ๐ฎ [ โˆ‡ ๐น โ€‹ ( ๐ฑ + ๐‘ โ€‹ ๐ฎ ) ] exists and satisfies for all ๐ฏ โˆˆ โ„ ๐‘‘ :

โŸจ ๐  ๐ฑ , ๐ฏ โŸฉ

๐”ผ ๐ฎ [ โŸจ โˆ‡ ๐น โ€‹ ( ๐ฑ + ๐‘ โ€‹ ๐ฎ ) , ๐ฏ โŸฉ ] .

Notice also that

๐”ผ ๐ณ , ๐ฎ [ Grad ^ โ€‹ ( ๐ฑ , ( ๐ณ , ๐ฎ ) ) ]

๐”ผ ๐ฎ ๐”ผ ๐ณ [ Grad โ€‹ ( ๐ฑ + ๐‘ โ€‹ ๐ฎ , ๐ณ ) ]

๐”ผ ๐ฎ [ โˆ‡ ๐น โ€‹ ( ๐ฑ + ๐‘ โ€‹ ๐ฎ ) ]

๐  ๐ฑ .

So, it remains to show that ๐น ^ is differentiable and โˆ‡ ๐น ^ โ€‹ ( ๐ฑ )

๐  ๐ฑ .

Now, let ๐ฑ be an arbitrary elements of โ„ ๐‘‘ and let ๐ฏ 1 , ๐ฏ 2 , โ€ฆ be any sequence of vectors such that lim ๐‘› โ†’ โˆž ๐ฏ ๐‘›

0 and โ€– ๐ฏ ๐‘– โ€– โ‰ค ๐‘ for all ๐‘– . Then, since the ball of radius 2 โ€‹ ๐‘ centered at ๐ฑ is compact, ๐น is ๐ฟ -Lipschitz inside this ball for some ๐ฟ . Then, we have

lim ๐‘› โ†’ โˆž ๐น ^ โ€‹ ( ๐ฑ + ๐ฏ ๐‘› ) โˆ’ ๐น ^ โ€‹ ( ๐ฑ ) โˆ’ โŸจ ๐  ๐ฑ , ๐ฏ ๐‘› โŸฉ โ€– ๐ฏ ๐‘› โ€–

lim ๐‘› โ†’ โˆž ๐”ผ ๐‘ข [ ๐น โ€‹ ( ๐ฑ + ๐ฏ ๐‘› + ๐‘ โ€‹ ๐ฎ ) โˆ’ ๐น โ€‹ ( ๐ฑ + ๐‘ โ€‹ ๐ฎ ) โˆ’ โŸจ โˆ‡ ๐น โ€‹ ( ๐ฑ + ๐‘ โ€‹ ๐ฎ ) , ๐ฏ ๐‘› โŸฉ โ€– ๐ฏ ๐‘› โ€– ] .

Now, observe | ๐น โ€‹ ( ๐ฑ + ๐ฏ ๐‘– + ๐‘ โ€‹ ๐ฎ ) โˆ’ ๐น โ€‹ ( ๐ฑ + ๐‘ โ€‹ ๐ฎ ) | โ€– ๐ฏ ๐‘– โ€– โ‰ค ๐ฟ . Further, for all almost all ๐ฎ , ๐น is differentiable at ๐ฑ + ๐‘ โ€‹ ๐ฎ so that lim ๐‘› โ†’ โˆž ๐น ( ๐ฑ + ๐ฏ ๐‘› + ๐‘ ๐ฎ ) โˆ’ ๐น ( ๐ฑ + ๐‘ ๐ฎ ) โˆ’ โŸจ โˆ‡ ๐น ( ๐ฑ + ๐‘ ๐ฎ ) , ๐ฏ ๐‘› โŸฉ ] โ€– ๐ฏ ๐‘› โ€–

0 for almost all ๐ฎ . Thus, by the bounded convergence theorem, we have

lim ๐‘› โ†’ โˆž ๐น ^ โ€‹ ( ๐ฑ + ๐ฏ ๐‘› ) โˆ’ ๐น ^ โ€‹ ( ๐ฑ ) โˆ’ โŸจ ๐  ๐ฑ , ๐ฏ ๐‘› โŸฉ โ€– ๐ฏ ๐‘› โ€–

0 .

which shows that ๐  ๐ฑ

โˆ‡ ๐น ^ โ€‹ ( ๐ฑ ) .

Finally, observe that since ๐น is Lipschitz on compact sets, ๐น ^ must be also, and so by the first part of the proposition, ๐น ^ is well-behaved. โˆŽ

Appendix BAnalysis of (Optimistic) Online Gradient Descent

Optimistic Online Gradient Descent (in its simplest form) is described by Algorithm 3. Here we collect the standard analysis of the algorithm for completeness. None of this analysis is new, and more refined versions can be found in a variety of sources (e.g. Chen et al. (2021)).

Algorithm 3 Optimistic Mirror Descent โ€‚Input: Regularizer function ๐œ™ , domain ๐‘‰ , time horizon ๐‘‡ . โ€‚ ๐ฐ ^ 1

๐ŸŽ โ€‚for  ๐‘ก

1 โ€‹ โ€ฆ โ€‹ ๐‘‡  do โ€ƒโ€‚Generate โ€œhintโ€ โ„Ž ๐‘ก โ€ƒโ€‚Set ๐ฐ ๐‘ก

argmin ๐ฑ โˆˆ ๐‘‰ โŸจ ๐ก ๐‘ก , ๐ฑ โŸฉ + 1 2 โ€‹ โ€– ๐ฑ โˆ’ ๐ฐ ^ ๐‘ก โ€– 2 โ€ƒโ€‚Output ๐ฐ ๐‘ก and receive loss vector ๐  ๐‘ก โ€ƒโ€‚Set ๐ฐ ^ ๐‘ก + 1

argmin ๐ฑ โˆˆ ๐‘‰ โŸจ ๐  ๐‘ก , ๐ฑ โŸฉ + 1 2 โ€‹ โ€– ๐ฑ โˆ’ ๐ฐ ^ ๐‘ก โ€– 2 โ€‚end for

We will analyze only a simple version of this algorithm, that is when ๐‘‰ is an ๐ฟ 2 ball of radius ๐ท in some real Hilbert space (such as โ„ ๐‘‘ ). Then, Algorithm 3 satisfies the following guarantee.

Proposition 20.

Let ๐‘‰

{ ๐ฑ : โ€– ๐ฑ โ€– โ‰ค ๐ท } โŠ‚ โ„‹ for some real Hilbert space โ„‹ . Then, with for all ๐ฎ โˆˆ ๐‘‰ , Algorithm 3 ensures

โˆ‘ ๐‘ก

1 ๐‘‡ โŸจ ๐  ๐‘ก , ๐ฐ ๐‘ก โˆ’ ๐ฎ โŸฉ โ‰ค ๐ท 2 2 โ€‹ ๐œ‚ + โˆ‘ ๐‘ก

1 ๐‘‡ ๐œ‚ 2 โ€‹ โ€– ๐  ๐‘ก โˆ’ ๐ก ๐‘ก โ€– 2 .

Proof.

Now, by Chen et al. (2021, Lemma 15) instantiated with the squared Euclidean distance as Bregman divergence, we have

โŸจ ๐  ๐‘ก , ๐ฐ ๐‘ก โˆ’ ๐ฎ โŸฉ

โ‰ค โŸจ ๐  ๐‘ก โˆ’ ๐ก ๐‘ก , ๐ฐ ๐‘ก โˆ’ ๐ฐ ^ ๐‘ก + 1 โŸฉ + 1 2 โ€‹ โ€– ๐ฎ โˆ’ ๐‘ค ^ ๐‘ก โ€– 2 โˆ’ 1 2 โ€‹ โ€– ๐ฎ โˆ’ ๐ฐ ^ ๐‘ก + 1 โ€– 2 โˆ’ 1 2 โ€‹ โ€– ๐ฐ ^ ๐‘ก + 1 โˆ’ ๐ฐ ๐‘ก โ€– 2 โˆ’ 1 2 โ€‹ โ€– ๐ฐ ๐‘ก โˆ’ ๐ฐ ^ ๐‘ก โ€– 2

From Young inequality:

โ‰ค ๐œ‚ โ€‹ โ€– ๐  ๐‘ก โˆ’ ๐ก ๐‘ก โ€– 2 2 + โ€– ๐ฐ ๐‘ก โˆ’ ๐ฐ ^ ๐‘ก + 1 โ€– 2 2 โ€‹ ๐œ‚ + 1 2 โ€‹ โ€– ๐ฎ โˆ’ ๐ฐ ^ ๐‘ก โ€– 2 โˆ’ 1 2 โ€‹ โ€– ๐ฎ โˆ’ ๐ฐ ^ ๐‘ก + 1 โ€– 2 โˆ’ 1 2 โ€‹ โ€– ๐ฐ ^ ๐‘ก + 1 โˆ’ ๐ฐ ๐‘ก โ€– 2

โˆ’ โ€– ๐ฐ ๐‘ก โˆ’ ๐ฐ ^ ๐‘ก โ€– 2 2 โ€‹ ๐œ‚

โ‰ค ๐œ‚ โ€‹ โ€– ๐  ๐‘ก โˆ’ ๐ก ๐‘ก โ€– 2 2 + 1 2 โ€‹ โ€– ๐ฎ โˆ’ ๐ฐ ^ ๐‘ก โ€– 2 โˆ’ 1 2 โ€‹ โ€– ๐ฎ โˆ’ ๐ฐ ^ ๐‘ก + 1 โ€– 2 .

Summing over ๐‘ก and telescoping, we have

โˆ‘ ๐‘ก

1 ๐‘‡ โŸจ ๐  ๐‘ก , ๐ฐ ๐‘ก โˆ’ ๐ฎ โŸฉ
โ‰ค 1 2 โ€‹ โ€– ๐ฎ โˆ’ ๐ฐ ^ 1 โ€– 2 โˆ’ 1 2 โ€‹ โ€– ๐ฎ โˆ’ ๐ฐ ^ ๐‘‡ + 1 โ€– 2 + โˆ‘ ๐‘ก

1 ๐‘‡ ๐œ‚ โ€‹ โ€– ๐  ๐‘ก โˆ’ ๐ก ๐‘ก โ€– 2 2

โ‰ค โ€– ๐ฎ โˆ’ ๐ฐ ^ 1 โ€– 2 2 โ€‹ ๐œ‚ + โˆ‘ ๐‘ก

1 ๐‘‡ ๐œ‚ โ€‹ โ€– ๐  ๐‘ก โˆ’ ๐ก ๐‘ก โ€– 2 2 โ‰ค ๐ท 2 2 โ€‹ ๐œ‚ + โˆ‘ ๐‘ก

1 ๐‘‡ ๐œ‚ โ€‹ โ€– ๐  ๐‘ก โˆ’ ๐ก ๐‘ก โ€– 2 2 . โˆŽ

In the case that the hints ๐ก ๐‘ก are not present, the algorithm becomes online gradient descent (Zinkevich, 2003). In this case, assuming ๐”ผ [ โ€– ๐  ๐‘ก โ€– 2 ] โ‰ค ๐บ 2 and setting ๐œ‚

๐ท ๐บ โ€‹ ๐‘‡ we obtain the ๐”ผ [ ๐‘… ๐‘‡ โ€‹ ( ๐ฎ ) ] โ‰ค ๐ท โ€‹ ๐บ โ€‹ ๐‘‡ for all ๐ฎ such that โ€– ๐ฎ โ€– โ‰ค ๐ท .

Appendix CAlgorithm 2 and Regret Guarantee Theorem 21.

Let ๐น be an ๐ป -smooth and ๐บ -Lipschitz function. Then, when ๐‘„

โŒˆ log 2 โก ( ๐‘ โ€‹ ๐บ / ๐ป โ€‹ ๐ท ) โŒ‰ , Algorithm 2 with ๐ฑ ๐‘ก

๐ฑ ๐‘ก โˆ’ 1 + 1 2 โ€‹ ๐šซ ๐‘ก and ๐  ๐‘ก

โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘ก ) and ๐œ‚ โ‰ค 1 2 โ€‹ ๐ป ensures for all โ€– ๐ฎ โ€– โ‰ค ๐ท

โˆ‘ ๐‘ก

1 ๐‘‡ โŸจ ๐  ๐‘ก , ๐šซ ๐‘ก โˆ’ ๐ฎ โŸฉ

โ‰ค ๐ป โ€‹ ๐ท 2 2 + 2 โ€‹ ๐บ โ€‹ ๐‘‡ โ€‹ ๐ท ๐‘ .

Furthermore, a total of at most ๐‘‡ โ€‹ โŒˆ log 2 โก ( ๐‘ โ€‹ ๐บ / ๐ป โ€‹ ๐ท ) โŒ‰ gradient evaluations are required.

Proof.

The count of gradient evaluations is immediate from inspection of the algorithm, so it remains only to prove the regret bound.

First, we observe that the choices of ๐šซ ๐‘ก specified by Algorithm 2 correspond to the values of ๐ฐ ๐‘ก produced by Algorithm 3 when ๐œ“ โ€‹ ( ๐ฐ )

1 2 โ€‹ ๐œ‚ โ€‹ โ€– ๐ฐ โ€– 2 . This can be verified by direct calculation (recalling that ๐ท ๐œ“ ( ๐ฑ , ๐ฒ )

โ€– ๐ฑ โˆ’ ๐ฒ โ€– 2 2 โ€‹ ๐œ‚ ) .

Therefore, by Proposition 20, we have

โˆ‘ ๐‘ก

1 ๐‘‡ โŸจ ๐  ๐‘ก , ๐šซ ๐‘ก โˆ’ ๐ฎ โŸฉ โ‰ค ๐ท 2 2 โ€‹ ๐œ‚ + โˆ‘ ๐‘ก

1 ๐‘‡ ๐œ‚ 2 โ€‹ โ€– ๐  ๐‘ก โˆ’ ๐ก ๐‘ก โ€– 2 .

(3)

So, our primary task is to show that โ€– ๐  ๐‘ก โˆ’ ๐ก ๐‘ก โ€– is small. To this end, recall that ๐  ๐‘ก

โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก )

โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘ก โˆ’ 1 + ๐šซ ๐‘ก / 2 ) .

Now, we define โ„Ž ๐‘ก ๐‘€ + 1

โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘ก โˆ’ 1 + 1 2 โ€‹ ฮ  โ€– ๐šซ โ€– โ‰ค ๐ท โ€‹ [ ๐šซ ๐‘ก โ€ฒ โˆ’ ๐œ‚ โ€‹ ๐ก ๐‘ก ๐‘€ ] ) (which simply continues the recursive definition of ๐ก ๐‘ก ๐‘– in Algorithm 2 for one more step). Then, we claim that for all 0 โ‰ค ๐‘– โ‰ค ๐‘€ , โ€– ๐ก ๐‘ก ๐‘– + 1 โˆ’ ๐ก ๐‘ก ๐‘– โ€– โ‰ค 1 2 ๐‘– โ€‹ โ€– ๐ก ๐‘ก 1 โˆ’ ๐ก ๐‘ก 0 โ€– . We establish the claim by induction on ๐‘– . First, for ๐‘–

0 the claim holds by definition. Now suppose โ€– ๐ก ๐‘ก ๐‘– โˆ’ ๐ก ๐‘ก ๐‘– โˆ’ 1 โ€– โ‰ค 1 2 ๐‘– โˆ’ 1 โ€‹ โ€– ๐ก ๐‘ก 1 โˆ’ ๐ก ๐‘ก 0 โ€– for some ๐‘– . Then, we have

โ€– ๐ก ๐‘ก ๐‘– + 1 โˆ’ ๐ก ๐‘ก ๐‘– โ€–
โ‰ค โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘ก โˆ’ 1 + 1 2 โ€‹ ฮ  โ€– ๐šซ โ€– โ‰ค ๐ท โ€‹ [ ๐šซ ๐‘ก โ€ฒ โˆ’ ๐œ‚ โ€‹ ๐ก ๐‘ก ๐‘– ] ) โˆ’ โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘ก โˆ’ 1 + 1 2 โ€‹ ฮ  โ€– ๐šซ โ€– โ‰ค ๐ท โ€‹ [ ๐šซ ๐‘ก โ€ฒ โˆ’ ๐œ‚ โ€‹ ๐ก ๐‘ก ๐‘– โˆ’ 1 ] ) โ€–
Using the ๐ป -smoothness of ๐น :
โ‰ค ๐ป 2 โ€‹ โ€– ฮ  โ€– ๐šซ โ€– โ‰ค ๐ท โ€‹ [ ๐šซ ๐‘ก โ€ฒ โˆ’ ๐œ‚ โ€‹ ๐ก ๐‘ก ๐‘– ] โˆ’ ฮ  โ€– ๐šซ โ€– โ‰ค ๐ท โ€‹ [ ๐šซ ๐‘ก โ€ฒ โˆ’ ๐œ‚ โ€‹ ๐ก ๐‘ก ๐‘– โˆ’ 1 ] โ€–
Using the fact that projection is a contraction:
โ‰ค ๐ป โ€‹ ๐œ‚ 2 โ€‹ โ€– ๐ก ๐‘ก ๐‘– โˆ’ ๐ก ๐‘ก ๐‘– โˆ’ 1 โ€–
Using ๐œ‚ โ‰ค 1 ๐ป :

1 2 โ€‹ โ€– ๐ก ๐‘ก ๐‘– โˆ’ ๐ก ๐‘ก ๐‘– โˆ’ 1 โ€–

From the induction assumption:

โ‰ค 1 2 ๐‘– โ€‹ โ€– ๐ก ๐‘ก 1 โˆ’ ๐ก ๐‘ก 0 โ€– .

So that the claim holds.

Now, since ๐ก ๐‘ก

๐ก ๐‘ก ๐‘„ , we have ๐šซ ๐‘ก

ฮ  โ€– ๐šซ โ€– โ‰ค ๐ท โ€‹ [ ๐šซ ๐‘ก โ€ฒ โˆ’ ๐œ‚ โ€‹ ๐ก ๐‘ก ๐‘– โˆ’ 1 ] . Therefore ๐‘” ๐‘ก

โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘ก )

โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘ก โˆ’ 1 + ๐šซ ๐‘ก / 2 )

๐ก ๐‘ก ๐‘„ + 1 . Thus,

โ€– ๐  ๐‘ก โˆ’ ๐ก ๐‘ก ๐‘„ โ€–

โ€– ๐ก ๐‘ก ๐‘„ + 1 โˆ’ ๐ก ๐‘ก ๐‘„ โ€– โ‰ค 1 2 ๐‘„ โ€‹ โ€– ๐ก ๐‘ก 1 โˆ’ ๐ก ๐‘ก 0 โ€– โ‰ค 2 โ€‹ ๐บ 2 ๐‘„ ,

where in the last inequality we used the fact that ๐น is ๐บ -Lipschitz. So, for ๐‘„

โŒˆ log 2 โก ( ๐‘ โ€‹ ๐บ / ๐ป โ€‹ ๐ท ) โŒ‰ , we have โ€– ๐  ๐‘ก โˆ’ ๐ก ๐‘ก ๐‘„ โ€– โ‰ค 2 โ€‹ ๐บ โ€‹ ๐ป โ€‹ ๐ท ๐‘ โ€‹ ๐บ for all ๐‘ก . The result now follows by substituting into equation (3). โˆŽ

Appendix DProof of Theorem 17 Proof of Theorem 17.

Once more, the first part of the result is immediate from the fact that โ€– ๐šซ ๐‘› โ€– โ‰ค ๐ท . So, we proceed to show the second part.

Define โˆ‡ ๐‘›

โˆซ 0 1 โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 + ๐‘  โ€‹ ๐šซ ๐‘› ) โ€‹ d ๐‘  . Then, we have

โ€– โŸจ โˆ‡ ๐‘› โˆ’ ๐  ๐‘› , ๐šซ ๐‘› โŸฉ โ€–

โ€– โŸจ โˆซ 0 1 โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 + ๐‘  โ€‹ ๐šซ ๐‘› ) โˆ’ โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 + 1 2 โ€‹ ๐šซ ๐‘› ) โ€‹ d โ€‹ ๐‘  , ๐šซ ๐‘› โŸฉ โ€–

โ‰ค ๐ท โ€‹ โ€– โˆซ 0 1 โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 + ๐‘  โ€‹ ๐šซ ๐‘› ) โˆ’ โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 + 1 2 โ€‹ ๐šซ ๐‘› ) โ€‹ d โ€‹ ๐‘  โ€–

๐ท โˆฅ โˆซ 0 1 ( โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 + ๐‘  โ€‹ ๐šซ ๐‘› ) โˆ’ โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 + 1 2 โ€‹ ๐šซ ๐‘› ) โˆ’ โˆ‡ 2 ๐น โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 + 1 2 โ€‹ ๐šซ ๐‘› ) โ€‹ ๐šซ ๐‘› โ€‹ ( ๐‘  โˆ’ 1 / 2 ) )

+ โˆ‡ 2 ๐น ( ๐ฑ ๐‘› โˆ’ 1 + 1 2 ๐šซ ๐‘› ) ๐šซ ๐‘› ( ๐‘  โˆ’ 1 / 2 ) d ๐‘  โˆฅ
(observing that โˆซ 0 1 ๐‘  โˆ’ 1 / 2 โ€‹ d โ€‹ ๐‘ 

0 )

๐ท โ€‹ โ€– โˆซ 0 1 โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 + ๐‘  โ€‹ ๐šซ ๐‘› ) โˆ’ โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 + 1 2 โ€‹ ๐šซ ๐‘› ) โˆ’ โˆ‡ 2 ๐น โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 + 1 2 โ€‹ ๐šซ ๐‘› ) โ€‹ ๐šซ ๐‘› โ€‹ ( ๐‘  โˆ’ 1 / 2 ) โ€‹ d โ€‹ ๐‘  โ€–

(using second-order smoothness)

โ‰ค ๐ท โ€‹ โˆซ 0 1 ๐ฝ 2 โ€‹ โ€– ๐šซ ๐‘› โ€– 2 โ€‹ ( ๐‘  โˆ’ 1 / 2 ) 2 โ€‹ d ๐‘  โ‰ค ๐ฝ โ€‹ ๐ท 3 48 .

In Theorem 7, set ๐ฎ ๐‘› to be equal to ๐ฎ 1 for the first ๐‘‡ iterations, ๐ฎ 2 for the second ๐‘‡ iterations and so on. In other words, ๐ฎ ๐‘›

๐ฎ โŒŠ ๐‘› / ๐‘‡ โŒ‹ + 1 for ๐‘›

1 , โ€ฆ , ๐‘€ . So, we have

๐น โ€‹ ( ๐ฑ ๐‘€ ) โˆ’ ๐น โ€‹ ( ๐ฑ 0 )

๐‘… ๐‘‡ โ€‹ ( ๐ฎ 1 , โ€ฆ , ๐ฎ ๐พ ) + โˆ‘ ๐‘›

1 ๐‘€ โŸจ โˆ‡ ๐‘› โˆ’ ๐  ๐‘› , ๐šซ ๐‘› โŸฉ + โˆ‘ ๐‘›

1 ๐‘€ โŸจ ๐  ๐‘› , ๐ฎ ๐‘› โŸฉ

โ‰ค ๐‘… ๐‘‡ โ€‹ ( ๐ฎ 1 , โ€ฆ , ๐ฎ ๐พ ) + ๐‘ โ€‹ ๐ฝ โ€‹ ๐ท 3 48 + โˆ‘ ๐‘›

1 ๐‘€ โŸจ ๐  ๐‘› , ๐ฎ ๐‘› โŸฉ .

Now, set ๐ฎ ๐‘˜

โˆ’ ๐ท โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โ€– โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โ€– . Then, by Theorem 21, we have that ๐‘… ๐‘‡ โ€‹ ( ๐ฎ ๐‘˜ ) โ‰ค ๐ป โ€‹ ๐ท 2 2 + 2 โ€‹ ๐‘‡ โ€‹ ๐บ โ€‹ ๐ท ๐‘ . Therefore:

๐น โ€‹ ( ๐ฑ ๐‘€ )
โ‰ค ๐น โ€‹ ( ๐ฑ 0 ) + ๐ป โ€‹ ๐ท 2 โ€‹ ๐พ 2 + 2 โ€‹ ๐บ โ€‹ ๐ท + ๐‘€ โ€‹ ๐ฝ โ€‹ ๐ท 3 48 โˆ’ ๐ท โ€‹ ๐‘‡ โ€‹ โˆ‘ ๐‘˜

1 ๐พ โ€– 1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โ€– .

Hence, we obtain

1 ๐พ
โˆ‘ ๐‘˜

1 ๐พ โ€– 1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โ€– โ‰ค ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ€‹ ( ๐ฑ ๐‘€ ) ๐‘€ โ€‹ ๐ท + ๐ป โ€‹ ๐ท 2 โ€‹ ๐‘‡ + 2 โ€‹ ๐บ ๐‘€ + ๐ฝ โ€‹ ๐ท 2 48 .

Note that from the choice of ๐พ and ๐‘‡ we have ๐‘€

๐พ โ€‹ ๐‘‡ โ‰ฅ ๐‘ โˆ’ ๐‘‡ โ‰ฅ ๐‘ / 2 . So, using ๐ท

๐›ฟ / ๐‘‡ , we have can upper bound the r.h.s. with

2 โ€‹ ๐‘‡ โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) ๐‘ โ€‹ ๐›ฟ + ๐ป โ€‹ ๐›ฟ 2 โ€‹ ๐‘‡ 2 + 4 โ€‹ ๐บ ๐‘ + ๐ฝ โ€‹ ๐›ฟ 2 2 โ€‹ ๐‘‡ 2
and with ๐‘‡

min โก ( โŒˆ ( ๐›ฟ 2 โ€‹ ( ๐ป + ๐ฝ โ€‹ ๐›ฟ ) โ€‹ ๐‘ ) 1 / 3 ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) 1 / 3 โŒ‰ , ๐‘ / 2 ) :

โ‰ค 3 โ€‹ ( ๐ป + ๐ฝ โ€‹ ๐›ฟ ) 1 / 3 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) 2 / 3 ๐›ฟ 1 / 3 โ€‹ ๐‘ 2 / 3 + 4 โ€‹ ๐บ ๐‘ + 2 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) ๐‘ โ€‹ ๐›ฟ + 10 โ€‹ ๐›ฟ โ€‹ ( ๐ป + ๐ฝ โ€‹ ๐›ฟ ) ๐‘ 2 .

Now, the third fact follows by observing that Proposition 15 implies that

1 ๐พ โ€‹ โˆ‘ ๐‘˜

1 ๐พ โ€– โˆ‡ ๐น โ€‹ ( ๐ฐ ยฏ ๐‘˜ ) โ€–
โ‰ค 1 ๐พ โ€‹ โˆ‘ ๐‘˜

1 ๐พ โ€– 1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โ€– + ๐ฝ โ€‹ ๐›ฟ 2 2 .

Now, substituting the specified value of ๐›ฟ completes the identity. Finally, the count of number of gradient evaluations is a direct calculation. โˆŽ

Appendix EProofs for Section 5

See 14

Proof.

Let ๐‘† โŠ‚ ๐ต โ€‹ ( ๐ฑ , ๐›ฟ ) with ๐ฑ

1 | ๐‘† | โ€‹ โˆ‘ ๐ฒ โˆˆ ๐‘† ๐ฒ . By ๐ป -smoothness, for all ๐ฒ โˆˆ ๐‘† , โ€– โˆ‡ ๐น โ€‹ ( ๐ฒ ) โˆ’ โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– โ‰ค ๐ป โ€‹ โ€– ๐ฒ โˆ’ ๐ฑ โ€– โ‰ค ๐ป โ€‹ ๐›ฟ . Therefore, we have

โ€– 1 | ๐‘† | โ€‹ โˆ‘ ๐ฒ โˆˆ ๐‘† โˆ‡ ๐น โ€‹ ( ๐ฒ ) โ€–

โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) + 1 | ๐‘† | โ€‹ โˆ‘ ๐ฒ โˆˆ ๐‘† ( โˆ‡ ๐น โ€‹ ( ๐ฒ ) โˆ’ โˆ‡ ๐น โ€‹ ( ๐ฑ ) ) โ€–

โ‰ฅ โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– โˆ’ ๐ป โ€‹ ๐›ฟ .

Now, since โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– ๐›ฟ โ‰ค ๐œ– , for any ๐‘

0 , there is a set ๐‘† such that โ€– 1 | ๐‘† | โ€‹ โˆ‘ ๐ฒ โˆˆ ๐‘† โˆ‡ ๐น โ€‹ ( ๐ฒ ) โ€– โ‰ค ๐œ– + ๐‘ . Thus, โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– โ‰ค ๐œ– + ๐ป โ€‹ ๐›ฟ + ๐‘ for any ๐‘

0 , which implies โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– โ‰ค ๐œ– + ๐ป โ€‹ ๐›ฟ . โˆŽ

See 15

Proof.

The proof is similar to that of Proposition 14. Let ๐‘† โŠ‚ ๐ต โ€‹ ( ๐ฑ , ๐›ฟ ) with ๐ฑ

1 | ๐‘† | โ€‹ โˆ‘ ๐ฒ โˆˆ ๐‘† ๐ฒ . By ๐ฝ -second-order-smoothness, for all ๐ฒ โˆˆ ๐‘† , we have

โ€– โˆ‡ ๐น โ€‹ ( ๐ฒ ) โˆ’ โˆ‡ ๐น โ€‹ ( ๐ฑ ) โˆ’ โˆ‡ 2 ๐น โ€‹ ( ๐ฑ ) โ€‹ ( ๐ฒ โˆ’ ๐ฑ ) โ€–

โ€– โˆซ 0 1 ( โˆ‡ 2 ๐น โ€‹ ( ๐ฑ + ๐‘ก โ€‹ ( ๐ฒ โˆ’ ๐ฑ ) ) โˆ’ โˆ‡ 2 ๐น โ€‹ ( ๐ฑ ) ) โ€‹ ( ๐ฒ โˆ’ ๐ฑ ) โ€‹ d ๐‘ก โ€–

โ‰ค โˆซ 0 1 ๐‘ก โ€‹ ๐ฝ โ€‹ โ€– ๐ฒ โˆ’ ๐ฑ โ€– 2 โ€‹ d ๐‘ก

๐ฝ โ€‹ โ€– ๐ฒ โˆ’ ๐ฑ โ€– 2 2 โ‰ค ๐ฝ โ€‹ ๐›ฟ 2 2 .

Further, since 1 | ๐‘† | โ€‹ โˆ‘ ๐ฒ โˆˆ ๐‘† ๐ฒ

๐ฑ , we have 1 | ๐‘† | โ€‹ โˆ‘ ๐ฒ โˆˆ ๐‘† โˆ‡ 2 ๐น โ€‹ ( ๐ฑ ) โ€‹ ( ๐ฒ โˆ’ ๐ฑ )

0 . Therefore, we have

โ€– 1 | ๐‘† | โ€‹ โˆ‘ ๐ฒ โˆˆ ๐‘† โˆ‡ ๐น โ€‹ ( ๐ฒ ) โ€–

โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) + 1 | ๐‘† | โ€‹ โˆ‘ ๐ฒ โˆˆ ๐‘† ( โˆ‡ ๐น โ€‹ ( ๐ฒ ) โˆ’ โˆ‡ ๐น โ€‹ ( ๐ฑ ) โˆ’ โˆ‡ 2 ๐น โ€‹ ( ๐ฑ ) โ€‹ ( ๐ฒ โˆ’ ๐ฑ ) ) โ€–

โ‰ฅ โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– โˆ’ ๐ฝ โ€‹ ๐›ฟ 2 2 .

Now, since โ€– โˆ‡ ๐น โ€‹ ( ๐‘ฅ ) โ€– ๐›ฟ โ‰ค ๐œ– , for any ๐‘

0 , there is a set ๐‘† such that โ€– 1 | ๐‘† | โ€‹ โˆ‘ ๐ฒ โˆˆ ๐‘† โˆ‡ ๐น โ€‹ ( ๐ฒ ) โ€– โ‰ค ๐œ– + ๐‘ . Thus, โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– โ‰ค ๐œ– + ๐ฝ 2 โ€‹ ๐›ฟ 2 + ๐‘ for any ๐‘

0 , which implies โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– โ‰ค ๐œ– + ๐ฝ 2 โ€‹ ๐›ฟ 2 . โˆŽ

Appendix FLower Bounds

Our lower bounds are constructed via a mild alteration to the arguments of Arjevani et al. (2019) for lower bounds on finding ( 0 , ๐œ– ) -stationary points of smooth functions with a stochastic gradient oracle. At a high level, we show that since a ๐›ฟ , ๐œ– -stationary point of an ๐ป -smooth loss is also a ( 0 , ๐ป โ€‹ ๐›ฟ + ๐œ– ) -stationary point, a lower bound on the complexity of the latter implies a lower bound on the of complexity of the former. The lower bound of Arjevani et al. (2019) is proved by constructing a distribution over โ€œhardโ€ functions such that no algorithm can quickly find a ( 0 , ๐œ– ) -stationary point of a random selected function. Unfortunately, these โ€œhardโ€ functions are not Lipschitz. Fortunately, they take the form ๐น โ€‹ ( ๐ฑ ) + ๐œ‚ โ€‹ โ€– ๐ฑ โ€– 2 where ๐น is Lipschitz and smooth so that the โ€œnon-Lipschitzโ€ part is solely contained in the quadratic term. We show that one can replace the quadratic term โ€– ๐ฑ โ€– 2 with a Lipschitz function that is quadratic for sufficiently small ๐ฑ but proportional to โ€– ๐ฑ โ€– for larger values. Our proof consists of carefully reproducing the argument of Arjevani et al. (2019) to show that this modification does not cause any problems. We emphasize that almost all of this development can be found with more detail in Arjevani et al. (2019). We merely restate here the minimum results required to verify our modification to their construction.

F.1Definitions and Results from Arjevani et al. (2019)

A randomized first-order algorithm is a distribution ๐‘ƒ ๐‘† supported on a set ๐‘† and a sequence of measurable mappings ๐ด ๐‘– โ€‹ ( ๐‘  , ๐  1 , โ€ฆ , ๐  ๐‘– โˆ’ 1 ) โ†’ โ„ ๐‘‘ with ๐‘  โˆˆ ๐‘† and ๐  ๐‘– โˆˆ โ„ ๐‘‘ . Given a stochastic gradient oracle Grad : โ„ ๐‘‘ ร— ๐‘ โ†’ โ„ ๐‘‘ , a distribution ๐‘ƒ ๐‘ supported on ๐‘ and an i.i.d. sample ( ๐ณ 1 , โ€ฆ , ๐ณ ๐‘› ) โˆผ ๐‘ƒ ๐‘ , we define the iterates of ๐ด recursively by:

๐ฑ 1

๐ด 1 โ€‹ ( ๐‘  )

๐ฑ ๐‘–

๐ด ๐‘– โ€‹ ( ๐‘  , Grad โ€‹ ( ๐ฑ 1 , ๐ณ 1 ) , Grad โ€‹ ( ๐ฑ 2 , ๐ณ 2 ) , โ€ฆ , Grad โ€‹ ( ๐ฑ ๐‘– โˆ’ 1 , ๐ณ ๐‘– โˆ’ 1 ) ) .

So, ๐ฑ ๐‘– is a function of ๐‘  and ๐ณ 1 , โ€ฆ , ๐ณ ๐‘– โˆ’ 1 . We define A rand to be the set of such sequences of mappings.

Now, in the notation of Arjevani et al. (2019), we define the โ€œprogress functionโ€

prog ๐‘ โ€‹ ( ๐ฑ )

max โก { ๐‘– : | ๐ฑ ๐‘– | โ‰ฅ ๐‘ } .

Further, a stochastic gradient oracle Grad can be called a probability- ๐‘ zero-chain if prog 0 โ€‹ ( Grad โ€‹ ( ๐ฑ , ๐ณ ) )

prog 1 / 4 โ€‹ ( ๐ฑ ) + 1 for all ๐ฑ with probability at least 1 โˆ’ ๐‘ , and prog 0 โ€‹ ( Grad โ€‹ ( ๐ฑ , ๐ณ ) ) โ‰ค prog 1 / 4 โ€‹ ( ๐ฑ ) + 1 with probability 1.

Next, let ๐น ๐‘‡ : โ„ ๐‘‡ โ†’ โ„ be the function defined by Lemma 2 of Arjevani et al. (2019). Restating their Lemma, this function satisfies:

Lemma 22 (Lemma 2 of Arjevani et al. (2019)).

There exists a function ๐น ๐‘‡ : โ„ ๐‘‡ โ†’ โ„ satisfies that satisfies:

1.

๐น ๐‘‡ โ€‹ ( 0 )

0 and inf ๐น ๐‘‡ โ€‹ ( ๐ฑ ) โ‰ฅ โˆ’ ๐›พ 0 โ€‹ ๐‘‡ for ๐›พ 0

12 .

2.

โˆ‡ ๐น ๐‘‡ โ€‹ ( ๐ฑ ) is ๐ป 0 -Lipschitz, with ๐ป 0

152 .

3.

For all ๐ฑ , โ€– โˆ‡ ๐น ๐‘‡ โ€‹ ( ๐ฑ ) โ€– โˆž โ‰ค ๐บ 0 with ๐บ 0

23

4.

For all ๐ฑ , prog 0 โ€‹ ( โˆ‡ ๐น ๐‘‡ โ€‹ ( ๐ฑ ) ) โ‰ค prog 1 / 2 โ€‹ ( ๐ฑ ) + 1 .

5.

If prog 1 โ€‹ ( ๐ฑ ) < ๐‘‡ , then โ€– โˆ‡ ๐น ๐‘‡ โ€‹ ( ๐ฑ ) โ€– โ‰ฅ | โˆ‡ ๐น ๐‘‡ โ€‹ ( ๐ฑ ) prog 1 โ€‹ ( ๐ฑ ) + 1 | โ‰ฅ 1 .

We associate with this function ๐น ๐‘‡ the stochastic gradient oracle ๐‘‚ ๐‘‡ โ€‹ ( ๐ฑ , ๐‘ง ) : โ„ ๐‘‡ ร— { 0 , 1 } โ†’ โ„ ๐‘‘ where ๐‘ง is Bernoulli ( ๐‘ ) :

Grad ๐‘‡ โ€‹ ( ๐ฑ , ๐ณ ) ๐‘–

{ โˆ‡ ๐น ๐‘‡ โ€‹ ( ๐ฑ ) ๐‘– ,

 if  โ€‹ ๐‘– โ‰  prog 1 / 4 โ€‹ ( ๐ฑ )

๐ณ โ€‹ โˆ‡ ๐น ๐‘‡ โ€‹ ( ๐ฑ ) ๐‘– ๐‘ ,
 if  โ€‹ ๐‘–

prog 1 / 4 โ€‹ ( ๐ฑ )

It is clear that ๐”ผ ๐‘ง [ ๐‘‚ ๐‘‡ โ€‹ ( ๐ฑ , ๐ณ ) ]

โˆ‡ ๐น ๐‘‡ โ€‹ ( ๐ฑ ) .

This construction is so far identical to that in Arjevani et al. (2019), and so we have by their Lemma 3:

Lemma 23 (Lemma 3 of Arjevani et al. (2019)).

Grad ๐‘‡ is a probability- ๐‘ zero chain, has variance ๐”ผ [ โ€– Grad ๐‘‡ โ€‹ ( ๐ฑ , ๐ณ ) โˆ’ โˆ‡ ๐น ๐‘‡ โ€‹ ( ๐ฑ ) โ€– 2 ] โ‰ค ๐บ 0 2 / ๐‘ , and โ€– Grad ๐‘‡ โ€‹ ( ๐ฑ , ๐‘ง ) โ€– โ‰ค ๐บ 0 ๐‘ + ๐บ 0 โ€‹ ๐‘‡ .

Proof.

The probability ๐‘ zero-chain and variance statements are directly from Arjevani et al. (2019). For the bound on โ€– Grad ๐‘‡ โ€– , observe that Grad ๐‘‡ โ€‹ ( ๐ฑ , ๐ณ )

โˆ‡ ๐น ๐‘‡ โ€‹ ( ๐ฑ ) in all but one coordinate. In that one coordinate, Grad ๐‘‡ โ€‹ ( ๐ฑ , ๐ณ ) is at most โ€– โˆ‡ ๐น ๐‘‡ โ€‹ ( ๐ฑ ) โ€– โˆž ๐‘

๐บ 0 ๐‘ . Thus, the bound follows by triangle inequality. โˆŽ

Next, for any matrix ๐‘ˆ โˆˆ โ„ ๐‘‘ ร— ๐‘‡ with orthonormal columns, we define ๐น ๐‘‡ , ๐‘ˆ : โ„ ๐‘‘ โ†’ โ„ by:

๐น ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฑ )

๐น ๐‘‡ โ€‹ ( ๐‘ˆ โŠค โ€‹ ๐ฑ ) .

The associated stochastic gradient oracle is:

Grad ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฑ , ๐ณ )

๐‘ˆ โ€‹ Grad ๐‘‡ โ€‹ ( ๐‘ˆ โŠค โ€‹ ๐ฑ , ๐ณ ) .

Now, we restate Lemma 5 of Arjevani et al. (2019):

Lemma 24 (Lemma 5 of Arjevani et al. (2019)).

Let ๐‘… > 0 and suppose ๐ด โˆˆ A rand is such that ๐ด produces iterates ๐ฑ ๐‘ก with โ€– ๐ฑ ๐‘ก โ€– โ‰ค ๐‘… . Let ๐‘‘ โ‰ฅ โŒˆ 18 โ€‹ ๐‘… 2 โ€‹ ๐‘‡ ๐‘ โ€‹ log โก 2 โ€‹ ๐‘‡ 2 ๐‘ โ€‹ ๐‘ โŒ‰ Suppose ๐‘ˆ is chosen uniformly at random from the set of ๐‘‘ ร— ๐‘‡ matrices with orthonormal columns. Let Grad be an probability- ๐‘ zero chain and let Grad ๐‘ˆ โ€‹ ( ๐ฑ , ๐ณ )

๐‘ˆ โ€‹ Grad โ€‹ ( ๐‘ˆ โŠค โ€‹ ๐ฑ , ๐ณ ) . Let ๐ฑ 1 , ๐ฑ 2 , โ€ฆ be the iterates of ๐ด when provided the stochastic gradient oracle Grad ๐‘ˆ . Then with probability at least 1 โˆ’ ๐‘ (over the randomness of ๐‘ˆ , the oracle, and also the seed ๐‘  of ๐ด ):

prog 1 / 4 โ€‹ ( ๐‘ˆ โŠค โ€‹ ๐ฑ ๐‘ก ) < ๐‘‡ โ€‹ for all  โ€‹ ๐‘ก โ‰ค ๐‘‡ โˆ’ log โก ( 2 / ๐‘ ) 2 โ€‹ ๐‘ .

F.2Defining the โ€œHardโ€ Instance

Now, we for the first time diverge from the construction of Arjevani et al. (2019) (albeit only slightly). Their construction uses a โ€œshrinking functionโ€ ๐œŒ ๐‘… , ๐‘‘ : โ„ ๐‘‘ โ†’ โ„ ๐‘‘ given by ๐œŒ ๐‘… , ๐‘‘ โ€‹ ( ๐ฑ )

๐ฑ 1 + โ€– ๐ฑ โ€– 2 / ๐‘… 2 as well as an additional quadratic term to overcome the limitation of bounded iterates. We cannot tolerate the non-Lipschitz quadratic term, so we replace it with a Lipschitz version ๐‘ž ๐ต , ๐‘‘ โ€‹ ( ๐ฑ )

๐ฑ โŠค โ€‹ ๐œŒ ๐ต , ๐‘‘ โ€‹ ( ๐ฑ )

โ€– ๐ฑ โ€– 2 1 + โ€– ๐ฑ โ€– 2 / ๐‘… 2 . Intuitively, ๐‘ž ๐ต , ๐‘‘ behaves like โ€– ๐ฑ โ€– 2 for small enough ๐ฑ , but behaves like ๐‘… โ€‹ โ€– ๐ฑ โ€– for large โ€– ๐ฑ โ€– . Overall, we consider the function:

๐น ^ ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฑ )

๐น ๐‘‡ , ๐‘ˆ โ€‹ ( ๐œŒ ๐‘… , ๐‘‘ โ€‹ ( ๐ฑ ) ) + ๐œ‚ โ€‹ ๐‘ž ๐ต , ๐‘‘ โ€‹ ( ๐ฑ )

๐น ๐‘‡ โ€‹ ( ๐‘ˆ โŠค โ€‹ ๐œŒ ๐‘… , ๐‘‘ โ€‹ ( ๐ฑ ) ) + ๐œ‚ โ€‹ ๐‘ž ๐ต , ๐‘‘ โ€‹ ( ๐ฑ ) .

The stochastic gradient oracle associated with ๐น ^ ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฑ ) is

Grad ^ ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฑ , ๐ณ )

๐ฝ โ€‹ [ ๐œŒ ๐‘… , ๐‘‘ ] โ€‹ ( ๐ฑ ) โŠค โ€‹ ๐‘ˆ โ€‹ Grad ๐‘‡ โ€‹ ( ๐‘ˆ โŠค โ€‹ ๐œŒ ๐‘… , ๐‘‘ โ€‹ ( ๐ฑ ) , ๐ณ ) + ๐œ‚ โ€‹ โˆ‡ ๐‘ž ๐ต , ๐‘‘ โ€‹ ( ๐ฑ ) .

where ๐ฝ โ€‹ [ ๐‘“ ] โ€‹ ( ๐ฑ ) indicates the Jacobian of the function ๐‘“ evaluated at ๐ฑ .

A description of the relevant properties of ๐‘ž ๐ต is provided in Section F.3.

Next we produce a variant on Lemma 6 from Arjevani et al. (2019). This is the most delicate part of our alteration, although the proof is still almost identical to that of Arjevani et al. (2019).

Lemma 25 (variant on Lemma 6 of Arjevani et al. (2019)).

Let ๐‘…

๐ต

60 โ€‹ ๐บ 0 โ€‹ ๐‘‡ . Let ๐œ‚

1 / 10 and ๐‘ โˆˆ ( 0 , 1 ) and ๐‘ โˆˆ ( 0 , 1 ) and ๐‘‡ โˆˆ โ„• . Set ๐‘‘

โŒˆ 18 โ€‹ ๐‘… 2 โ€‹ ๐‘‡ ๐‘ โ€‹ log โก 2 โ€‹ ๐‘‡ 2 ๐‘ โ€‹ ๐‘ โŒ‰ and let ๐‘ˆ be sampled uniformly from the set of ๐‘‘ ร— ๐‘‡ matrices with orthonormal columns. Define ๐น ^ ๐‘‡ , ๐‘ˆ and Grad ^ ๐‘ˆ , ๐‘‡ as above. Suppose ๐ด โˆˆ A rand and let ๐ฑ 1 , ๐ฑ 2 , โ€ฆ be the iterates of ๐ด when provided with Grad ^ ๐‘ˆ , ๐‘‡ as input. Then with probability at least 1 โˆ’ ๐‘ :

โ€– โˆ‡ ๐น ^ ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฑ ๐‘ก ) โ€– โ‰ฅ 1 / 2 โ€‹  for all  โ€‹ ๐‘ก โ‰ค ๐‘‡ โˆ’ log โก ( 2 / ๐‘ ) 2 โ€‹ ๐‘ .

Proof.

Define ๐ฒ ๐‘–

๐œŒ ๐‘… , ๐‘‘ โ€‹ ( ๐ฑ ๐‘– ) . Recall the defniition:

Grad ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฒ , ๐ณ )

๐‘ˆ โ€‹ Grad ๐‘‡ โ€‹ ( ๐‘ˆ โŠค โ€‹ ๐ฒ , ๐ณ )

Then observe that Grad ^ ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฑ , ๐ณ ) can be computed from ๐ฑ and Grad ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฒ , ๐ณ ) :

Grad ^ ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฑ , ๐ณ )

๐ฝ โ€‹ [ ๐œŒ ๐‘… , ๐‘‘ ] โ€‹ ( ๐ฑ ) โŠค โ€‹ Grad ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฒ , ๐ณ ) + ๐œ‚ โ€‹ โˆ‡ ๐‘ž ๐ต , ๐‘‘ โ€‹ ( ๐ฑ )

Therefore, we may consider the ๐ฒ to be the iterates of some different algorithm ๐ด ๐‘ฆ โˆˆ A rand applied to the oracle Grad ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฒ , ๐ณ ) ( ๐ด ๐‘ฆ computes Grad ^ ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฑ , ๐ณ ) from Grad ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฒ , ๐ณ ) , and then applies the original algorithm ๐ด to get ๐ฑ and then ๐œŒ ๐ต , ๐‘‘ to get ๐ฒ ).

Furthermore, it is clear from the definition of ๐œŒ ๐ต , ๐‘‘ that โ€– ๐ฒ ๐‘– โ€–

โ€– ๐œŒ ๐ต , ๐‘‘ โ€‹ ( ๐ฑ ๐‘– ) โ€– โ‰ค ๐‘… for all ๐‘– .

All together, this implies that ๐ด ๐‘ฆ satisfies the conditions of Lemma 24, and so we have that with probability at least 1 โˆ’ ๐‘ :

prog 1 / 4 โ€‹ ( ๐‘ˆ โŠค โ€‹ ๐ฒ ๐‘ก ) โ‰ค ๐‘‡ โ€‹  for all  โ€‹ ๐‘ก โ‰ค ๐‘‡ โˆ’ log โก ( 2 / ๐‘ ) 2 โ€‹ ๐‘

Now, our goal is to show that โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘– ) โ€– โ‰ฅ 1 / 2 . We consider two cases, either โ€– ๐ฑ ๐‘– โ€–

๐‘… / 2 or not.

First, observe that for ๐ฑ ๐‘– with โ€– ๐ฑ ๐‘– โ€–

๐‘… / 2 , we have:

โ€– โˆ‡ ๐น ^ ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฑ ๐‘– ) โ€–
โ‰ฅ ๐œ‚ โ€‹ โ€– โˆ‡ ๐‘ž ๐ต , ๐‘‘ โ€‹ ( ๐ฑ ๐‘– ) โ€– โˆ’ โ€– ๐ฝ โ€‹ [ ๐œŒ ๐‘… , ๐‘‘ ] โ€‹ ( ๐ฑ ๐‘– ) โ€– op โ€‹ โ€– โˆ‡ ๐น ^ โ€‹ ( ๐‘ˆ โŠค โ€‹ ๐ฒ ๐‘– ) โ€–
using the fact that โˆฅ ๐ฝ [ ๐œŒ ๐‘… , ๐‘‘ ] ( ๐ฑ ๐‘– ) โˆฅ op โˆฅ โ‰ค 1 (see Arjevani et al. (2019) Lemma 15) as well as Proposition 29 part 3:
โ‰ฅ ๐œ‚ โ€‹ โ€– ๐ฑ ๐‘– โ€– 1 + โ€– ๐ฑ ๐‘– โ€– 2 / ๐ต 2 โˆ’ ๐บ 0 โ€‹ ๐‘‡
using ๐ต

๐‘… and โ€– ๐ฑ ๐‘– โ€– > ๐‘… / 2 :
โ‰ฅ ๐œ‚ โ€‹ ๐ต 5 โˆ’ ๐บ 0 โ€‹ ๐‘‡

โ‰ฅ ๐œ‚ โ€‹ ๐ต 3 โˆ’ ๐บ 0 โ€‹ ๐‘‡
Recalling ๐ต

๐‘…

60 โ€‹ ๐บ 0 โ€‹ ๐‘‡ and ๐œ‚

1 / 10 :

๐บ 0 โ€‹ ๐‘‡
Recalling ๐บ 0

23 :

โ‰ฅ 1 / 2 .

Alternatively, suppose โ€– ๐ฑ ๐‘– โ€– โ‰ค ๐‘… / 2 . Then, let us set ๐‘—

prog 1 โ€‹ ( ๐‘ˆ โŠค โ€‹ ๐ฒ ๐‘– ) + 1 โ‰ค ๐‘‡ (the inequality follows since prog 1 โ‰ค prog 1 / 4 ). Then, if ๐ฎ ๐‘— indicates the ๐‘— th row of ๐‘ข , Lemma 22 implies:

| โŸจ ๐ฎ ๐‘— , ๐ฒ ๐‘– โŸฉ |

< 1 ,

| โŸจ ๐ฎ ๐‘— , โˆ‡ ๐น ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฒ ๐‘– ) โŸฉ |

โ‰ฅ 1 .

Next, by direct calculation we have ๐ฝ โ€‹ [ ๐œŒ ๐‘… ] โ€‹ ( ๐ฑ ๐‘– )

๐ผ โˆ’ ๐œŒ ๐‘… โ€‹ ( ๐ฑ ๐‘– ) โ€‹ ๐œŒ ๐‘… โ€‹ ( ๐ฑ ๐‘– ) โŠค / ๐‘… 2 1 + โ€– ๐ฑ ๐‘– โ€– 2 / ๐‘… 2

๐ผ โˆ’ ๐ฒ ๐‘– โ€‹ ๐ฒ ๐‘– โŠค / ๐‘… 2 1 + โ€– ๐ฑ ๐‘– โ€– 2 / ๐‘… 2 so that:

โŸจ ๐ฎ ๐‘— , โˆ‡ ๐น ^ ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฑ ๐‘– ) โŸฉ

โŸจ ๐ฎ ๐‘— , ๐ฝ โ€‹ [ ๐œŒ ๐‘… ] โ€‹ ( ๐ฑ ๐‘– ) โŠค โ€‹ โˆ‡ ๐น ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฒ ๐‘– ) โŸฉ + ๐œ‚ โ€‹ โŸจ ๐ฎ ๐‘— , โˆ‡ ๐‘ž ๐ต โ€‹ ( ๐ฑ ๐‘– ) โŸฉ

โŸจ ๐ฎ ๐‘— , โˆ‡ ๐น ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฒ ๐‘– ) โŸฉ 1 + โ€– ๐ฑ ๐‘– โ€– 2 / ๐‘… 2 โˆ’ โŸจ ๐ฎ ๐‘— , ๐ฒ ๐‘– โŸฉ โ€‹ โŸจ ๐ฒ ๐‘– , โˆ‡ ๐น ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฒ ๐‘– ) โŸฉ / ๐‘… 2 1 + โ€– ๐ฑ ๐‘– โ€– 2 / ๐‘… 2 + ๐œ‚ โ€‹ โŸจ ๐ฎ ๐‘— , โˆ‡ ๐‘ž ๐ต โ€‹ ( ๐ฑ ๐‘– ) โŸฉ .

Now, by Proposition 29, we have โˆ‡ ๐‘ž ๐ต โ€‹ ( ๐ฑ ๐‘– )

( 2 โˆ’ โ€– ๐ฒ ๐‘– โ€– 2 ๐ต 2 ) โ€‹ ๐ฒ ๐‘– . So, (recalling ๐‘…

๐ต ):

โŸจ ๐ฎ ๐‘— , โˆ‡ ๐น ^ ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฑ ๐‘– ) โŸฉ

โŸจ ๐ฎ ๐‘— , โˆ‡ ๐น ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฒ ๐‘– ) โŸฉ 1 + โ€– ๐ฑ ๐‘– โ€– 2 / ๐‘… 2 โˆ’ โŸจ ๐ฎ ๐‘— , ๐ฒ ๐‘– โŸฉ โ€‹ โŸจ ๐ฒ ๐‘– , โˆ‡ ๐น ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฒ ๐‘– ) โŸฉ / ๐‘… 2 1 + โ€– ๐ฑ ๐‘– โ€– 2 / ๐‘… 2 + ๐œ‚ โ€‹ ( 2 โˆ’ โ€– ๐ฒ ๐‘– โ€– 2 ๐‘… 2 ) โ€‹ โŸจ ๐ฎ ๐‘— , ๐ฒ ๐‘– โŸฉ
Observing that โ€– ๐‘ฆ ๐‘– โ€– โ‰ค โ€– ๐‘ฅ ๐‘– โ€– โ‰ค ๐‘… / 2 and | โŸจ ๐ฎ ๐‘— , ๐ฒ ๐‘– โŸฉ | < 1 :
| โŸจ ๐ฎ ๐‘— , โˆ‡ ๐น ^ ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฑ ๐‘– ) โŸฉ |
โ‰ฅ 2 โ€‹ | โŸจ ๐ฎ ๐‘— , โˆ‡ ๐น ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฒ ๐‘– ) โŸฉ | 5 โˆ’ โ€– โˆ‡ ๐น ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฒ ๐‘– ) โ€– 2 โ€‹ ๐‘… โˆ’ 2 โ€‹ ๐œ‚
Using | โŸจ ๐ฎ ๐‘— , โˆ‡ ๐น ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฒ ๐‘– ) โŸฉ | โ‰ฅ 1 and โ€– โˆ‡ ๐น โ€‹ ( ๐ฒ ๐‘– ) โ€– โ‰ค ๐บ 0 โ€‹ ๐‘‡ :
โ‰ฅ 2 5 โˆ’ ๐บ 0 โ€‹ ๐‘‡ 2 โ€‹ ๐‘… โˆ’ 2 โ€‹ ๐œ‚
With ๐‘…

60 โ€‹ ๐บ 0 โ€‹ ๐‘‡ and ๐œ‚

1 / 10 :

2 5 โˆ’ 1 120 โˆ’ 1 5

1 / 2 . โˆŽ

Next, we observe some basic facts about the function ๐น ^ ๐‘‡ , ๐‘ˆ :

Lemma 26 (variation on Lemma 7 in Arjevani et al. (2019)).

With the settings of ๐‘… , ๐ต , ๐œ‚ in Lemma 25, the function ๐น ^ ๐‘‡ , ๐‘ˆ satisfies:

1.

๐น ^ ๐‘‡ , ๐‘ˆ โ€‹ ( 0 ) โˆ’ inf ๐น ^ ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฑ ) โ‰ค ๐›พ 0 โ€‹ ๐‘‡

12 โ€‹ ๐‘‡

2.

โ€– โˆ‡ ๐น ^ ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฑ ) โ€– โ‰ค ๐บ 0 โ€‹ ๐‘‡ + 3 โ€‹ ๐œ‚ โ€‹ ๐ต โ‰ค 437 โ€‹ ๐‘‡ for all ๐ฑ .

3.

โˆ‡ ๐น ^ ๐‘ˆ โ€‹ ( ๐ฑ ) is ๐ป 0 + 3 + 8 โ€‹ ๐œ‚ โ‰ค 156 -Lipschitz.

4.

โ€– Grad ^ ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฑ , ๐ณ ) โ€– โ‰ค ๐บ 0 ๐‘ + ๐บ 0 โ€‹ ๐‘‡ + 3 โ€‹ ๐œ‚ โ€‹ ๐ต โ‰ค 23 ๐‘ + 437 โ€‹ ๐‘‡ with probability 1.

5.

Grad ^ ๐‘‡ , ๐‘ˆ has variance at most ๐บ 0 2 ๐‘ โ‰ค 23 2 ๐‘

Proof.

1.

This property follows immediately from the fact that ๐น ๐‘‡ โ€‹ ( 0 ) โˆ’ inf ๐น ๐‘‡ โ€‹ ( ๐ฑ ) โ‰ค ๐›พ 0 โ€‹ ๐‘‡ .

2.

Since ๐œŒ ๐‘… is 1-Lipschitz for all ๐‘… and ๐‘ž ๐ต is 3 โ€‹ ๐ต -Lipschitz (see Proposition 29), ๐น ^ ๐‘‡ , ๐‘ˆ โ€‹ ( ๐ฑ ) is ๐บ 0 โ€‹ ๐‘‡ + 3 โ€‹ ๐œ‚ โ€‹ ๐ต -Lipschitz, where ๐บ 0

23 and ๐ต

60 โ€‹ ๐บ 0 โ€‹ ๐‘‡ and ๐œ‚

1 / 10

3.

By assumption, ๐‘… โ‰ฅ max โก ( ๐ป 0 , 1 ) . Thus, by Arjevani et al. (2019, Lemma 16), โˆ‡ ๐น ๐‘‡ โ€‹ ( ๐œŒ ๐‘… โ€‹ ( ๐ฑ ) ) is ๐ป 0 + 3 -Lipschitz and so โˆ‡ ๐น ^ ๐‘‡ , ๐‘ˆ is ๐ป 0 + 3 + 8 โ€‹ ๐œ‚ -Lipschitz by Proposition 29.

4.

Since โ€– Grad ๐‘‡ โ€– โ‰ค ๐บ 0 ๐‘ + ๐บ 0 โ€‹ ๐‘‡ , and ๐ฝ โ€‹ [ ๐œŒ ๐‘… ] โ€‹ ( ๐ฑ ) โŠค โ€‹ ๐‘ˆ has operator norm at most 1, the bound follows.

5.

Just as in the previous part, since Grad ๐‘‡ has variance ๐บ 0 2 / ๐‘ and ๐ฝ โ€‹ [ ๐œŒ ๐‘… ] โ€‹ ( ๐ฑ ) โŠค โ€‹ ๐‘ˆ has operator norm at most 1, the bound follows.

โˆŽ

Now, we are finally in a position to prove:

Theorem 27.

Given any ๐›พ , ๐ป , ๐œ– , and ๐œŽ such that ๐›พ โ€‹ ๐ป 48 โ‹… 156 โ€‹ ๐œ– 2 โ‰ฅ 1 , there exists a distribution over functions ๐น and stochastic first-order oracles Grad such that with probability 1, ๐น is ๐ป -smooth, ๐น โ€‹ ( 0 ) โˆ’ inf ๐น โ€‹ ( ๐ฑ ) โ‰ค ๐›พ , ๐น is 11 โ€‹ ๐ป โ€‹ ๐›พ -Lipschitz and Grad has variance ๐œŽ 2 , and for any algorithm in A rand , with probability at least 1 โˆ’ ๐‘ , when provided a randomly selected Grad, ๐ด requires at least ฮฉ โ€‹ ( ๐›พ โ€‹ ๐ป โ€‹ ๐œŽ 2 ๐œ– 4 ) iterations to output a point ๐ฑ with ๐”ผ [ โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– ] โ‰ค ๐œ– .

Proof.

From Lemma 26 and Lemma 25, we have a distribution over functions ๐น and first-order oracles such that with probability 1, ๐น is 437 โ€‹ ๐‘‡ Lipschitz, ๐น is 156 -smoooth, ๐น โ€‹ ( 0 ) โˆ’ inf ๐น โ€‹ ( ๐ฑ ) โ‰ค 12 โ€‹ ๐‘‡ , Grad has variance at most ๐บ 0 2 / ๐‘

23 2 / ๐‘ , and with probability at least 1 โˆ’ ๐‘ ,

โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘ก ) โ€– โ‰ฅ 1 / 2 โ€‹  for all  โ€‹ ๐‘ก โ‰ค ๐‘‡ โˆ’ log โก ( 2 / ๐‘ ) 2 โ€‹ ๐‘ .

Now, set ๐œ†

156 ๐ป โ‹… 2 โ€‹ ๐œ– , ๐‘‡

โŒŠ 156 โ€‹ ๐›พ 12 โ€‹ ๐ป โ€‹ ๐œ† 2 โŒ‹

โŒŠ ๐›พ โ€‹ ๐ป 48 โ‹… 156 โ€‹ ๐œ– 2 โŒ‹ โ‰ฅ ๐›พ โ€‹ ๐ป 96 โ‹… 156 โ€‹ ๐œ– 2 and ๐‘

min โก ( 23 2 โ€‹ ๐ป 2 โ€‹ ๐œ† 2 156 2 โ€‹ ๐œŽ 2 , 1 ) . Then, define

๐น ๐œ† โ€‹ ( ๐ฑ )

๐ป โ€‹ ๐œ† 2 156 โ€‹ ๐น โ€‹ ( ๐ฑ / ๐œ† ) .

Then ๐น ๐œ† is ๐ป โ€‹ ๐œ† 2 ๐ป 0 โ‹… 1 ๐œ† 2 โ‹… 156

๐ป

  • smooth, ๐น ๐œ† โ€‹ ( 0 ) โˆ’ inf ๐ฑ ๐น ๐œ† โ€‹ ( ๐ฑ ) โ‰ค 12 โ‹… ๐‘‡ โ‹… ๐ป โ€‹ ๐œ† 2 156 โ‰ค ๐›พ , and ๐น ๐œ† is 437 โ€‹ ๐‘‡ โ€‹ ๐ป โ€‹ ๐œ† 156 โ‰ค 11 โ€‹ ๐ป โ€‹ ๐›พ
  • Lipschitz. We can construct an oracle Grad ๐œ† from Grad by:

Grad ๐œ† โ€‹ ( ๐ฑ , ๐ณ )

๐ป โ€‹ ๐œ† 156 โ€‹ Grad โ€‹ ( ๐ฑ / ๐œ† , ๐ณ ) .

so that if ๐‘ < 1 , we have:

๐”ผ [ โ€– Grad ๐œ† โ€‹ ( ๐ฑ , ๐ณ ) โˆ’ โˆ‡ ๐น ๐œ† โ€‹ ( ๐ฑ ) โ€– 2 ]
โ‰ค ๐ป 2 โ€‹ ๐œ† 2 156 2 โ‹… 23 2 ๐‘

๐œŽ 2 .

Alternatively, if ๐‘

1 , clearly the variance is 0.

Further, since an oracle for ๐น ๐œ† can be constructed from the oracle for ๐น , if we run ๐ด on ๐น ๐œ† , with probability at least 1 โˆ’ ๐‘ ,

โ€– โˆ‡ ๐น ๐œ† โ€‹ ( ๐ฑ ๐‘ก ) โ€–

๐ป โ€‹ ๐œ† 156 โ€‹ โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ๐‘ก ) โ€– โ‰ฅ ๐œ– โ€‹  for all  โ€‹ ๐‘ก โ‰ค ๐‘‡ โˆ’ log โก ( 2 / ๐‘ ) 2 โ€‹ ๐‘ .

Finally, we calculate:

๐‘‡ โˆ’ log โก ( 2 / ๐‘ ) 2 โ€‹ ๐‘ โ‰ฅ 1.5 โ‹… 10 โˆ’ 8 โ‹… ๐œŽ 2 โ€‹ ๐›พ โ€‹ ๐ป ๐œ– 4 โˆ’ 3 โ‹… 10 โˆ’ 4 โ€‹ ๐œŽ 2 โ€‹ log โก ( 2 / ๐‘ ) ๐œ– 2 .

Thus, there exists a constant ๐พ and an ๐œ– 0 such that for all ๐œ– < ๐œ– 0 ,

๐”ผ [ โ€– โˆ‡ ๐น ๐œ† โ€‹ ( ๐ฑ ๐‘ก ) โ€– ] โ‰ฅ ๐œ– for all  โ€‹ ๐‘ก โ‰ค ๐พ โ€‹ ๐ป โ€‹ ๐›พ โ€‹ ๐œŽ 2 ๐œ– 4 . โˆŽ

From this result, we have our main lower bound (the formal version of Theorem 18):

Theorem 28.

For any ๐›ฟ , ๐œ– , ๐›พ , ๐บ โ‰ฅ 11 โ€‹ 2 โ€‹ ๐œ– โ€‹ ๐›พ ๐›ฟ , there is a distribution over ๐บ -Lipschitz ๐ถ โˆž functions ๐น with ๐น โ€‹ ( 0 ) โˆ’ inf ๐น โ€‹ ( ๐ฑ ) โ‰ค ๐›พ and stochastic gradient oracles Grad with ๐”ผ [ โ€– Grad โ€‹ ( ๐ฑ , ๐ณ ) โ€– 2 ] โ‰ค ๐บ 2 such that for any algorithm ๐ด โˆˆ A rand , if ๐ด is provided as input a randomly selected oracle Grad, ๐ด will require ฮฉ โ€‹ ( ๐บ 2 โ€‹ ๐›พ / ๐›ฟ โ€‹ ๐œ– 3 ) iterations to identify a point ๐‘ฅ with ๐”ผ [ โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– ๐›ฟ ] โ‰ค ๐œ– .

Proof.

From Theorem 27, for any ๐ป , ๐œ– โ€ฒ , ๐›พ , and ๐œŽ we have a distribution over ๐ถ โˆž functions ๐น and oracles Grad such that ๐น is ๐ป -smooth, 11 โ€‹ ๐ป โ€‹ ๐›พ -Lischitz and ๐น โ€‹ ( 0 ) โˆ’ inf ๐น โ€‹ ( ๐ฑ ) โ‰ค ๐›พ and Grad has variance ๐œŽ 2 such that ๐ด requires ฮฉ โ€‹ ( ๐ป โ€‹ ๐›พ โ€‹ ๐œŽ 2 / ๐œ– โ€ฒ โฃ 4 ) iterations to output a point ๐ฑ such that ๐”ผ [ โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– ] โ‰ค ๐œ– โ€ฒ . Set ๐œŽ

๐บ / 2 , ๐ป

๐œ– / ๐›ฟ and ๐œ– โ€ฒ

2 โ€‹ ๐œ– . Then, we see that Grad has variance ๐บ 2 / 2 , and ๐น is 11 โ€‹ ๐ป โ€‹ ๐›พ

11 โ€‹ ๐œ– โ€‹ ๐›พ ๐›ฟ โ‰ค ๐บ / 2 -Lipschitz so that ๐”ผ [ โ€– Grad โ€‹ ( ๐ฑ , ๐ณ ) โ€– 2 ] โ‰ค ๐บ 2 . Further by Proposition!14, if โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– ๐›ฟ โ‰ค ๐œ– , then โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– โ‰ค ๐œ– + ๐ป โ€‹ ๐›ฟ

2 โ€‹ ๐œ– . Therefore, since ๐ด cannot output a point ๐ฑ with ๐”ผ [ โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– ] โ‰ค ๐œ– โ€ฒ

2 โ€‹ ๐œ– in less than ฮฉ โ€‹ ( ๐ป โ€‹ ๐›พ โ€‹ ๐œŽ 2 / ๐œ– โ€ฒ โฃ 4 ) iterations, we see that ๐ด also cannot output a point ๐ฑ with ๐”ผ [ โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– ๐›ฟ ] โ‰ค ๐œ– in less than ฮฉ โ€‹ ( ๐ป โ€‹ ๐›พ โ€‹ ๐œŽ 2 / ๐œ– โ€ฒ โฃ 4 )

ฮฉ โ€‹ ( ๐›พ โ€‹ ๐บ 2 / ๐œ– 3 โ€‹ ๐›ฟ ) iterations. โˆŽ

F.3Definition and Properties of ๐‘ž ๐ต

Consider the function ๐‘ž ๐ต , ๐‘‘ : โ„ ๐‘‘ โ†’ โ„ defined by

๐‘ž ๐ต , ๐‘‘ โ€‹ ( ๐ฑ )

โ€– ๐ฑ โ€– 2 1 + โ€– ๐ฑ โ€– 2 / ๐ต 2

๐ฑ โŠค โ€‹ ๐œŒ ๐ต , ๐‘‘ โ€‹ ( ๐ฑ ) .

This function has the following properties, all of which follow from direct calculuation:

Proposition 29.

๐‘ž ๐ต , ๐‘‘ satisfies:

1.
โˆ‡ ๐‘ž ๐ต , ๐‘‘ โ€‹ ( ๐ฑ )

2 โ€‹ ๐ฑ 1 + โ€– ๐ฑ โ€– 2 / ๐ต 2 โˆ’ ๐ฑ โ€‹ โ€– ๐ฑ โ€– 2 ๐ต 2 โ€‹ ( 1 + โ€– ๐ฑ โ€– 2 / ๐ต 2 ) 3 / 2

( 2 โˆ’ โ€– ๐œŒ ๐ต โ€‹ ( ๐ฑ ) โ€– 2 ๐ต 2 ) โ€‹ ๐œŒ ๐ต โ€‹ ( ๐ฑ ) .
2.
โˆ‡ 2 ๐‘ž ๐ต , ๐‘‘ โ€‹ ( ๐ฑ )

1 1 + โ€– ๐ฑ โ€– 2 / ๐ต 2 โ€‹ ( 2 โ€‹ ๐ผ โˆ’ 3 โ€‹ ๐ฑ๐ฑ โŠค ๐ต 2 โ€‹ ( 1 + โ€– ๐ฑ โ€– 2 / ๐ต 2 ) โˆ’ โ€– ๐ฑ โ€– 2 โ€‹ ๐ผ ๐ต 2 โ€‹ ( 1 + โ€– ๐ฑ โ€– 2 / ๐ต 2 ) + 2 โ€‹ โ€– ๐ฑ โ€– 2 โ€‹ ๐ฑ๐ฑ โŠค ๐ต 4 โ€‹ ( 1 + โ€– ๐ฑ โ€– 2 / ๐ต 2 ) 2 ) .

3.

โ€– ๐ฑ โ€– 1 + โ€– ๐ฑ โ€– 2 / ๐ต 2

โ‰ค โ€– โˆ‡ ๐‘ž ๐ต , ๐‘‘ โ€‹ ( ๐ฑ ) โ€– โ‰ค 3 โ€‹ โ€– ๐ฑ โ€– 1 + โ€– ๐ฑ โ€– 2 / ๐ต 2 โ‰ค 3 โ€‹ ๐ต .

4.

โ€– โˆ‡ 2 ๐‘ž ๐ต , ๐‘‘ โ€‹ ( ๐ฑ ) โ€– op

โ‰ค 8 1 + โ€– ๐ฑ โ€– 2 / ๐ต 2 โ‰ค 8 .

Appendix GProof of Theorem 13

First, we state and prove a theorem analogous to Theorem 8.

Theorem 30.

Assume ๐น : โ„ ๐‘‘ โ†’ โ„ is well-behaved. In Algorithm 1, set ๐‘  ๐‘› to be a random variable sampled uniformly from [ 0 , 1 ] . Set ๐‘‡ , ๐พ โˆˆ โ„• and ๐‘€

๐พ โ€‹ ๐‘‡ . For ๐‘–

1 , โ€ฆ , ๐‘‘ , set ๐‘ข ๐‘– ๐‘˜

โˆ’ ๐ท โˆž โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‚ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โˆ‚ ๐‘ฅ ๐‘– | โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‚ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โˆ‚ ๐‘ฅ ๐‘– | for some ๐ท โˆž > 0 . Finally, suppose Var โ€‹ ( ๐‘” ๐‘› , ๐‘– ) โ‰ค ๐œŽ ๐‘– 2 for ๐‘–

1 , โ€ฆ , ๐‘‘ . Then, we have

๐”ผ
[ 1 ๐พ โ€‹ โˆ‘ ๐‘˜

1 ๐พ โ€– 1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โ€– 1 ] โ‰ค ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ๐ท โˆž โ€‹ ๐‘€ + ๐”ผ [ ๐‘… ๐‘‡ โ€‹ ( ๐ฎ 1 , โ€ฆ , ๐ฎ ๐พ ) ] ๐ท โˆž โ€‹ ๐‘€ + ๐ท โˆž โ€‹ โˆ‘ ๐‘–

1 ๐‘‘ ๐œŽ ๐‘– ๐‘‡ .

Proof.

In Theorem 7, set ๐ฎ ๐‘› to be equal to ๐ฎ 1 for the first ๐‘‡ iterations, ๐ฎ 2 for the second ๐‘‡ iterations and so on. In other words, ๐ฎ ๐‘›

๐ฎ ๐‘š โ€‹ ๐‘œ โ€‹ ๐‘‘ โ€‹ ( ๐‘› , ๐‘‡ ) + 1 for ๐‘›

1 , โ€ฆ , ๐‘ .

From Theorem 7, we have

๐”ผ [ ๐น โ€‹ ( ๐ฑ ๐‘€ ) ]

๐น โ€‹ ( ๐ฑ 0 ) + ๐”ผ [ ๐‘… ๐‘‡ โ€‹ ( ๐ฎ 1 , โ€ฆ , ๐ฎ ๐พ ) ] + ๐”ผ [ โˆ‘ ๐‘›

1 ๐‘€ โŸจ ๐  ๐‘› , ๐ฎ ๐‘› โŸฉ ] .

Now, since ๐‘ข ๐‘˜ , ๐‘–

โˆ’ ๐ท โˆž โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‚ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โˆ‚ ๐‘ฅ ๐‘– | โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‚ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โˆ‚ ๐‘ฅ ๐‘– | , ๐”ผ [ ๐  ๐‘› ]

โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘› ) , and Var โ€‹ ( ๐‘” ๐‘› , ๐‘– ) โ‰ค ๐œŽ ๐‘– 2 for ๐‘–

1 , โ€ฆ , ๐‘‘ , we have

๐”ผ [ โˆ‘ ๐‘›

1 ๐‘€ โŸจ ๐  ๐‘› , ๐ฎ ๐‘› โŸฉ ]
โ‰ค ๐”ผ [ โˆ‘ ๐‘˜

1 ๐พ โŸจ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) , ๐ฎ ๐‘˜ โŸฉ + ๐ท โˆž โ€‹ โˆ‘ ๐‘˜

1 ๐พ โ€– โˆ‘ ๐‘ก

1 ๐‘‡ ( โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โˆ’ ๐  ๐‘› ) โ€– 1 ]

โ‰ค ๐”ผ [ โˆ‘ ๐‘˜

1 ๐พ โŸจ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) , ๐ฎ ๐‘˜ โŸฉ ] + ๐ท โˆž โ€‹ ๐พ โ€‹ ๐‘‡ โ€‹ โˆ‘ ๐‘–

1 ๐‘‘ ๐œŽ ๐‘–

๐”ผ [ โˆ’ โˆ‘ ๐‘˜

1 ๐พ ๐ท โˆž โ€‹ ๐‘‡ โ€‹ โ€– 1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โ€– 1 ] + ๐ท โˆž โ€‹ ๐พ โ€‹ ๐‘‡ โ€‹ โˆ‘ ๐‘–

1 ๐‘‘ ๐œŽ ๐‘– .

Putting this all together, we have

๐น โ‹† โ‰ค ๐”ผ [ ๐น โ€‹ ( ๐ฑ ๐‘ ) ] โ‰ค ๐น โ€‹ ( ๐ฑ 0 ) + ๐”ผ [ ๐‘… ๐‘‡ โ€‹ ( ๐ฎ 1 , โ€ฆ , ๐ฎ ๐‘˜ ) ] + ๐ท โˆž โ€‹ ๐พ โ€‹ ๐‘‡ โ€‹ โˆ‘ ๐‘–

1 ๐‘‘ ๐œŽ ๐‘– โˆ’ ๐ท โˆž โ€‹ ๐‘‡ โ€‹ โˆ‘ ๐‘˜

1 ๐พ ๐”ผ [ โ€– 1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โ€– 1 ] .

Dividing by ๐พ โ€‹ ๐‘‡ โ€‹ ๐ท โˆž

๐ท โˆž โ€‹ ๐‘€ and reordering, we have the stated bound. โˆŽ

We can now prove Theorem 13.

Proof of Theorem 13.

Since ๐’œ guarantees โ€– ๐šซ ๐‘› โ€– โˆž โ‰ค ๐ท โˆž , for all ๐‘› < ๐‘› โ€ฒ โ‰ค ๐‘‡ + ๐‘› โˆ’ 1 , we have

โ€– ๐ฐ ๐‘› โˆ’ ๐ฐ ๐‘› โ€ฒ โ€– โˆž

โ€– ๐ฑ ๐‘› โˆ’ ( 1 โˆ’ ๐‘  ๐‘› ) โ€‹ ๐šซ ๐‘› โˆ’ ๐ฑ ๐‘› โ€ฒ โˆ’ 1 + ๐‘  ๐‘› โ€ฒ โ€‹ ๐šซ ๐‘› โ€ฒ โ€– โˆž

โ‰ค โ€– โˆ‘ ๐‘–

๐‘› + 1 ๐‘› โ€ฒ โˆ’ 1 ๐šซ ๐‘– โ€– โˆž + โ€– ๐šซ ๐‘› โ€– โˆž + โ€– ๐šซ ๐‘› โ€ฒ โ€– โˆž

โ‰ค ๐ท โˆž โ€‹ ( ( ๐‘› โ€ฒ โˆ’ 1 ) โˆ’ ( ๐‘› + 1 ) + 1 ) + 2 โ€‹ ๐ท โˆž

๐ท โˆž โ€‹ ( ๐‘› โ€ฒ โˆ’ ๐‘› + 1 )

โ‰ค ๐ท โˆž โ€‹ ๐‘‡ .

Therefore, we clearly have โ€– ๐ฐ ๐‘ก ๐‘˜ โˆ’ ๐ฐ ยฏ ๐‘˜ โ€– โˆž โ‰ค ๐ท โˆž โ€‹ ๐‘‡

๐›ฟ .

Note that from the choice of ๐พ and ๐‘‡ we have ๐‘€

๐พ โ€‹ ๐‘‡ โ‰ฅ ๐‘ โˆ’ ๐‘‡ โ‰ฅ ๐‘ / 2 . Now, observe that Var โ€‹ ( ๐‘” ๐‘› , ๐‘– ) โ‰ค ๐”ผ [ ๐‘” ๐‘› ๐‘– 2 ] โ‰ค ๐บ ๐‘– 2 . Thus, applying Theorem 30 in concert with the additional assumption ๐”ผ [ ๐‘… ๐‘‡ โ€‹ ( ๐ฎ 1 , โ€ฆ , ๐ฎ ๐พ ) ] โ‰ค ๐ท โˆž โ€‹ ๐พ โ€‹ ๐‘‡ โ€‹ โˆ‘ ๐‘–

1 ๐‘‘ ๐บ ๐‘– , we have

๐”ผ [ 1 ๐พ โ€‹ โˆ‘ ๐‘˜

1 ๐พ โ€– 1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โ€– 1 ]
โ‰ค 2 โ€‹ ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ๐ท โˆž โ€‹ ๐‘ + 2 โ€‹ ๐พ โ€‹ ๐ท โˆž โ€‹ ๐‘‡ โ€‹ โˆ‘ ๐‘–

1 ๐‘‘ ๐บ ๐‘– ๐ท โˆž โ€‹ ๐‘ + โˆ‘ ๐‘–

1 ๐‘‘ ๐บ ๐‘– ๐‘‡

2 โ€‹ ๐‘‡ โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) ๐›ฟ โ€‹ ๐‘ + 3 โ€‹ โˆ‘ ๐‘–

1 ๐‘‘ ๐บ ๐‘– ๐‘‡

โ‰ค max โก ( 5 โ€‹ ( โˆ‘ ๐‘–

1 ๐‘‘ ๐บ ๐‘– ) 2 / 3 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) 1 / 3 ( ๐‘ โ€‹ ๐›ฟ ) 1 / 3 , 6 โ€‹ โˆ‘ ๐‘–

1 ๐‘‘ ๐บ ๐‘– ๐‘ ) + 2 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) ๐›ฟ โ€‹ ๐‘ ,

where the last inequality is due to the choice of ๐‘‡ .

Now to conclude, observe that โ€– ๐ฐ ๐‘ก ๐‘˜ โˆ’ ๐ฐ ยฏ ๐‘˜ โ€– โˆž โ‰ค ๐›ฟ for all ๐‘ก and ๐‘˜ , and also that ๐ฐ ยฏ ๐‘˜

1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ ๐ฐ ๐‘ก ๐‘˜ . Therefore ๐‘†

{ ๐ฐ 1 ๐‘˜ , โ€ฆ , ๐ฐ ๐‘‡ ๐‘˜ } satisfies the conditions in the infimum in Definition 12 so that โ€– โˆ‡ ๐น โ€‹ ( ๐ฐ ยฏ ๐‘˜ ) โ€– 1 , ๐›ฟ โ‰ค โ€– 1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โ€– 1 . โˆŽ

Appendix HDirectional Derivative Setting

In the main text, our algorithms make use of a stochastic gradient oracle. However, the prior work of Zhang et al. (2020b) instead considers a stochastic directional gradient oracle. This is a less common setup, and other works (e.g., Davis et al. (2021)) have also taken our route of tackling non-smooth optimization via an oracle that returns gradients at points of differentiability.

Nevertheless, all our results extend easily to the exact setting of Zhang et al. (2020b) in which ๐น is Lipschitz and directionally differentiable and we have access to a stochastic directional gradient oracle rather than a stochastic gradient oracle. To quantify this setting, we need a bit more notation which we copy directly from Zhang et al. (2020b) below:

First, from Clarke (1990) and Zhang et al. (2020b), the generalized directional derivative of a function ๐น in a direction ๐ is

๐น โˆ˜ โ€‹ ( ๐ฑ , ๐ )

lim sup ๐ฒ โ†’ ๐ฑ โ€‹ ๐‘ก โ†“ 0 ๐‘“ โ€‹ ( ๐ฒ + ๐‘ก โ€‹ ๐ ) โˆ’ ๐‘“ โ€‹ ( ๐ฒ ) ๐‘ก .

(4)

Further, the generalized gradient is the set

โˆ‚ ๐น โ€‹ ( ๐ฑ )

{ ๐  : โŸจ ๐  , ๐ โŸฉ โ‰ค โŸจ ๐น โˆ˜ โ€‹ ( ๐ฑ , ๐ ) , ๐ โŸฉ โ€‹  for all  โ€‹ ๐ } .

Finally, ๐น : โ„ ๐‘‘ โ†’ โ„ is Hadamard directionally differentiable in the direction ๐ฏ โˆˆ โ„ ๐‘‘ if for any function ๐œ“ : โ„ + โ†’ โ„ ๐‘‘ such that lim ๐‘ก โ†’ 0 ๐œ“ โ€‹ ( ๐‘ก ) โˆ’ ๐œ“ โ€‹ ( 0 ) ๐‘ก

๐ฏ and ๐œ“ โ€‹ ( 0 )

๐ฑ , the following limit exists:

lim ๐‘ก โ†’ 0 ๐น โ€‹ ( ๐œ“ โ€‹ ( ๐‘ก ) ) โˆ’ ๐น โ€‹ ( ๐ฑ ) ๐‘ก .

If ๐น is Hadamard directionally differentiable, then the above limit is denoted ๐น โ€ฒ โ€‹ ( ๐ฑ , ๐ฏ ) . When ๐น is Hadamard directionally differentiable for all ๐ฑ and ๐ฏ , then we say simply that ๐น is directionally differentiable.

With these definitions, a stochastic directional oracle for a Lipschitz, directionally differentiable, and bounded from below function ๐น is an oracle Grad โ€‹ ( ๐ฑ , ๐ฏ , ๐ณ ) that outputs ๐  โˆˆ โˆ‚ ๐น โ€‹ ( ๐ฑ ) such that โŸจ ๐  , ๐ฏ โŸฉ

๐น โ€ฒ โ€‹ ( ๐ฑ , ๐ฏ ) . In this case, Zhang et al. (2020b) shows (Lemma 3) that ๐น satisfies an alternative notion of well-behavedness:

๐น โ€‹ ( ๐ฒ ) โˆ’ ๐น โ€‹ ( ๐ฑ )

โˆซ 0 1 โŸจ ๐”ผ [ Grad โ€‹ ( ๐ฑ + ๐‘ก โ€‹ ( ๐ฒ โˆ’ ๐ฑ ) , ๐ฒ โˆ’ ๐ฑ , ๐ณ ) ] , ๐ฒ โˆ’ ๐ฑ โŸฉ โ€‹ ๐‘‘ ๐‘ก .

(5)

Next, we define:

Definition 31.

A point ๐ฑ is a ( ๐›ฟ , ๐œ– ) stationary point of ๐น for the generalized gradient if there is a set of points ๐‘† contained in the ball of radius ๐›ฟ centered at ๐ฑ such that for ๐ฒ selected uniformly at random from ๐‘† , ๐”ผ [ ๐ฒ ]

๐ฑ and for all ๐ฒ there is a choice of ๐  ๐ฒ โˆˆ โˆ‚ ๐น โ€‹ ( ๐ฒ ) such that โ€– ๐”ผ [ ๐  ๐ฒ ] โ€– โ‰ค ๐œ– .

Similarly, we have the definition:

Definition 32.

Given a point ๐ฑ , and a number ๐›ฟ

0 , define:

โ€– โˆ‚ ๐น โ€‹ ( ๐ฑ ) โ€– ๐›ฟ โ‰œ inf ๐‘† โŠ‚ ๐ต โ€‹ ( ๐ฑ , ๐›ฟ ) , 1 | ๐‘† | โ€‹ โˆ‘ ๐ฒ โˆˆ ๐‘† ๐ฒ

๐ฑ , ๐  ๐ฒ โˆˆ โˆ‚ ๐น โ€‹ ( ๐ฒ ) โ€– 1 | ๐‘† | โ€‹ โˆ‘ ๐ฒ โˆˆ ๐‘† ๐  ๐ฒ โ€– .

In fact, whenever a locally Lipschitz function ๐น is differentiable at a point ๐ฑ , we have that โˆ‡ ๐น โ€‹ ( ๐ฑ ) โˆˆ โˆ‚ ๐น โ€‹ ( ๐ฑ ) , so that โ€– โˆ‚ ๐น โ€‹ ( ๐ฑ ) โ€– ๐›ฟ โ‰ค โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– ๐›ฟ . Thus our results in the main text also bound โ€– โˆ‚ ๐น โ€‹ ( ๐ฑ ) โ€– ๐›ฟ . However, while a gradient oracle is also directional derivative oracle, a directional derivative oracle is only guaranteed to be a gradient oracle if ๐น is continuously differentiable at the queried point ๐ฑ . This technical issue means that when we have access to a directional derivative oracle rather than a gradient oracle, we will instead only bound โ€– โˆ‚ ๐น โ€‹ ( ๐ฑ ) โ€– ๐›ฟ rather than โ€– โˆ‡ ๐น โ€‹ ( ๐ฑ ) โ€– ๐›ฟ .

Despite this technical complication, our overall strategy is essentially identical. The key observation is that the only time at which we used the properties of the gradient previously was when we invoked well-behavedness of ๐น . When we have a directional derivative instead of the gradient, the alternative notion of well-behavedness in (5) will play an identical role. Thus, our approach is simply to replace the call to Grad โ€‹ ( ๐ฐ ๐‘› , ๐ณ ๐‘› ) in Algorithm 1 with a call instead to Grad โ€‹ ( ๐ฐ ๐‘› , ๐šซ ๐‘› , ๐ณ ๐‘› ) (see Algorithm 4). With this change, all of our analysis in the main text applies almost without modification. Essentially, we only need to change notation in a few places to reflect the updated definitions.

Algorithm 4 Online-to-Non-Convex Conversion (directional derivative oracle version) โ€‚Input: Initial point ๐ฑ 0 , ๐พ โˆˆ โ„• , ๐‘‡ โˆˆ โ„• , online learning algorithm ๐’œ , ๐‘  ๐‘› for all ๐‘› โ€‚Set ๐‘€

๐พ โ‹… ๐‘‡ โ€‚for  ๐‘›

1 โ€‹ โ€ฆ โ€‹ ๐‘€  do โ€ƒโ€‚Get ๐šซ ๐‘› from ๐’œ โ€ƒโ€‚Set ๐ฑ ๐‘›

๐ฑ ๐‘› โˆ’ 1 + ๐šซ ๐‘› โ€ƒโ€‚Set ๐ฐ ๐‘›

๐ฑ ๐‘› โˆ’ 1 + ๐‘  ๐‘› โ€‹ ๐šซ ๐‘› โ€ƒโ€‚Sample random ๐ณ ๐‘› โ€ƒโ€‚Generate directional derivative ๐  ๐‘›

Grad โ€‹ ( ๐ฐ ๐‘› , ๐šซ ๐‘› , ๐ณ ๐‘› ) โ€ƒโ€‚Send ๐  ๐‘› to ๐’œ as gradient โ€‚end for โ€‚Set ๐ฐ ๐‘ก ๐‘˜

๐ฐ ( ๐‘˜ โˆ’ 1 ) โ€‹ ๐‘‡ + ๐‘ก for ๐‘˜

1 , โ€ฆ , ๐พ and ๐‘ก

1 , โ€ฆ , ๐‘‡ โ€‚Set ๐ฐ ยฏ ๐‘˜

1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ ๐ฐ ๐‘ก ๐‘˜ for ๐‘˜

1 , โ€ฆ , ๐พ โ€‚Return { ๐ฐ ยฏ 1 , โ€ฆ , ๐ฐ ยฏ ๐พ }

To begin this notational update, the counterpart to Theorem 7 is:

Theorem 33.

Suppose ๐น is Lipschitz and directionally differentiable. With the notation in Algorithm 4, if we let ๐‘  ๐‘› be independent random variables uniformly distributed in [ 0 , 1 ] , then for any sequence of vectors ๐ฎ 1 , โ€ฆ , ๐ฎ ๐‘ , if we have the equality:

๐”ผ [ ๐น โ€‹ ( ๐ฑ ๐‘€ ) ]

๐น โ€‹ ( ๐ฑ 0 ) + ๐”ผ [ โˆ‘ ๐‘›

1 ๐‘€ โŸจ ๐  ๐‘› , ๐šซ ๐‘› โˆ’ ๐ฎ ๐‘› โŸฉ ] + ๐”ผ [ โˆ‘ ๐‘›

1 ๐‘€ โŸจ ๐  ๐‘› , ๐ฎ ๐‘› โŸฉ ] .
Proof.
๐น โ€‹ ( ๐ฑ ๐‘› ) โˆ’ ๐น โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 )

โˆซ 0 1 โŸจ ๐”ผ [ Grad โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 + ๐‘  โ€‹ ( ๐ฑ ๐‘› โˆ’ ๐ฑ ๐‘› โˆ’ 1 ) , ๐ฑ ๐‘› โˆ’ ๐ฑ ๐‘› โˆ’ 1 , ๐ณ ๐‘› ) ] , ๐ฑ ๐‘› โˆ’ ๐ฑ ๐‘› โˆ’ 1 โŸฉ โ€‹ d ๐‘ 

๐”ผ [ โŸจ ๐  ๐‘› , ๐šซ ๐‘› โŸฉ ]

๐”ผ [ โŸจ ๐  ๐‘› , ๐šซ ๐‘› โˆ’ ๐ฎ ๐‘› โŸฉ + โŸจ ๐  ๐‘› , ๐ฎ ๐‘› โŸฉ ] .

Where in the second line we have used the definition ๐  ๐‘›

Grad โ€‹ ( ๐ฑ ๐‘› โˆ’ 1 + ๐‘  ๐‘› โ€‹ ( ๐ฑ ๐‘› โˆ’ ๐ฑ ๐‘› โˆ’ 1 ) , ๐ฑ ๐‘› โˆ’ ๐ฑ ๐‘› โˆ’ 1 , ๐ณ ๐‘› ) , the assumption that ๐‘  ๐‘› is uniform on [ 0 , 1 ] , and Fubini theorem (as Grad is bounded by Lipschitzness of ๐น ). Now, sum over ๐‘› and telescope to obtain the stated bound.

โˆŽ

Next, we have the following analog of Theorem 8:

Theorem 34.

With the notation in Algorithm 4, set ๐‘  ๐‘› to be a random variable sampled uniformly from [ 0 , 1 ] . Set ๐‘‡ , ๐พ โˆˆ โ„• and ๐‘€

๐พ โ€‹ ๐‘‡ . Define โˆ‡ ๐‘ก ๐‘˜

๐”ผ [ ๐  ( ๐‘˜ โˆ’ 1 ) โ€‹ ๐‘‡ + ๐‘ก ] . Define ๐ฎ ๐‘˜

โˆ’ ๐ท โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐‘ก ๐‘˜ โ€– โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐‘ก ๐‘˜ โ€– for some ๐ท > 0 for ๐‘˜

1 , โ€ฆ , ๐พ . Finally, suppose Var โ€‹ ( ๐  ๐‘› )

๐œŽ 2 . Then:

๐”ผ [ 1 ๐พ โ€‹ โˆ‘ ๐‘˜

1 ๐พ โ€– 1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐‘ก ๐‘˜ โ€– ]

โ‰ค ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ๐ท โ€‹ ๐‘€ + ๐”ผ [ ๐‘… ๐‘‡ โ€‹ ( ๐ฎ 1 , โ€ฆ , ๐ฎ ๐พ ) ] ๐ท โ€‹ ๐‘€ + ๐œŽ ๐‘‡ .

Proof.

The proof is essentially identical to that of Theorem 8. In Theorem 33, set ๐ฎ ๐‘› to be equal to ๐ฎ 1 for the first ๐‘‡ iterations, ๐ฎ 2 for the second ๐‘‡ iterations and so on. In other words, ๐ฎ ๐‘›

๐ฎ ๐‘š โ€‹ ๐‘œ โ€‹ ๐‘‘ โ€‹ ( ๐‘› , ๐‘‡ ) + 1 for ๐‘›

1 , โ€ฆ , ๐‘€ . So, we have

๐”ผ [ ๐น โ€‹ ( ๐ฑ ๐‘€ ) ]

๐น โ€‹ ( ๐ฑ 0 ) + ๐”ผ [ ๐‘… ๐‘‡ โ€‹ ( ๐ฎ 1 , โ€ฆ , ๐ฎ ๐พ ) ] + ๐”ผ [ โˆ‘ ๐‘›

1 ๐‘€ โŸจ ๐  ๐‘› , ๐ฎ ๐‘› โŸฉ ] .

Now, since ๐ฎ ๐‘˜

โˆ’ ๐ท โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐‘ก ๐‘˜ โ€– โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐‘ก ๐‘˜ โ€– , and Var โ€‹ ( ๐  ๐‘› )

๐œŽ 2 , we have

๐”ผ [ โˆ‘ ๐‘›

1 ๐‘€ โŸจ ๐  ๐‘› , ๐ฎ ๐‘› โŸฉ ]
โ‰ค ๐”ผ [ โˆ‘ ๐‘˜

1 ๐พ โŸจ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐‘ก ๐‘˜ , ๐ฎ ๐‘˜ โŸฉ ] + ๐”ผ [ ๐ท โ€‹ โˆ‘ ๐‘˜

1 ๐พ โ€– โˆ‘ ๐‘ก

1 ๐‘‡ ( โˆ‡ ๐‘ก ๐‘˜ โˆ’ ๐  ( ๐‘˜ โˆ’ 1 ) โ€‹ ๐‘‡ + ๐‘ก ) โ€– ]

โ‰ค ๐”ผ [ โˆ‘ ๐‘˜

1 ๐พ โŸจ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐‘ก ๐‘˜ , ๐ฎ ๐‘˜ โŸฉ ] + ๐ท โ€‹ ๐œŽ โ€‹ ๐พ โ€‹ ๐‘‡

๐”ผ [ โˆ’ โˆ‘ ๐‘˜

1 ๐พ ๐ท โ€‹ ๐‘‡ โ€‹ โ€– 1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐‘ก ๐‘˜ โ€– ] + ๐ท โ€‹ ๐œŽ โ€‹ ๐พ โ€‹ ๐‘‡ .

Putting this all together, we have

๐น โ‹†
โ‰ค ๐”ผ [ ๐น โ€‹ ( ๐ฑ ๐‘€ ) ] โ‰ค ๐น โ€‹ ( ๐ฑ 0 ) + ๐”ผ [ ๐‘… ๐‘‡ โ€‹ ( ๐ฎ 1 , โ€ฆ , ๐ฎ ๐พ ) ] + ๐œŽ โ€‹ ๐ท โ€‹ ๐พ โ€‹ ๐‘‡ โˆ’ ๐ท โ€‹ ๐‘‡ โ€‹ โˆ‘ ๐‘˜

1 ๐พ ๐”ผ [ โ€– 1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐น โ€‹ ( ๐ฐ ๐‘ก ๐‘˜ ) โ€– ] .

Dividing by ๐พ โ€‹ ๐ท โ€‹ ๐‘‡

๐ท โ€‹ ๐‘€ and reordering, we have the stated bound. โˆŽ

Finally, we instantiate Theorem 34 with online gradient descent to obtain the analog of Corollary 9. This result establishes that the online-to-batch conversion finds an ( ๐›ฟ , ๐œ– ) critical point in ๐‘‚ โ€‹ ( 1 / ๐œ– 3 โ€‹ ๐›ฟ ) iterations, even when using a directional derivative oracle. Further, our lower bound construction makes use of continuously differentiable functions, for which the directional derivative oracle and the standard gradient oracle must coincide. Thus the ๐‘‚ โ€‹ ( 1 / ๐œ– 3 โ€‹ ๐›ฟ ) complexity is optimal in this setting as well.

Corollary 35.

Suppose we have a budget of ๐‘ gradient evaluations. Under the assumptions and notation of Theorem 34, suppose in addition ๐”ผ [ โ€– ๐  ๐‘› โ€– 2 ] โ‰ค ๐บ 2 and that ๐’œ guarantees โ€– ๐šซ ๐‘› โ€– โ‰ค ๐ท for some user-specified ๐ท for all ๐‘› and ensures the worst-case ๐พ -shifting regret bound ๐”ผ [ ๐‘… ๐‘‡ โ€‹ ( ๐ฎ 1 , โ€ฆ , ๐ฎ ๐พ ) ] โ‰ค ๐ท โ€‹ ๐บ โ€‹ ๐พ โ€‹ ๐‘‡ for all โ€– ๐ฎ ๐‘˜ โ€– โ‰ค ๐ท (e.g., as achieved by the OGD algorithm that is reset every ๐‘‡ iterations). Let ๐›ฟ > 0 be an arbitrary number. Set ๐ท

๐›ฟ / ๐‘‡ , ๐‘‡

min โก ( โŒˆ ( ๐บ โ€‹ ๐‘ โ€‹ ๐›ฟ ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) 2 / 3 โŒ‰ , ๐‘ 2 ) , and ๐พ

โŒŠ ๐‘ ๐‘‡ โŒ‹ . Then, for all ๐‘˜ and ๐‘ก , โ€– ๐ฐ ยฏ ๐‘˜ โˆ’ ๐ฐ ๐‘ก ๐‘˜ โ€– โ‰ค ๐›ฟ .

Moreover, we have the inequality

๐”ผ
[ 1 ๐พ โ€‹ โˆ‘ ๐‘˜

1 ๐พ โ€– 1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐‘ก ๐‘˜ โ€– ] โ‰ค 2 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) ๐›ฟ โ€‹ ๐‘ + max โก ( 5 โ€‹ ๐บ 2 / 3 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) 1 / 3 ( ๐‘ โ€‹ ๐›ฟ ) 1 / 3 , 6 โ€‹ ๐บ ๐‘ ) ,

which implies

1 ๐พ
โˆ‘ ๐‘ก

1 ๐พ โ€– โˆ‚ ๐น โ€‹ ( ๐ฐ ยฏ ๐‘˜ ) โ€– ๐›ฟ โ‰ค 2 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) ๐›ฟ โ€‹ ๐‘ + max โก ( 5 โ€‹ ๐บ 2 / 3 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) 1 / 3 ( ๐‘ โ€‹ ๐›ฟ ) 1 / 3 , 6 โ€‹ ๐บ ๐‘ ) .

Proof.

Since ๐’œ guarantees โ€– ๐šซ ๐‘› โ€– โ‰ค ๐ท , for all ๐‘› < ๐‘› โ€ฒ โ‰ค ๐‘‡ + ๐‘› โˆ’ 1 , we have

โ€– ๐ฐ ๐‘› โˆ’ ๐ฐ ๐‘› โ€ฒ โ€–

โ€– ๐ฑ ๐‘› โˆ’ ( 1 โˆ’ ๐‘  ๐‘› ) โ€‹ ๐šซ ๐‘› โˆ’ ๐ฑ ๐‘› โ€ฒ โˆ’ 1 + ๐‘  ๐‘› โ€ฒ โ€‹ ๐šซ ๐‘› โ€ฒ โ€–

โ‰ค โ€– โˆ‘ ๐‘–

๐‘› + 1 ๐‘› โ€ฒ โˆ’ 1 ๐šซ ๐‘– โ€– + โ€– ๐šซ ๐‘› โ€– + โ€– ๐šซ ๐‘› โ€ฒ โ€–

โ‰ค ๐ท โ€‹ ( ( ๐‘› โ€ฒ โˆ’ 1 ) โˆ’ ( ๐‘› + 1 ) + 1 ) + 2 โ€‹ ๐ท

๐ท โ€‹ ( ๐‘› โ€ฒ โˆ’ ๐‘› + 1 ) โ‰ค ๐ท โ€‹ ๐‘‡ .

Therefore, we clearly have โ€– ๐ฐ ๐‘ก ๐‘˜ โˆ’ ๐ฐ ยฏ ๐‘˜ โ€– โ‰ค ๐ท โ€‹ ๐‘‡

๐›ฟ .

Note that from the choice of ๐พ and ๐‘‡ we have ๐‘€

๐พ โ€‹ ๐‘‡ โ‰ฅ ๐‘ โˆ’ ๐‘‡ โ‰ฅ ๐‘ / 2 . So, for the second fact, notice that Var โ€‹ ( ๐  ๐‘› ) โ‰ค ๐บ 2 for all ๐‘› . Thus, applying Theorem 34 in concert with the additional assumption ๐”ผ [ ๐‘… ๐‘‡ โ€‹ ( ๐ฎ 1 , โ€ฆ , ๐ฎ ๐พ ) ] โ‰ค ๐ท โ€‹ ๐บ โ€‹ ๐พ โ€‹ ๐‘‡ , we have:

๐”ผ [ 1 ๐พ โ€‹ โˆ‘ ๐‘˜

1 ๐พ โ€– 1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐‘ก ๐‘˜ โ€– ]

โ‰ค 2 โ€‹ ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ๐ท โ€‹ ๐‘ + 2 โ€‹ ๐พ โ€‹ ๐ท โ€‹ ๐บ โ€‹ ๐‘‡ ๐ท โ€‹ ๐‘ + ๐บ ๐‘‡

โ‰ค 2 โ€‹ ๐‘‡ โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) ๐›ฟ โ€‹ ๐‘ + 3 โ€‹ ๐บ ๐‘‡

โ‰ค max โก ( 5 โ€‹ ๐บ 2 / 3 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) 1 / 3 ( ๐‘ โ€‹ ๐›ฟ ) 1 / 3 , 6 โ€‹ ๐บ ๐‘ ) + 2 โ€‹ ( ๐น โ€‹ ( ๐ฑ 0 ) โˆ’ ๐น โ‹† ) ๐›ฟ โ€‹ ๐‘ ,

where the last inequality is due to the choice of ๐‘‡ .

Finally, observe that โ€– ๐ฐ ๐‘ก ๐‘˜ โˆ’ ๐ฐ ยฏ ๐‘˜ โ€– โ‰ค ๐›ฟ for all ๐‘ก and ๐‘˜ , and also that ๐ฐ ยฏ ๐‘˜

1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ ๐ฐ ๐‘ก ๐‘˜ . Therefore ๐‘†

{ ๐ฐ 1 ๐‘˜ , โ€ฆ , ๐ฐ ๐‘‡ ๐‘˜ } satisfies the conditions in the infimum in Definition 32 so that โ€– โˆ‚ ๐น โ€‹ ( ๐ฐ ยฏ ๐‘˜ ) โ€– ๐›ฟ โ‰ค โ€– 1 ๐‘‡ โ€‹ โˆ‘ ๐‘ก

1 ๐‘‡ โˆ‡ ๐‘ก ๐‘˜ โ€– . โˆŽ

Report Issue Report Issue for Selection Generated by L A T E xml Instructions for reporting errors

We are continuing to improve HTML versions of papers, and your feedback helps enhance accessibility and mobile support. To report errors in the HTML that will help us improve conversion and rendering, choose any of the methods listed below:

Click the "Report Issue" button. Open a report feedback form via keyboard, use "Ctrl + ?". Make a text selection and click the "Report Issue for Selection" button near your cursor. You can use Alt+Y to toggle on and Alt+Shift+Y to toggle off accessible reporting links at each section.

Our team has already identified the following issues. We appreciate your time reviewing and reporting rendering errors we may not have found yet. Your efforts will help us improve the HTML versions for all readers, because disability should not be a barrier to accessing research. Thank you for your continued support in championing open access for all.

Have a free development cycle? Help support accessibility at arXiv! Our collaborators at LaTeXML maintain a list of packages that need conversion, and welcome developer contributions.

Xet Storage Details

Size:
132 kB
ยท
Xet hash:
f37619abcd901921ebcdec13e99257221ddf1132b3f9f9f42f3c198d662a6be0

Xet efficiently stores files, intelligently splitting them into unique chunks and accelerating uploads and downloads. More info.