O método do gradiente conjugado estocástico

Carregando...
Imagem de Miniatura

Título da Revista

ISSN da Revista

Título de Volume

Editor

Universidade Federal de Minas Gerais

Descrição

Tipo

Tese de doutorado

Título alternativo

The stochastic conjugate gradient method

Membros da banca

Anatoli Iambartsev
Carlos M Fonseca
Marcelo Richard Hilário
Renato Soares dos Santos
Roberto Imbuzeiro Moraes Felinto de Oliveira

Resumo

Neste trabalho, desenvolvemos o método do gradiente conjugado linear e não linear estocásticos, demonstrando, utilizando a teoria da probabilidade, a convergência quase certa e a análise da taxa de convergência para a solução de problemas de otimização estocásticos. Para essas demonstrações, usamos o conceito de quase supermartingales não negativos, introduzido por Robbins e Siegmund (1971), que generaliza o conceito de supermartingales não negativos. No que se refere à análise da taxa de convergência do método linear estocástico proposto, obtemos uma taxa da ordem $O\bigg(\dfrac{1}{k\log k}\bigg)$, superior à do método de Robbins e Monro, cuja taxa de convergência é $O\bigg(\dfrac{1}{k}\bigg)$ para a mesma classe de problemas considerada. Em seguida, desenvolvemos uma versão estocástica do método do gradiente conjugado não linear, cujas principais características, no contexto das demonstrações de convergência quase certa e da análise da taxa de convergência, incluem o uso de estimativas do gradiente e dos valores da função custo e, sobretudo, a adoção de uma busca em linha que satisfaz a condição de Armijo, a qual é menos restritiva do que a condição de Wolfe.

Abstract

In this work, we develop stochastic linear and nonlinear conjugate gradient methods, establishing, based on probability theory, almost sure convergence and convergence rate analysis for the solution of stochastic optimization problems. For these results, we employ the concept of nonnegative quasi-supermartingales, introduced by Robbins and Siegmund (1971), which generalizes the concept of nonnegative supermartingales. Regarding the convergence rate analysis of the proposed stochastic linear method, we obtain a rate of order $O\bigg(\dfrac{1}{k\log k}\bigg)$, which is superior to that of the Robbins-Monro method, whose convergence rate is $O\bigg(\dfrac{1}{k}\bigg)$, for the same class of problems analysed. Subsequently, we develop a stochastic version of the nonlinear conjugate gradient method, whose main features, in the proofs of almost sure convergence and convergence rate analysis, include the use of estimates of the gradient and the objective function values and, in particular, the adoption of a line search satisfying the Armijo condition, which is less restrictive than the Wolfe condition.

Assunto

Matemática - Teses, Otimização matemática - Teses, Métodos do gradiente conjugado - Teses

Palavras-chave

Otimização estocástica, Gradiente conjugado, Gradiente conjugado estocástico

Citação

Endereço externo

Avaliação

Revisão

Suplementado Por

Referenciado Por

Licença Creative Commons

Exceto quando indicado de outra forma, a licença deste item é descrita como Acesso aberto