O método do gradiente conjugado estocástico
Carregando...
Data
Autor(es)
Título da Revista
ISSN da Revista
Título de Volume
Editor
Universidade Federal de Minas Gerais
Descrição
Tipo
Tese de doutorado
Título alternativo
The stochastic conjugate gradient method
Primeiro orientador
Membros da banca
Anatoli Iambartsev
Carlos M Fonseca
Marcelo Richard Hilário
Renato Soares dos Santos
Roberto Imbuzeiro Moraes Felinto de Oliveira
Carlos M Fonseca
Marcelo Richard Hilário
Renato Soares dos Santos
Roberto Imbuzeiro Moraes Felinto de Oliveira
Resumo
Neste trabalho, desenvolvemos o método do gradiente conjugado linear e não linear estocásticos, demonstrando, utilizando a teoria da probabilidade, a convergência quase certa e a análise da taxa de convergência para a solução de problemas de otimização estocásticos. Para essas demonstrações, usamos o conceito de quase supermartingales não negativos, introduzido por Robbins e Siegmund (1971), que generaliza o conceito de supermartingales não negativos. No que se refere à análise da taxa de convergência do método linear estocástico proposto, obtemos uma taxa da ordem $O\bigg(\dfrac{1}{k\log k}\bigg)$, superior à do método de Robbins e Monro, cuja taxa de convergência é $O\bigg(\dfrac{1}{k}\bigg)$ para a mesma classe de problemas considerada. Em seguida, desenvolvemos uma versão estocástica do método do gradiente conjugado não linear, cujas principais características, no contexto das demonstrações de convergência quase certa e da análise da taxa de convergência, incluem o uso de estimativas do gradiente e dos valores da função custo e, sobretudo, a adoção de uma busca em linha que satisfaz a condição de Armijo, a qual é menos restritiva do que a condição de Wolfe.
Abstract
In this work, we develop stochastic linear and nonlinear conjugate gradient methods, establishing, based on probability theory, almost sure convergence and convergence rate analysis for the solution of stochastic optimization problems. For these results, we employ the concept of nonnegative quasi-supermartingales, introduced by Robbins and Siegmund (1971), which generalizes the concept of nonnegative supermartingales. Regarding the convergence rate analysis of the proposed stochastic linear method, we obtain a rate of order $O\bigg(\dfrac{1}{k\log k}\bigg)$, which is superior to that of the Robbins-Monro method, whose convergence rate is $O\bigg(\dfrac{1}{k}\bigg)$, for the same class of problems analysed. Subsequently, we develop a stochastic version of the nonlinear conjugate gradient method, whose main features, in the proofs of almost sure convergence and convergence rate analysis, include the use of estimates of the gradient and the objective function values and, in particular, the adoption of a line search satisfying the Armijo condition, which is less restrictive than the Wolfe condition.
Assunto
Matemática - Teses, Otimização matemática - Teses, Métodos do gradiente conjugado - Teses
Palavras-chave
Otimização estocástica, Gradiente conjugado, Gradiente conjugado estocástico
Citação
Departamento
Endereço externo
Avaliação
Revisão
Suplementado Por
Referenciado Por
Licença Creative Commons
Exceto quando indicado de outra forma, a licença deste item é descrita como Acesso aberto
