O método do gradiente conjugado estocástico

dc.creatorLucas Almeida Portela
dc.date.accessioned2026-02-27T14:47:35Z
dc.date.issued2025-12-10
dc.description.abstractIn this work, we develop stochastic linear and nonlinear conjugate gradient methods, establishing, based on probability theory, almost sure convergence and convergence rate analysis for the solution of stochastic optimization problems. For these results, we employ the concept of nonnegative quasi-supermartingales, introduced by Robbins and Siegmund (1971), which generalizes the concept of nonnegative supermartingales. Regarding the convergence rate analysis of the proposed stochastic linear method, we obtain a rate of order $O\bigg(\dfrac{1}{k\log k}\bigg)$, which is superior to that of the Robbins-Monro method, whose convergence rate is $O\bigg(\dfrac{1}{k}\bigg)$, for the same class of problems analysed. Subsequently, we develop a stochastic version of the nonlinear conjugate gradient method, whose main features, in the proofs of almost sure convergence and convergence rate analysis, include the use of estimates of the gradient and the objective function values and, in particular, the adoption of a line search satisfying the Armijo condition, which is less restrictive than the Wolfe condition.
dc.identifier.urihttps://hdl.handle.net/1843/1802
dc.languagepor
dc.publisherUniversidade Federal de Minas Gerais
dc.rightsAcesso aberto
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 Brazilen
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/br/
dc.subjectMatemática - Teses
dc.subjectOtimização matemática - Teses
dc.subjectMétodos do gradiente conjugado - Teses
dc.subject.otherOtimização estocástica
dc.subject.otherGradiente conjugado
dc.subject.otherGradiente conjugado estocástico
dc.titleO método do gradiente conjugado estocástico
dc.title.alternativeThe stochastic conjugate gradient method
dc.typeTese de doutorado
local.contributor.advisor-co1Bernardo Nunes Borges de Lima
local.contributor.advisor-co1Luis Carlos de Castro Santos
local.contributor.advisor-co1Latteshttp://lattes.cnpq.br/6614000692805715
local.contributor.advisor-co1Latteshttp://lattes.cnpq.br/5181059029789860
local.contributor.advisor1Ricardo Hiroshi Caldeira Takahashi
local.contributor.advisor1Latteshttp://lattes.cnpq.br/4947186824317781
local.contributor.referee1Anatoli Iambartsev
local.contributor.referee1Carlos M Fonseca
local.contributor.referee1Marcelo Richard Hilário
local.contributor.referee1Renato Soares dos Santos
local.contributor.referee1Roberto Imbuzeiro Moraes Felinto de Oliveira
local.creator.Latteshttp://lattes.cnpq.br/3901100267135901
local.description.resumoNeste trabalho, desenvolvemos o método do gradiente conjugado linear e não linear estocásticos, demonstrando, utilizando a teoria da probabilidade, a convergência quase certa e a análise da taxa de convergência para a solução de problemas de otimização estocásticos. Para essas demonstrações, usamos o conceito de quase supermartingales não negativos, introduzido por Robbins e Siegmund (1971), que generaliza o conceito de supermartingales não negativos. No que se refere à análise da taxa de convergência do método linear estocástico proposto, obtemos uma taxa da ordem $O\bigg(\dfrac{1}{k\log k}\bigg)$, superior à do método de Robbins e Monro, cuja taxa de convergência é $O\bigg(\dfrac{1}{k}\bigg)$ para a mesma classe de problemas considerada. Em seguida, desenvolvemos uma versão estocástica do método do gradiente conjugado não linear, cujas principais características, no contexto das demonstrações de convergência quase certa e da análise da taxa de convergência, incluem o uso de estimativas do gradiente e dos valores da função custo e, sobretudo, a adoção de uma busca em linha que satisfaz a condição de Armijo, a qual é menos restritiva do que a condição de Wolfe.
local.publisher.countryBrasil
local.publisher.departmentICX - DEPARTAMENTO DE MATEMÁTICA
local.publisher.initialsUFMG
local.publisher.programPrograma de Pós-Graduação em Matemática
local.subject.cnpqCIENCIAS EXATAS E DA TERRA::PROBABILIDADE E ESTATISTICA::PROBABILIDADE::TEORIA GERAL E PROCESSOS ESTOCASTICOS

Arquivos

Pacote original

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
Tese_O metodo do gradiente conjugado estocastico.pdf
Tamanho:
4.39 MB
Formato:
Adobe Portable Document Format

Licença do pacote

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
license.txt
Tamanho:
2.07 KB
Formato:
Item-specific license agreed to upon submission
Descrição: