Otimização para Ciência de Dados

Conjuntos convexos; Funções convexas; Problema de otimização; Método do gradiente descendente; Método do subgradiente; Método de Newton; Programação linear e quadrática; Dualidade; Condições de otimalidade de Karush-Kuhn-Tucker. Métodos do ponto interior; Coordinate descent; Gradiente conjugado; Região de confiança; Gradiente descendente estocástico. Aplicações em problemas de estatística e aprendizado de máquinas.

Informações Básicas

Carga horária
60
Pré-requisito
Álgebra Linear, Teoria da Probabilidade e Cálculo em várias variáveis

Obrigatória: 

  • Boyd, Stephen, and Lieven Vanderberghe. Convex Optimization. Cambridge, UK: Cambridge University Press, 2004.
  • Izmailov, Alexey, and Mikhail Solodov. Otimização, Volume 1: Condições de Otimalidade, Elementos de Análise Convexa e de Dualidade. IMPA. 2009.
  • Izmailov, A., and M. SOLODOV. Otimização Volume 2: Condições de Otimalidade, Métodos Computacionais. 2014.

Complementar: 

  • Kecman, Vojislav. Learning and soft computing: support vector machines, neural networks, and fuzzy logic models. MIT press, 2001.
  • Hastie, T., R. Tibshirani, and J. Friedman. "The elements of statistical learning" Springer. 2009.
  • J. Nocedal and S. J. Wright, Numerical Optimization, 2nd Ed, Springer, 2006.
  • P. Pedregal, Introduction to Optimization, Springer, 2004.
  • Bubeck, Sébastien. "Convex optimization: Algorithms and complexity." Foundations and Trends® in Machine Learning 8.3-4 (2015): 231-357.
A A A
High contrast

Esse site usa cookies

Nosso website coleta informações do seu dispositivo e da sua navegação e utiliza tecnologias como cookies para armazená-las e permitir funcionalidades como: melhorar o funcionamento técnico das páginas, mensurar a audiência do website e oferecer produtos e serviços relevantes por meio de anúncios personalizados. Para mais informações, acesse o nosso Aviso de Cookies e o nosso Aviso de Privacidade.