Conjuntos convexos; Funções convexas; Problema de otimização; Método do gradiente descendente; Método do subgradiente; Método de Newton; Programação linear e quadrática; Dualidade; Condições de otimalidade de Karush-Kuhn-Tucker. Métodos do ponto interior; Coordinate descent; Gradiente conjugado; Região de confiança; Gradiente descendente estocástico. Aplicações em problemas de estatística e aprendizado de máquinas.
Informações Básicas
Obrigatória:
- Boyd, Stephen, and Lieven Vanderberghe. Convex Optimization. Cambridge, UK: Cambridge University Press, 2004.
- Izmailov, Alexey, and Mikhail Solodov. Otimização, Volume 1: Condições de Otimalidade, Elementos de Análise Convexa e de Dualidade. IMPA. 2009.
- Izmailov, A., and M. SOLODOV. Otimização Volume 2: Condições de Otimalidade, Métodos Computacionais. 2014.
Complementar:
- Kecman, Vojislav. Learning and soft computing: support vector machines, neural networks, and fuzzy logic models. MIT press, 2001.
- Hastie, T., R. Tibshirani, and J. Friedman. "The elements of statistical learning" Springer. 2009.
- J. Nocedal and S. J. Wright, Numerical Optimization, 2nd Ed, Springer, 2006.
- P. Pedregal, Introduction to Optimization, Springer, 2004.
- Bubeck, Sébastien. "Convex optimization: Algorithms and complexity." Foundations and Trends® in Machine Learning 8.3-4 (2015): 231-357.