O problema do aprendizado estatístico. Treinamento versus teste (dimensão Vapnik-Chervonenkis, treinamento e generalização). Modelo linear (regressão linear, não linear e logística). O que é e como detectar e lidar com overfitting. Princípios de aprendizado de máquinas: navalha de Ocam, viés de amostra e data snooping. Métodos baseados em similaridade (vizinho mais próximo, funções de base radial, estimação de densidades). Redes neurais (MLP, treinamento, aproximação e regularização). Máquinas de vetor de suporte. Métodos de agregação. Seleção de variáveis.
Informações Básicas
Obrigatória:
- Abu-Moustafa, Y.S., Magdon-Ismail, M. e Lin H-S. (2012). Learning from data. AML-Book.com.
- Murphy, K. P. (2013). Machine learning: a probabilistic perspective. The MIT Press.
- Hastie, T., Tibishirani, R., & Friedman, J. (2002). The elements of statistical learning. Springer Series in Statistics.
- Mohri, M.; Rostamizadeh, A. Foudantions of machine learning. MIT Press.
- Devroye, Luc; Gyorfi, Laszló and Lugosi. Springer. Probabilistic theory of pattern recognition.
Complementar:
- Efron, Bradley, and Trevor Hastie. Computer age statistical inference. Vol. 5. Cambridge University Press, 2016.
- Kecman, Learning and Soft Computing MIT Press, 2001.