BakIr, G. et al. (2007). Predicting structured data. Cambridge, Mass.: MIT Press.
Bishop, C. M. (2006). Pattern recognition and machine learning. New York: Springer.
Chapelle, O., Schoelkopf, B., and Zien, A. (2006). Semi-supervised learning. Cambridge, Mass.: MIT Press.
Charniak, E. (1993). Statistical language learning. Cambridge, Mass.: MIT Press.
w
Cristianini, N. and Shawe-Taylor, J. (2000). An introduction to support vector machines: and other kernel-based learning methods. Cambridge: Cambridge University Press.
Darwiche, A. (2009). Modeling and reasoning with Bayesian networks. Cambridge: Cambridge University Press.
Duda, R. O., Hart, P. E., and Stork, D. G. (2001). Pattern classification. New York: Wiley.
Getoor, L. and Taskar, B. (2007). Introduction to statistical relational learning. Cambridge, Mass.: MIT Press.
Jensen, F. V. and Nielsen, T. D. (2007). Bayesian networks and decision graphs. New York: Springer.
MacKay, D. J. C. (2003). Information theory, inference, and learning algorithms. Cambridge, UK: Cambridge University Press.
Manning, C. D., Raghavan, P., and Schuetze, H. (2008). Introduction to information retrieval. New York: Cambridge University Press.
Mitchell, T. M. (1997). Machine Learning. New York: McGraw-Hill.
Neapolitan, R. E. (2004). Learning Bayesian networks. Upper Saddle River, NJ: Pearson Prentice Hall.
Rasmussen, C. E. and Williams, C. K. I. (2006). Gaussian processes for machine learning. Cambridge, Mass.: MIT Press.
Schoelkopf, B. and Smola, A. J. (2002). Learning with kernels: support vector machines, regularization, optimization, and beyond. Cambridge, Mass.: MIT Press.
Shawe-Taylor, J. and Cristianini, N. (2004). Kernel methods for pattern analysis. Cambridge, UK: Cambridge University Press.
Vapnik, V. N. (2000). The nature of statistical learning theory. New York: Springer.
Wasserman, L. (2006). All of nonparametric statistics. New York: Springer.
Wasserman, L. (2004). All of statistics: a concise course in statistical inference. New York: Springer.
Witten, I. H. and Frank, E. (2005). Data mining: practical machine learning tools and techniques. Amsterdam: Morgan Kaufman.
Zhu, X. and Goldberg, A. B. (2009). Introduction to Semi-Supervised Learning. Morgan and Claypool Publishers.
Obiettivi Formativi
Imparerete vari algoritmi fondamentali ed avanzati per l'apprendimento statistico, conoscerete gli aspetti di base della teoria computazionale dell'apprendimento, e sarete in grado di progettare soluzioni allo stato dell'arte per risolvere problemi applicativi.
Prerequisiti
Una buona conoscenza di un linguaggio di programmazione e solide basi di matematica (analisi, algebra lineare, teoria
della probabilità). Conoscenze preliminari di tecniche di ottimizzazione
e di statistica sono utili ma non strettamente necessarie
L'esame consiste di un'unica prova orale. L'argomento è a vostra scelta
ma vi consiglio di concordarlo con me prima di iniziare la preparazione.
Di solito viene assegnata la lettura di alcuni articoli scientifici e potrebbe
essere richiesto riprodurre alcuni risultati sperimentali.
Dovrete esporre brevemente (30 minuti) il vostro argomento. Assicuratevi
che la presentazione includa un'introduzione al problema studiato, una breve rassegna
della letteratura rilevante, descrizione tecnica del metodo e, se appropriato, una
descrizione dettagliata del lavoro sperimentale. Potete usare strumenti multimediali
per la vostra presentazione. Siete responsabili della comprensione
dei concetti rilevanti e della teoria.
Potete formare gruppi di due studenti (tre in casi eccezionali e motivati)
per lavori di tipo sperimentale. In questi casi assicuratevi che il contributo
apportato da ciascuno di voi sia chiaramente riconoscibile.