Search

Simon Lacoste-Julien

La nomination

  • Boursier
  • Apprentissage automatique, apprentissage biologique

Institution

  • Université de Montréal
Département d'informatique et de recherche opérationnelle

Pays

  • Canada

Éducation

Ph.D. (informatique), Université de la Californie à Berkeley
B.Sc. spécialisé (mathématiques et physique, et mathématiques et informatique), Université McGill

À propos

Les recherches de Simon Lacoste-Julien portent sur l’apprentissage automatique, c’est-à-dire comment programmer un ordinateur pour qu’il apprenne des données et réalise des tâches utiles.

Son objectif de recherche principal est de mettre au point et d’analyser des techniques d’apprentissage automatique qui peuvent exploiter, à large échelle, la riche structure de données dans des applications interdisciplinaires, comme le traitement du langage naturel, l’extraction d’information, la vision artificielle et la biologie computationnelle. À cette fin, il associe des outils d’optimisation, de statistiques et d’informatique, et il aime particulièrement travailler à l’interface entre les domaines. Lacoste-Julien est reconnu pour ses contributions dans trois domaines : prédiction structurée (problèmes de classification où les extrants sont des objets structurés, comme des séquences ou des graphiques); optimisation à large échelle (méthode des gradients incrémentaux et optimisation de Frank-Wolfe); et association de méthodes génératives et discriminatoires.

Prix

Subvention à la découverte du CRSNG, 2017

Google Focused Research Award, 2016

Wolfson College Junior Research Fellowship, Université de Cambridge, 2009–2011

Prix d’étudiant diplômé du Collège de génie de l’Université de la Californie à Berkeley, 2008

Publications Pertinentes

Osokin, A., F. Bach et S. Lacoste-Julien. « On Structured Prediction Theory with Calibrated Convex Surrogate Losses. » Article présenté à la NIPS conference, Long Beach, 2017.

Lacoste-Julien, S. et M. Jaggi. « On the Global Linear Convergence of Frank-Wolfe Optimization Variants. » Article présenté à la conférence NIPS, Montréal, 2015.

Defazio, A., F. Bach et S. Lacoste-Julien. « SAGA: A Fast Incremental Gradient Method With Support for Non-Strongly Convex Composite Objectives. » Article présenté à la conférence NIPS, Montréal, 2014.

Lacoste-Julien, S. et coll. « Block-Coordinate Frank-Wolfe Optimization for Structural SVMs. » Article présenté à la conférence ICML, Atlanta, Georgia, 2013.

Lacoste-Julien, S., F. Huszár et Z. Ghahramani. « Approximate Inference for the Loss-Calibrated Bayesian. » Article présenté à la conférence AISTATS, Fort Lauderdale, Florida, 2011.

Connecter

Google Scholar