Search
  • Article de fond
  • Apprentissage automatique, apprentissage biologique

Graham Taylor, champion de l’innovation et de l’entrepreneuriat en IA

by Eva Voinigescu août 11 / 17
grahamtaylor-ai_R2
Graham Taylor, Chercheur mondial ICRA-Azrieli

En septembre dernier, quand vingt équipes se sont réunies à l’occasion de la première journée jeunes entreprises de NextAI pour se faire concurrence et devenir le prochain Shopify, Uber ou Wealthsimple – mais en exploitant la technologie de l’apprentissage automatique que cet incubateur souhaite contribuer à commercialiser – le grand gagnant fut une poubelle fondée sur l’apprentissage automatique qui trie et détourne les déchets des sites d’enfouissement, tout en recueillant des données sur la consommation et la démographie.

Cela peut sembler étrange, mais depuis quelques années, l’IA occupe une place croissante dans notre vie quotidienne. En anticipant sa prochaine application, nous pourrions non seulement changer notre mode de vie, mais aussi l’économie dans son ensemble.

« Quand je parle d’IA et d’apprentissage automatique aux gens, je leur dis que je suis emballé par cette technologie, car elle pourrait avoir un impact dans tous les secteurs », dit Graham Taylor, Chercheur mondial CIFAR-Azrieli et directeur universitaire du programme d’incubateur d’entreprises de NextAI. À ce titre, Taylor a supervisé l’application de l’apprentissage automatique dans des domaines aussi variés que les finances, la santé, les ressources naturelles et la gestion des déchets

« On peut faire une analogie avec les logiciels. Il est pratiquement impossible de penser à une industrie qui n’a pas été transformée par les logiciels. L’apprentissage automatique est, essentiellement, un logiciel qui écrit un logiciel. Même si de voir les choses ainsi fait un peu peur, on se rend compte que les possibilités sont infinies. »

NextAI n’est que l’une des initiatives en IA dont s’occupe Taylor, spécialiste de l’apprentissage automatique et professeur à l’école de génie de l’Université de Guelph. Qu’il s’agisse de sa participation au programme Apprentissage automatique, apprentissage biologique du CIFAR, de son poste au tout nouvel Institut Vecteur, de ses liens avec le Laboratoire de destruction créatrice ou de son rôle de conseiller scientifique auprès d’une poignée de jeunes entreprises en apprentissage automatique, Taylor joue un rôle important dans la sphère dirigeante de l’IA au Canada.

Évidemment, rien de tout cela n’aurait été possible sans sa première exposition au domaine en tant qu’étudiant de quatrième année en génie de conception des systèmes à l’Université de Waterloo. Son professeur avait demandé aux étudiants de concevoir leur propre IA pour jouer au jeu de table Abalone et a donné le cours comme une épreuve de force. Les équipes ont reçu l’instruction d’incorporer une forme d’apprentissage dans leur IA plutôt que d’avoir un système uniquement fondé sur les règles. L’équipe de Taylor a travaillé très fort au projet et a gagné. La passion de Taylor était née.

« Quand je parle d’IA et d’apprentissage automatique aux gens, je leur dis que je suis emballé par cette technologie, car elle pourrait avoir un impact dans tous les secteurs »

Maintenant, après avoir étudié avec des visionnaires de l’IA, comme Geoffrey Hinton et Yann Lecun, il fait de son mieux pour partager son expertise avec le plus grand nombre de projets possible. Avant de se joindre à NextAI, Taylor a cofondé Kindred, une jeune entreprise axée sur l’utilisation de robots pour déplacer l’inventaire dans les entrepôts et il a récemment obtenu un contrat en ce sens avec Gap. Il agit encore à titre de conseiller scientifique auprès de la jeune entreprise en croissance, mais il accorde davantage d’énergie à NextAI où il a pu enseigner l’apprentissage automatique à des entrepreneurs en herbe et les aider à bâtir des entreprises, à trouver du financement, à développer leur produit et à naviguer dans l’univers des entreprises en démarrage.

« Même si j’étais celui qui enseignait l’apprentissage automatique, j’apprenais tellement », dit Taylor de son expérience.

Cette année, Taylor s’est aussi joint au nouvel Institut Vecteur à Toronto en tant que membre du corps professoral. Vecteur a pour mission d’attirer au Canada des talents mondiaux en IA, ainsi que de travailler avec les établissements d’enseignement, l’industrie, les jeunes entreprises, les incubateurs et les accélérateurs pour faire avancer la recherche en IA et favoriser l’application, l’adoption et la commercialisation des technologies d’IA au pays. L’une des responsabilités de Taylor au sein de l’organisation est de s’investir dans des programmes d’entrepreneuriat, comme l’incubateur de NextAI.

« Pendant de nombreuses années, le Canada a perdu ses diplômés au profit d’installations de R.-D. aux États-Unis, car de tels laboratoires n’existaient pas au pays. Dans la dernière année, Recherche RBC, Google Brain, Google Deep Mind, Facebook AI Research, Uber, Microsoft, et Samsung ont ouvert des laboratoires de recherche axés sur l’apprentissage automatique au Canada. C’est incroyable », dit Taylor.

L’engagement profond de Taylor dans l’espace de l’IA se fonde beaucoup sur son expertise de recherche. À l’Université de Guelph, il dirige l’un des plus grands laboratoires à l’école de génie. Ses vingt étudiants et employés s’attaquent à un certain nombre de thèmes et de projets, du plus abstrait à l’application pure, y compris des modèles agricoles pour la pulvérisation ciblée afin d’améliorer les rendements et réduire l’impact environnemental.

L’un des problèmes plus abstraits auxquels travaille Taylor est l’augmentation d’ensembles de données, le processus selon lequel on transforme légèrement des données existantes afin de créer de plus grands ensembles de données. Pour des ensembles d’images, cela pourrait impliquer faire un zoom, disons, sur l’image d’un chien, ensuite recadrer, effectuer une rotation et ajouter du bruit ou de la granularité. À la fin du processus, on voit si l’algorithme est encore capable d’identifier l’image comme étant celle d’un chien.

Apprendre aux réseaux neuronaux à apprendre à partir de données limitées est une étape clé dans l’élargissement des applications d’IA dans un nombre croissant de domaines. Pour ce qui est des images de chiens, nous avons suffisamment d’exemples pour nourrir un algorithme, mais dans d’autres domaines, nous n’avons pas la quantité de données nécessaires aux algorithmes actuels. Au bout du compte, certains chercheurs en IA voudraient que les algorithmes apprennent comme les humains – à partir de quelques exemples ou même d’un seul exemple.

Dans leurs travaux, Taylor et son équipe n’ont pas en tête l’apprentissage au plan humain, mais ils veulent néanmoins comprendre comment augmenter les données de façon à ce que cela soit universellement applicable à tout type de données, et pas seulement aux données visuelles.

« Quand on met à l’essai un algorithme avec des données qu’il n’a jamais vues auparavant, on s’attendrait à ce qu’il voie des changements de couleur, d’échelle et de luminosité », dit Taylor. Dans d’autres domaines, nous ne savons pas vraiment comment créer toutes ces transformations, car nous ne comprenons pas aussi bien les données.

Pour régler ce problème, l’équipe de Taylor transforme les données de façon différente. Premièrement, les chercheurs simplifient les données et les cartographient sur une nouvelle couche de représentation. (Dans les réseaux neuronaux, les données deviennent plus abstraites à chaque nouvelle couche.) Dans ces couches abstraites, il est impossible de discerner si les données proviennent d’une image ou d’un élément audio. C’est au niveau de cette couche abstraite que Taylor et son équipe manipulent les données. Ils remettent ensuite les données dans l’ensemble de données, ce qui l’agrandit et l’algorithme a ainsi plus de données avec lesquelles travailler.

Parmi leurs autres projets, ils entraînent un algorithme à savoir ce qu’il sait. Par le passé, les spécialistes de l’IA ont abordé ce problème de façons différentes et ont démontré qu’un algorithme apprend plus rapidement quand il apprend en fonction d’un programme conçu par l’humain qui présente les données dans un ordre spécifique et à un rythme spécifique — présentation d’exemples de complexité croissante. Les algorithmes à progression autocontrôlée faisaient la même chose, mais sans ce programme conçu par l’humain. L’une des façons d’entraîner un système à être conscient de ses connaissances est de le pénaliser en cas de réponse incorrecte, mais pas s’il ne répond pas ou s’il demande un indice. De cette façon, il apprend à représenter son niveau de confiance dans la résolution de certaines tâches et les chercheurs apprennent quelles sont les tâches où il a des difficultés. Souvent, ces tâches sont celles qui sont aussi ambiguës pour nous.

En matière d’éthique, il dit que le CIFAR a changé la façon dont il conçoit son rôle dans la discussion.

Taylor et son équipe tentent d’établir une connexion entre le niveau de confiance des algorithmes conscients et le scénario d’apprentissage à progression autocontrôlée où l’algorithme apprend à élaborer son propre programme d’apprentissage. La mise en lien de ces deux caractéristiques mènera à un algorithme plus rapide avec un niveau d’exactitude plus grand. Le fait qu’un algorithme apprenne plus vite, à partir d’un plus petit nombre d’exemples, tout en maintenant le même niveau d’exactitude accroit considérablement les possibilités d’applications de cette technologie

Mais la dissémination de l’IA s’accompagne d’inquiétudes croissantes quant à son impact social. Comment Taylor compose-t-il avec l’intérêt accru du public envers l’impact que cette technologie aura sur nos vies?

En matière d’éthique, il dit que le CIFAR a changé la façon dont il conçoit son rôle dans la discussion. « Le CIFAR a complètement changé la perspective que j’ai de cette question. Avant le CIFAR, si quelqu’un me posait des questions sur l’éthique de l’IA, je disais généralement que je suis un chercheur en technologie, je ne m’occupe que du volet technologique, je ne sais rien de l’éthique de la question, je ne sais pas si je suis même qualifié pour dire quoi que ce soit. Maintenant, à titre de chercheur, je crois qu’il est important au moins d’en parler. »

Mais plutôt que de parler des inquiétudes relatives au parti-pris, à l’équité et à la protection de la vie privée en invoquant seulement la législation ou la réglementation, il encourage le recours à la technologie ou aux algorithmes eux-mêmes pour améliorer l’équité. D’autres boursiers au sein du programme Apprentissage automatique, apprentissage biologique du CIFAR, comme Richard Zemel, travaillent déjà à de telles solutions et, dans le laboratoire de Taylor, les chercheurs explorent la question de l’explicabilité – à savoir si un algorithme peut expliquer ses décisions. Cela pourrait nous aider à évaluer si ses actions sont biaisées ou pas.

Taylor relève une citation d’une autre conseillère dans le programme de NextAI, Kathryn Hume de l’entreprise Integrate AI. « Même si on aimons percevoir les algorithmes comme des objets, ils ont tendance à amplifier nos propres partis-pris humains, car leur entraînement se fait à partir d’ensembles de données recueillies à l’aide du jugement humain. »

En gardant cette citation à l’esprit, Taylor fera partie d’un groupe de chercheurs qui offrira, au mois de novembre, des conseils au gouvernement canadien sur la façon de cheminer à travers cette montée des technologies transformatrices, comme l’IA, en vue de trouver un équilibre entre le renforcement de l’économie canadienne et veiller à ce que chaque secteur de la société en bénéficie.

« L’apprentissage automatique écrira non seulement des logiciels de façon beaucoup plus efficace et efficiente que nous, mais il écrira aussi des programmes qui sont actuellement hors de la portée des humains », dit Taylor. « Ces surprises sont à nos portes et, en tant que Canadiens, nous pourrons nous en enorgueillir, car une grande partie de ces percées se produiront au pays. »