Search

Ateliers IA et société

Protocole autochtone et IA

1er et 2 mars 2019 | Honolulu, États-Unis
Du 26 mai au 1er juin 2019 | Honolulu, États-Unis



Comment élargir les discussions sur le rôle de la technologie dans la société et comment ces conversations peuvent-elles s’appuyer sur le savoir et la culture autochtones ? Ces ateliers se sont appuyés sur les façons autochtones d’établir et de maintenir des relations avec la famille humaine et non humaine pour tenter de déterminer la façon d’établir des relations éthiques avec l’IA. Les participants provenaient d’une variété de disciplines, dont l’apprentissage automatique, le design, les systèmes symboliques, la cognition et l’informatique, les arts visuels et du spectacle, la philosophie, la linguistique, l’anthropologie et la sociologie.

Équipe : Jason Edward Lewis, Université Concordia, Canada ; Angie Abdilla, Old Ways, New, firme-conseil en savoir autochtone, Australie ; Ōiwi Parker Jones, Université d’Oxford, Royaume-Uni ; Fox Harrell, Massachusetts Institute of Technology, États-Unis.

Génération IA

6 et 7 mai 2019 | San Francisco, États-Unis
15 et 16 octobre 2019 | Toronto, Canada

Bien que les enfants représentent le tiers des internautes du monde, les algorithmes en ligne n’ont pas été conçus pour tenir compte de cette population particulièrement vulnérable, en particulier ceux qui vivent des situations de grande pauvreté et d’inégalité. Ces ateliers ont réuni une équipe interdisciplinaire provenant des domaines de l’apprentissage automatique, de la pédiatrie, de la psychologie et de l’anthropologie culturelle ainsi que des collaborateurs en technologie de l’éducation, en sciences de la communication et en bio-informatique. Cette équipe s’est concentrée sur l’IA en tant qu’amplificateur potentiel de l’inégalité et a contribué à l’élaboration d’une politique de recherche et d’un plan de communication afin que ces questions soient au cœur des discussions scientifiques, politiques, juridiques et publiques.

Équipe : Candice Odgers, Université de la Californie à Irvine, États-Unis ; Anna Goldenberg, Université de Toronto, Canada ; Ronald Dahl Université de la Californie à Berkeley, États-Unis ; Mizuko Ito, Université de la Californie à Irvine, États-Unis.

Résumé de l’atelier : Génération IA

Équité, interprétabilité et protection de la vie privée pour les systèmes algorithmiques*

2 et 3 juin 2019 | Londres, Royaume-Uni

Abordant les thèmes de la sécurité et de la protection de la vie privée liées à l’IA, cet atelier a étudié comment les algorithmes utilisés pour des services aux consommateurs peuvent être déployés de façon éthique et sécuritaire. Les points de vue d’avocats, d’éthiciens et d’experts en technologie ont éclairé ce programme et ont transcendé les frontières nationales et disciplinaires.

Équipe : Adrian Weller, Institut Alan Turing, Royaume-Uni ; Nozha Boujemaa, Inria, France ; Jonathan Schaeffer, Université de l’Alberta, Canada.

Les écosystèmes d’information alimentés par l’IA et la démocratie

27 et 28 juin 2019 | Montréal, Canada

Les risques potentiels de l’IA pour les institutions démocratiques sont mal compris, en partie en raison de la divergence d’opinions relativement aux avantages et aux inconvénients potentiels pour la société. Cet atelier a regroupé des chercheurs du milieu universitaire et de l’industrie avec des praticiens et des représentants de la société civile. Son objectif consistait à favoriser la collaboration entre les personnes qui élaborent des outils et celles qui s’intéressent aux politiques, aux droits de la personne et aux valeurs démocratiques.

Équipe : Derek A.S. Ruths, Université McGill, Canada ; Seda Guerses, Université de Louvain, Belgique ; Alexandra Olteanu, Microsoft Research, États-Unis ; Joris Hoboken, Université libre de Bruxelles et Université d’Amsterdam, Pays-Bas.

Résumé de l’atelier : Les écosystèmes d’information alimentés par l’IA et la démocratie

Réglementation des technologies de défense et de sécurité basées sur l’IA : au-delà du contrôle des armes traditionnelles

15 et 16 juillet 2019 | Toronto, Canada



Les débats sur le contrôle des armes basées sur l’IA ont porté principalement sur les systèmes d’armes autonomes et visaient à déterminer si une interdiction totale était appropriée. Ces débats se sont tenus au sein de la Convention des Nations unies sur certaines armes classiques, un cadre de contrôle des armements traditionnels. Les ateliers ont réuni des technologues en IA, des praticiens et des chercheurs dans le domaine du contrôle des armes ainsi que d’autres experts de la réglementation et des programmes de contrôle afin de mieux comprendre ce qu’implique le contrôle des armes à l’ère de l’IA.

Équipe : Kerstin Vignard, Institut des Nations Unies pour la recherche sur le désarmement (UNIDIR), Suisse ; David Danks, Université Carnegie Mellon, États-Unis ; Paul Meyer (ex-ambassadeur), Université Simon Fraser, Canada

Résumé de l’atelier : Réglementation des technologies de défense et de sécurité basées sur l’IA : au-delà du contrôle des armes traditionnelles

La durabilité à l’ère numérique*

Du 18 au 20 septembre 2019 | Montréal, Canada



Au carrefour de la technologie, de la durabilité et de la politique, il est possible de déterminer quels leviers de changement systémique mèneront la société sur la voie de la durabilité mondiale. Cet atelier mise sur les connaissances d’une équipe multidisciplinaire pour déterminer s’il est possible d’utiliser des technologies puissantes comme l’IA dans le cadre du changement climatique, tout en améliorant la compréhension des implications éthiques de ces leviers basés sur l’IA et des relations qui définissent les systèmes mondiaux de production, de consommation et d’organisation.

Équipe : Amy Luers, FutureEarth, Canada ; Mathilde Mougeot, École Nationale Supérieure d’Informatique pour l’Industrie et l’Entreprise (ENSIIE), France ; Lyse Langlois, Université Laval, Canada ; Sana Khareghani, Office for Artificial Intelligence, Royaume-Uni

Avenir éthique et médecine basée sur l’IA*

25 et 26 septembre 2019 | Coventry, Royaume-Uni

À mesure que les technologies d’IA sont adoptées dans le secteur de la santé, il faut s’intéresser de près à leurs répercussions éthiques et sociétales et à leurs effets sur le travail des médecins qui ne manquera pas d’être perturbé. Cet atelier a examiné comment l’utilisation de l’IA peut influencer notre compréhension de la pratique de la médecine, notamment en évaluant l’impact de l’IA sur les valeurs professionnelles fondamentales, les rôles professionnels des médecins et l’avenir des services de santé.

Équipe : Heather Draper, Université de Warwick, Royaume-Uni ; Lisa Schwartz, Université McMaster, Canada ; Daniel Racoceanu, Sorbonne Université, France ; Wendy Rogers, Université Macquarie, Australie

L’IA et la conservation de la culture*

4 et 5 octobre 2019 | Paris, France

La distribution des biens culturels dans le monde se fait dorénavant par l’intermédiaire des algorithmes des systèmes de recommandation numérique. Toutefois, les répercussions de cette approche sur la production et la consommation de biens culturels, comme la musique, les films et les livres, ne sont pas claires. Cet atelier a examiné comment l’utilisation de ces algorithmes dans le cadre de services aux consommateurs influe sur la manière de conserver, de créer et de consommer ces biens dans la société et comment les politiques pourraient influencer cette technologie à l'échelle internationale.

Équipe : Ashton Anderson, Université de Toronto, Canada ; Georgina Born, Université d’Oxford, Royaume-Uni ; Fernando Diaz, Microsoft Research, Canada ; Jeremy Morris, Université du Wisconsin à Madison, États-Unis

Repenser les enjeux culturels et éthiques de l’IA*

28 octobre 2019 | Paris, France

Étant donné les effets de l’IA et d’autres technologies sur la dynamique sociale et les interactions humaines, cet atelier a examiné les répercussions du développement de l’IA sur la diversité et l’expression culturelles, les conséquences de l’IA sur la discrimination ethnique, sexuelle et socioculturelle ainsi que les possibilités de gouvernance pour préserver la diversité et les droits de la personne.

Équipe : Marie-Hélène Parizeau, Université Laval, Canada ; Vanessa Nurock, Université de Paris 8, France ; Raja Chatila, Sorbonne Université, France ; Véronique Guèvremont, Université Laval, Canada

L’IA et les conflits futurs dans l’Arctique*

6 et 7 avril 2020 | Ottawa, Canada

L’environnement arctique change : les banquises fondent, les glaciers reculent et le pergélisol dégèle. Avec le changement climatique, de nouvelles réserves de ressources naturelles émergeront, ce qui compliquera la dynamique géopolitique existante et pourrait générer des conflits relatifs à ces milieux. Cet atelier vise à analyser le rôle de l’IA dans les scénarios de conflits mondiaux potentiels ainsi que les défis politiques, éthiques et juridiques qui peuvent en découler.

Équipe : Stephanie Carvin, Université Carleton, Canada ; Klaus Dodds, Royal Holloway College (Université de Londres), Royaume-Uni ; Patrick Lin, Université polytechnique de Californie, États-Unis ; Fritz Allhoff, Université de Western Michigan, États-Unis

L’IA et les soins de santé, un atelier sur la fusion du droit et de la science*

30 avril et 1er mai 2020 | Ottawa, Canada

Les aspects juridiques et réglementaires de la pratique médicale, qui protègent la sécurité et la vie privée des patients, ont été élaborés à une ère révolue de la médecine. Le but de cet atelier est de se pencher sur les lois existantes en matière de sécurité et de protection de la vie privée entourant les technologies de santé basées sur l’IA d’un point de vue éthique, juridique et réglementaire.

Équipe : Colleen Flood, Université d'Ottawa, Canada ; Ian Kerr, Université d'Ottawa, Canada ; Joëlle Pineau, Université McGill, Canada ; Céline Castets-Renard, Université Toulouse Capitole, France

La confiance dans les systèmes d’IA*

28 et 29 mai 2020 | Londres, Royaume-Uni

La confiance est un concept complexe et multiforme qui joue un rôle fondamental dans le déploiement et l’acceptation des technologies d’IA. L’atelier proposé vise à mieux comprendre comment des facteurs tels que le domaine d'application et les différences entre les utilisateurs entrent en jeu pour créer des systèmes d’IA dignes de confiance qui permettent à leurs utilisateurs de déterminer quand les actions du système sont valables et doivent être acceptées, mais aussi quand le système atteint ses limites.

Équipe : Cristina Conati, Université de la Colombie-Britannique, Canada ; Élisabeth André, Université d’Augsbourg, Allemagne ; Kaska Porayska-Pomsta, University College de Londres, Royaume-Uni ; Judy Kay, Université de Sydney, Australie

* Dirigé par le CIFAR en partenariat avec le Centre national de la recherche scientifique (CNRS) et le UK Research and Innovation (UKRI). L’équipe responsable de ces ateliers comptaient au moins deux chercheurs du Canada, de la France et du Royaume-Uni.