Search

Ateliers IA et société

Protocole autochtone et IA

1er et 2 mars 2019 | Honolulu, États-Unis
Du 26 mai au 1er juin 2019 | Honolulu, États-Unis



Comment élargir les discussions sur le rôle de la technologie dans la société et comment ces conversations peuvent-elles s’appuyer sur le savoir et la culture autochtones ? Ces ateliers se sont appuyés sur les façons autochtones d’établir et de maintenir des relations avec la famille humaine et non humaine pour tenter de déterminer la façon d’établir des relations éthiques avec l’IA. Les participants provenaient d’une variété de disciplines, dont l’apprentissage automatique, le design, les systèmes symboliques, la cognition et l’informatique, les arts visuels et du spectacle, la philosophie, la linguistique, l’anthropologie et la sociologie.

Équipe :
Jason Edward Lewis, Université Concordia, Canada ; Angie Abdilla, Old Ways, New, firme-conseil en savoir autochtone, Australie ; Ōiwi Parker Jones, Université d’Oxford, Royaume-Uni ; Fox Harrell, Massachusetts Institute of Technology, États-Unis.

Résultats de l’atelier : L’équipe de l’atelier a publié un exposé de position sur le Protocole autochtone et l’intelligence artificielle. L’exposé est un point de départ pour ceux qui souhaitent une conception et une création de l’IA éthiques qui s’articulent autour des préoccupations autochtones.

Génération IA

Génération IA : établir des normes mondiales pour les enfants et l’IA
6 et 7 mai 2019 | San Francisco, États-Unis

Bien que les enfants représentent le tiers des internautes du monde, les algorithmes en ligne n’ont pas été conçus pour tenir compte de cette population particulièrement vulnérable, en particulier ceux qui vivent des situations de grande pauvreté et d’inégalité. Ces ateliers ont réuni une équipe interdisciplinaire provenant des domaines de l’apprentissage automatique, de la pédiatrie, de la psychologie et de l’anthropologie culturelle ainsi que des collaborateurs en technologie de l’éducation, en sciences de la communication et en bio-informatique. Cette équipe s’est concentrée sur l’IA en tant qu’amplificateur potentiel de l’inégalité et a contribué à l’élaboration d’une politique de recherche et d’un plan de communication afin que ces questions soient au cœur des discussions scientifiques, politiques, juridiques et publiques.

Génération IA : technologies portables, santé mentale et développement de l’enfant
15 et 16 octobre 2019 | Toronto, Canada

L’utilisation croissante de la technologie numérique des adolescents se produit à un moment de leur développement où leur motivation sociale et leur sensibilité à l’évaluation sociale et à l’appartenance se modifient. Cela peut accentuer les vulnérabilités de l’adolescence. Si la technologie peut aggraver les risques d’isolement social, d’exclusion ou d’intimidation, elle permet également de promouvoir des expériences sociales et émotionnelles positives. L’investissement dans la recherche, le développement et l’application d’algorithmes, d’outils et de plateformes en ligne axés sur l’utilisation des technologies pendant cette période de la vie peut se traduire par des résultats positifs pour la santé de la population et atténuer le risque d’inégalités croissantes entre les différents groupes sociodémographiques.  

Équipe : Candice Odgers, Université de la Californie à Irvine, États-Unis ; Anna Goldenberg, Université de Toronto, Canada ; Ronald Dahl Université de la Californie à Berkeley, États-Unis ; Mizuko Ito, Université de la Californie à Irvine, États-Unis.

Résumé de l’atelier : Génération IA: établir des normes mondiales pour les enfants et l’IA
Résumé de l’atelier : Génération IA : technologies portables, santé mentale et développement de l’enfant

Équité, interprétabilité et protection de la vie privée pour les systèmes algorithmiques*

2 et 3 juin 2019 | Londres, Royaume-Uni

Abordant les thèmes de la sécurité et de la protection de la vie privée liées à l’IA, cet atelier a étudié comment les algorithmes utilisés pour des services aux consommateurs peuvent être déployés de façon éthique et sécuritaire. Les points de vue d’avocats, d’éthiciens et d’experts en technologie ont éclairé ce programme et ont transcendé les frontières nationales et disciplinaires.

Équipe :
Adrian Weller, Institut Alan Turing, Royaume-Uni ; Nozha Boujemaa, Inria, France ; Jonathan Schaeffer, Université de l’Alberta, Canada.

Les écosystèmes d’information alimentés par l’IA et la démocratie

27 et 28 juin 2019 | Montréal, Canada

Les risques potentiels de l’IA pour les institutions démocratiques sont mal compris, en partie en raison de la divergence d’opinions relativement aux avantages et aux inconvénients potentiels pour la société. Cet atelier a regroupé des chercheurs du milieu universitaire et de l’industrie avec des praticiens et des représentants de la société civile. Son objectif consistait à favoriser la collaboration entre les personnes qui élaborent des outils et celles qui s’intéressent aux politiques, aux droits de la personne et aux valeurs démocratiques.

Équipe :
Derek A.S. Ruths, Université McGill, Canada ; Seda Guerses, Université de Louvain, Belgique ; Alexandra Olteanu, Microsoft Research, États-Unis ; Joris Hoboken, Université libre de Bruxelles et Université d’Amsterdam, Pays-Bas.

Résumé de l’atelier : Les écosystèmes d’information alimentés par l’IA et la démocratie

Réglementation des technologies de défense et de sécurité basées sur l’IA

15 et 16 juillet 2019 | Toronto, Canada
30 et 31 janvier 30-31, 2020 | Santa Monica, États-Unis



Les débats sur le contrôle des armes basées sur l’IA ont porté principalement sur les systèmes d’armes autonomes et visaient à déterminer si une interdiction totale était appropriée. Ces débats se sont tenus au sein de la Convention des Nations unies sur certaines armes classiques, un cadre de contrôle des armements traditionnels. Les ateliers ont réuni des technologues en IA, des praticiens et des chercheurs dans le domaine du contrôle des armes ainsi que d’autres experts de la réglementation et des programmes de contrôle afin de mieux comprendre ce qu’implique le contrôle des armes à l’ère de l’IA.

Équipe :
Kerstin Vignard, Institut des Nations Unies pour la recherche sur le désarmement (UNIDIR), Suisse ; David Danks, Université Carnegie Mellon, États-Unis ; Paul Meyer (ex-ambassadeur), Université Simon Fraser, Canada; Giacomo Persi Paoli, UNIDIR, Switzerland

Résumé de l’atelier : Au-delà du contrôle des armes : réglementation des technologies de défense et de sécurité basées sur l’IA
Résumé de l’atelier : Au-delà du contrôle des armes : options réglementaires pour les technologies d’IA
Retombées de l’atelier : Modernizing Arms Control

La durabilité à l’ère numérique*

Du 18 au 20 septembre 2019 | Montréal, Canada



Au carrefour de la technologie, de la durabilité et de la politique, il est possible de déterminer quels leviers de changement systémique mèneront la société sur la voie de la durabilité mondiale. Cet atelier mise sur les connaissances d’une équipe multidisciplinaire pour déterminer s’il est possible d’utiliser des technologies puissantes comme l’IA dans le cadre du changement climatique, tout en améliorant la compréhension des implications éthiques de ces leviers basés sur l’IA et des relations qui définissent les systèmes mondiaux de production, de consommation et d’organisation.

Équipe :
Amy Luers, FutureEarth, Canada ; Mathilde Mougeot, École Nationale Supérieure d’Informatique pour l’Industrie et l’Entreprise (ENSIIE), France ; Lyse Langlois, Université Laval, Canada ; Sana Khareghani, Office for Artificial Intelligence, Royaume-Uni

Retombées de l’atelier

Résumé de l’atelier : La durabilité à l’ère numérique

Avenir éthique et médecine basée sur l’IA*

25 et 26 septembre 2019 | Coventry, Royaume-Uni

À mesure que les technologies d’IA sont adoptées dans le secteur de la santé, il faut s’intéresser de près à leurs répercussions éthiques et sociétales et à leurs effets sur le travail des médecins qui ne manquera pas d’être perturbé. Cet atelier a examiné comment l’utilisation de l’IA peut influencer notre compréhension de la pratique de la médecine, notamment en évaluant l’impact de l’IA sur les valeurs professionnelles fondamentales, les rôles professionnels des médecins et l’avenir des services de santé.

Équipe :
Heather Draper, Université de Warwick, Royaume-Uni ; Lisa Schwartz, Université McMaster, Canada ; Daniel Racoceanu, Sorbonne Université, France ; Wendy Rogers, Université Macquarie, Australie

Intelligence artificielle, recommandations et conservation de la culture*

4 et 5 octobre 2019 | Paris, France

La distribution des biens culturels dans le monde se fait dorénavant par l’intermédiaire des algorithmes des systèmes de recommandation numérique. Toutefois, les répercussions de cette approche sur la production et la consommation de biens culturels, comme la musique, les films et les livres, ne sont pas claires. Cet atelier examine comment l’utilisation de ces algorithmes dans le cadre de services aux consommateurs influe sur la manière de conserver, de créer et de consommer ces biens dans la société et comment les politiques pourraient influencer cette technologie à l'échelle internationale.

Équipe :
Ashton Anderson, Université de Toronto, Canada ; Georgina Born, Université d’Oxford, Royaume-Uni ; Fernando Diaz, Microsoft Research, Canada ; Jeremy Morris, Université du Wisconsin à Madison, États-Unis

Résumé de l’atelier : Intelligence artificielle, recommandations et conservation de la culture

Repenser les enjeux culturels et éthiques de l’IA*

28 octobre 2019 | Paris, France

Étant donné les effets de l’IA et d’autres technologies sur la dynamique sociale et les interactions humaines, cet atelier examine les répercussions du développement de l’IA sur la diversité et l’expression culturelles, les conséquences de l’IA sur la discrimination ethnique, sexuelle et socioculturelle ainsi que les possibilités de gouvernance pour préserver la diversité et les droits de la personne.

Équipe :
Marie-Hélène Parizeau, Université Laval, Canada ; Vanessa Nurock, Université de Paris 8, France ; Raja Chatila, Sorbonne Université, France ; Véronique Guèvremont, Université Laval, Canada

L’IA et les conflits futurs dans l’Arctique*

Date à déterminer | Ottawa, Canada

L’environnement arctique change : les banquises fondent, les glaciers reculent et le pergélisol dégèle. Avec le changement climatique, de nouvelles réserves de ressources naturelles émergeront, ce qui compliquera la dynamique géopolitique existante et pourrait générer des conflits relatifs à ces milieux. Cet atelier vise à analyser le rôle de l’IA dans les scénarios de conflits mondiaux potentiels ainsi que les défis politiques, éthiques et juridiques qui peuvent en découler.

Équipe :
Stephanie Carvin, Université Carleton, Canada ; Klaus Dodds, Royal Holloway College (Université de Londres), Royaume-Uni ; Patrick Lin, Université polytechnique de Californie, États-Unis ; Fritz Allhoff, Université de Western Michigan, États-Unis

L’IA et les soins de santé, un atelier sur la fusion du droit et de la science*

Date à déterminer | Ottawa, Canada

Les aspects juridiques et réglementaires de la pratique médicale, qui protègent la sécurité et la vie privée des patients, ont été élaborés à une ère révolue de la médecine. Le but de cet atelier est de se pencher sur les lois existantes en matière de sécurité et de protection de la vie privée entourant les technologies de santé basées sur l’IA d’un point de vue éthique, juridique et réglementaire.

Équipe :
Colleen Flood, Université d'Ottawa, Canada ; Ian Kerr, Université d'Ottawa, Canada ; Joëlle Pineau, Université McGill, Canada ; Céline Castets-Renard, Université Toulouse Capitole, France

La confiance dans les systèmes d’IA*

Date à déterminer | Londres, Royaume-Uni

La confiance est un concept complexe et multiforme qui joue un rôle fondamental dans le déploiement et l’acceptation des technologies d’IA. L’atelier proposé vise à mieux comprendre comment des facteurs tels que le domaine d'application et les différences entre les utilisateurs entrent en jeu pour créer des systèmes d’IA dignes de confiance qui permettent à leurs utilisateurs de déterminer quand les actions du système sont valables et doivent être acceptées, mais aussi quand le système atteint ses limites.

Équipe :
Cristina Conati, Université de la Colombie-Britannique, Canada ; Élisabeth André, Université d’Augsbourg, Allemagne ; Kaska Porayska-Pomsta, University College de Londres, Royaume-Uni ; Judy Kay, Université de Sydney, Australie


Les ateliers ont été financés conjointement par le CIFAR, le Centre national de la recherche scientifique de la France (CNRS) et U.K. Research and Innovation (UKRI). L’équipe de direction de ces ateliers comptait au moins deux chercheurs du Canada, de la France et du Royaume-Uni.