Transcription
Transcription : Série L'intelligence artificielle est à nos portes : L'effort mondial de réglementation de l'intelligence artificielle
[Le logo de l'EFPC apparaît à l'écran.]
[Neil Bouwer apparaît dans l'appel vidéo.]
Neil Bouwer de l'École de la fonction publique du Canada :Bonjour chers collègues. J'aimerais vous souhaiter la bienvenue à cette activité d'apprentissage au nom de l'École de la fonction publique du Canada. Je m'appelle Neil Bouwer. Je suis vice‑président de l'École. C'est avec plaisir que j'anime aujourd'hui cet événement. Mon sous-ministre présente ses excuses, il ne peut être présent aujourd'hui. Avant toute chose, je voudrais vous dire que je me trouve aujourd'hui à Burton, au Nouveau-Brunswick, une ville que je vous mets au défi de trouver sur une carte, mais je peux vous dire que je me trouve sur le territoire traditionnel non cédé des Wabanaki (Abénakis), des Miꞌkmaq et des Wolastoqey (Malécites), et je pense qu'il est important de le reconnaître. Normalement, je travaille dans d'autres régions du pays, mais aujourd'hui, c'est ici que je me trouve. Je souhaitais prendre un moment pour le souligner, et je suis certain que beaucoup d'entre vous se trouvent à divers endroits du pays, et également sur un territoire autochtone traditionnel, alors prenons un moment pour en prendre acte.
L'événement d'aujourd'hui fait partie de notre série « L'intelligence artificielle est à nos portes ». L'approche de la série n'est pas de dire l'intelligence artificielle s'en vient, ou que l'intelligence artificielle est une chose fantastique. Nous soulignons plutôt que l'intelligence artificielle est à nos portes, car il ne fait aucun doute que l'intelligence artificielle commence à faire partie de nos vies que nous le voulions ou non, de nos vies personnelles, de nos vies professionnelles, l'intelligence artificielle est là. Nous offrons cette série avec l'Institut Schwartz Reisman pour la technologie et la société. Il s'agit d'un centre de recherche et de solutions basé à l'Université de Toronto, dont la mission est de veiller à ce que les technologies comme l'intelligence artificielle soient sûres responsables et exploitées pour le bien de tous, alors nous sommes très privilégiés de bénéficier de l'appui de l'Institut Schwartz Reisman.
Jusqu'à présent, les événements de la série ont porté sur les principes de base de l'intelligence artificielle, le consentement des citoyens, les décisions relatives à l'utilisation de l'intelligence artificielle au sein du gouvernement, les répercussions et les questions économiques liées à l'intelligence artificielle, ainsi que sur les préjugés, l'équité et la transparence, et toutes ces vidéos des événements se trouvent sur la chaîne YouTube de l'École de la fonction publique du Canada. Je vous encourage donc à les regarder à cet endroit. Vous pouvez également les trouver sur la plateforme d'apprentissage de l'École de la fonction publique du Canada.
Nous allons commencer l'événement d'aujourd'hui, comme d'autres par une présentation générale, qui sera faite par Phil Dawson. Phil Dawson est conseiller en politiques à l'Institut Schwartz Reisman, et c'est un expert en intelligence artificielle. Il va nous présenter les étapes et certaines des mesures prises dans le monde pour réglementer l'intelligence artificielle ainsi que les questions en jeu, à la fois positives et négatives, et certains des défis relatifs à la conception des instruments et au respect des normes par rapport à l'intelligence artificielle, j'ai bien hâte à la présentation.
Avant de commencer, j'aimerais souligner qu'il y a de l'interprétation simultanée, pour ceux d'entre vous qui voudraient en profiter, n'hésitez pas à le faire. Pour ce faire, je vous invite à suivre les instructions détaillées dans le courriel de rappel de l'activité, qui comportait un numéro de conférence pour vous permettre d'écouter l'événement dans la langue officielle de votre choix.
Nous solliciterons également vos commentaires. Après les remarques préliminaires de Phil, nous tiendrons une table ronde et nous ouvrirons le débat aux questions des participants. Tout au long de l'événement vous verrez dans votre interface Web un bouton avec une petite main dans le coin supérieur droit. Ne vous inquiétez pas, vous ne serez pas identifié ou appelé ou mis en évidence, mais vous pouvez cliquer sur ce bouton pour lever la petite main et ensuite une zone de texte apparaîtra, où vous pourrez écrire votre question. La question parviendra aux organisateurs de l'événement, et je pourrai relayer votre question, donc j'espère que nous pourrons fonctionner ainsi.
Commençons par la présentation de Phil. Examinons la situation de plus près. La présentation ne dure que 20 minutes environ, alors allons-y.
[L'appel vidéo disparaît pour laisser la place à une vidéo intitulée « L'effort mondial de réglementation de l'intelligence artificielle. »]
[Le titre disparaît et Phil Dawson, responsable des politiques à l'Institut Schwartz Reisman, apparaît à l'écran. Il se tient devant un fond bleu, avec des images représentatives et des graphiques apparaissant à sa gauche].
Philip Dawson :Bonjour, je m'appelle Philip Dawson et je suis responsable des politiques à l'Institut Schwartz Reisman pour la technologie et la société.
[Texte à l'écran: « Comment les gouvernements devraient-ils réglementer l'intelligence artificielle? »]
Je suis heureux d'être ici pour vous parler des efforts déployés à l'échelle mondiale pour réglementer l'intelligence artificielle. Aujourd'hui, nous commencerons à analyser certaines des initiatives de premier plan des organisations internationales, des organismes multilatéraux et, plus récemment, des gouvernements qui cherchent à mieux comprendre l'intelligence artificielle (IA), les possibilités et les défis qu'elle présente, et à concevoir des façons d'en assurer l'utilisation responsable dans la société. Alors, pourquoi cela est-il devenu un effort mondial?
[Une image montre une série de puces électroniques. Le texte dit « L'IA peut générer des avantages importants pour le progrès social et économique. »]
Nous nous sommes rendu compte que l'intelligence artificielle pouvait générer des avantages importants, à la fois pour le progrès social et économique.
[Les diverses utilisations de l'IA sont nommées à l'écran à mesure que Phil les énumère].
Le pouvoir prédictif de l'intelligence artificielle peut contribuer à la découverte de nouveaux médicaments ou être utilisé dans l'agriculture de précision pour améliorer les pratiques agricoles et certaines entreprises utilisent l'IA pour diminuer l'empreinte carbone de la fabrication du ciment et de l'acier. L'intelligence artificielle peut également contribuer à créer des systèmes énergétiques plus efficaces pour les bâtiments ou des transports durables dans les villes. La personnalisation des services financiers fondée sur l'IA a le potentiel d'améliorer l'inclusion financière et de créer de nouvelles possibilités à l'extérieur des systèmes bancaires. Les organisations internationales estiment que l'IA peut jouer un rôle essentiel dans l'accélération des progrès vers la réalisation des objectifs de développement durable des Nations Unies. Ce ne sont là que quelques-uns des développements positifs associés à l'utilisation commerciale de l'IA.
[Le texte indique « Les progrès de l'IA devraient entraîner une augmentation de 26 % du PIB mondial, soit 16 billions de dollars américains, d'ici 2030. »]
En fait, selon une étude récente de PricewaterhouseCoopers, les progrès réalisés dans le domaine de l'IA devraient entraîner une augmentation de 26 % du PIB mondial, soit 16 billions de dollars américains. Donc, comme vous pouvez le constater, les investissements dans la recherche et la commercialisation de l'IA représentent une occasion en or.
[Une nouvelle image montre des objets de formes géométriques qui forment une structure en équilibre précaire. Un texte apparaît à l'écran : « L'IA peut aussi créer et perpétuer des préjudices ». À mesure que Phil énumère les dangers associés à l'IA, ils sont énumérés à l'écran].
En même temps, nous sommes aussi de plus en plus conscients des dangers de l'IA. Parmi les dangers les plus importants mentionnons la prolifération du harcèlement, de la désinformation et du contenu en ligne nuisible qui sème la discorde. L'IA peut également renforcer les résultats discriminatoires dans la société, où les données ou les modèles biaisés risquent d'exclure des groupes protégés des services financiers, des processus d'embauche, de l'accès aux services publics ou même de l'administration de la justice. L'IA change aussi l'avenir du travail et les compétences dont les gens auront besoin à l'avenir pour participer de façon significative à l'économie numérique. D'autres entreprises ont fait des progrès dans le développement de grands modèles de langage puissants, par exemple le modèle GPT3, qui peuvent se comporter et évoluer de façon imprévisible, et des mesures de contrôle pour ces systèmes qui accusent un certain retard.
Il y a un certain nombre de dangers à grande échelle d'importance mondiale dont nous ne parlerons pas beaucoup aujourd'hui et qui sont liés à l'utilisation de l'intelligence artificielle par les États, comme la surveillance exercée par l'État ou l'utilisation d'armes autonomes létales. Ce sont là quelques-unes des préoccupations très graves que suscite l'utilisation malveillante de l'intelligence artificielle.
[Une image montre des points et des lignes reliés partout dans le monde dans un grand cadre. Le texte indique « Principes et cadres de réglementation de l'IA »]
Les efforts mondiaux de réglementation de l'IA visent à répondre à une question fondamentale.
Le texte indique : « Comment pouvons-nous orienter la conception, le développement et l'utilisation des systèmes d'IA afin d'en exploiter les avantages tout en éliminant les dangers et en réduisant les risques au minimum? »]
Comment pouvons-nous orienter la conception, le développement et l'utilisation des systèmes d'IA afin d'en exploiter les avantages potentiels tout en éliminant les dangers et en réduisant les risques au minimum? Pour certains d'entre vous, cette question n'est pas nouvelle. Elle fait l'objet de nombreux ateliers, conférences et articles universitaires, et les autorités réglementaires et les intervenants du monde entier s'y intéressent depuis des années.
[Une image dense montre les drapeaux de 50 pays et un texte écrit en petits caractères à côté de chacun. Le titre de l'image est « 50 politiques nationales en matière d'intelligence artificielle ».]
Pour vous donner une idée de l'ampleur de cet effort, depuis 2017, plus de 50 pays ont élaboré des stratégies nationales en matière d'IA. Bon nombre de ces stratégies visent à favoriser le développement responsable de l'IA par la coordination des politiques, les investissements dans la recherche, le développement des talents et la formation, et le débat public sur les répercussions éthiques de l'IA sur la société. En 2017, le Canada est devenu le premier pays à élaborer une stratégie nationale relative à l'IA, avec la Stratégie pancanadienne en matière d'intelligence artificielle. Plus récemment, les pays qui élaborent des stratégies nationales en matière d'IA se sont également penchés sur les approches réglementaires de l'IA qui pourraient être nécessaires pour protéger les investissements considérables que les secteurs public et privé ont réalisés dans la recherche et la commercialisation de l'IA.
[Une nouvelle image apparaît avec le texte « Initiatives internationales et multilatérales en matière d'IA ». L'image montre les logos de l'UNESCO, de l'OCDE, du PMIA, du Groupe de haut niveau sur la coopération numérique de l'ONU et de la Freedom Online Coalition (Coalition pour la liberté en ligne)].
Parallèlement, il y a eu un nombre croissant d'initiatives internationales et multilatérales en matière d'IA. Ce ne sont là que quelques-unes des principales organisations internationales qui ont joué un rôle de chef de file dans l'élaboration de normes internationales et de lois non contraignantes qui aideront à orienter les efforts nationaux des gouvernements.
[À mesure que chaque organisation est mentionnée, son logo apparaît à l'écran].
L'UNESCO, une agence spécialisée des Nations Unies qui regroupe 193 pays, a récemment adopté une recommandation sur l'éthique de l'IA. La Freedom Online Coalition, ou Coalition pour la liberté en ligne, est une alliance multilatérale d'États que le Canada préside actuellement. Cette coalition a publié un certain nombre de déclarations et d'appels à l'action pour orienter le développement responsable des systèmes d'IA, tant sur les médias sociaux que sur le marché en général. En 2019, l'OCDE a élaboré sa propre recommandation sur l'IA afin d'assurer une conception et un développement qui soient dignes de confiance. Dans le cadre du G7, les gouvernements du Canada et de la France ont dirigé la création du Partenariat mondial sur l'IA, une nouvelle alliance multilatérale de 25 pays qui se sont maintenant engagés à mettre en œuvre les principes de l'OCDE en matière d'IA au moyen de projets de recherche appliquée à grande échelle.
[Une nouvelle image présente les principes de l'OCDE fondés sur des valeurs. À côté de chaque principe se trouve une icône représentative. Les principes sont les suivants : « Croissance inclusive, développement durable et bien-être, Valeurs centrées sur l'être humain et équité, Transparence et explicabilité, Robustesse, sûreté et sécurité, Responsabilité. » À mesure que les principes sont mentionnés ils sont mis en évidence.]
Examinons de plus près les principes de l'OCDE en matière d'IA. Ils soulignent la nécessité d'assurer la croissance inclusive, le développement durable, le bien-être, les valeurs axées sur l'être humain et l'équité qui sont décrites comme comprenant la protection de la vie privée et des données, le respect des droits de la personne, la primauté du droit et la démocratie, la transparence et la capacité d'expliquer, le droit des personnes de savoir quand elles interagissent avec un système d'IA, ou de comprendre comment le système d'IA a été utilisé dans une décision qui a une incidence sur leurs droits, leur bien-être financier ou leur santé. D'autres principes soulignent l'importance de la robustesse, de la sécurité et de la sûreté d'un système d'IA. Peut-il résister à des attaques? Quel est son rendement dans divers ensembles de données et de domaines? Quelles sont les répercussions potentielles du système sur la sécurité physique? Les principes de l'OCDE sur l'IA ont été la première série de principes entérinés par les gouvernements.
[Un texte apparaît à l'écran : « Première série de principes adoptés par les gouvernements. Approuvés par le G20, les États membres de l'OCDE et d'autres pays. »]
Les principes ont été approuvés par le G20 et, outre les États membres de l'OCDE, un certain nombre d'autres pays dans le monde y ont adhéré, notamment l'Argentine, le Brésil, la Colombie le Costa Rica, le Pérou et la Roumanie.
[Une nouvelle image montre les lettres « IA » au centre d'un cercle d'étoiles. On peut y lire « Groupe d'experts indépendants de haut niveau sur l'intelligence artificielle, mis en place par la Commission européenne. Lignes directrices en matière d'éthique pour une IA digne de confiance »].
Parallèlement à l'élaboration des principes de l'OCDE en matière d'IA, la Commission européenne a créé un groupe d'experts de haut niveau chargé d'élaborer des lignes directrices en matière d'éthique pour une IA digne de confiance. Les lignes directrices en matière d'éthique pour une IA digne de confiance définissent trois éléments fondamentaux.
[Un nouveau graphique présente un cadre complexe pour une IA digne de confiance qui définit trois catégories principales : une IA à la fois licite, éthique et IA robuste. À mesure que chaque élément du cadre est mentionné, il est mis en lumière].
L'intelligence doit être licite, éthique et techniquement robuste. Les lignes directrices sont fondées sur quatre principes éthiques et sept exigences techniques clés, qui reflètent vraiment le contenu des principes de l'OCDE en matière d'IA. Mais les efforts de la Commission européenne sont allés un peu plus loin dans l'élaboration d'une liste d'évaluation conçue pour permettre aux organisations de mettre en œuvre les lignes directrices dans leurs politiques et procédures de gouvernance interne.
[Une nouvelle image montre une série de points colorés formant une carte du monde].
Nous venons donc de passer en revue deux des plus importants efforts déployés à ce jour à l'échelle internationale en matière de principes et de cadres éthiques liés à l'IA, soit ceux de l'OCDE et du Groupe d'experts de haut niveau de la Commission européenne.
[Le texte indique « Depuis 2019, plus de 170 ensembles de principes en matière d'IA ont été élaborés par les gouvernements, le milieu universitaire, l'industrie et la société civile ».]
Mais, depuis 2019, plus de 170 efforts ont été déployés par les gouvernements, le milieu universitaire, l'industrie et la société civile.
[Un schéma complexe montre des cercles concentriques représentant chacune des catégories de principes de l'IA. Des points de tailles différentes avec un code de couleur sont placés autour des cercles, dont chacune des lignes correspond à la déclaration de principes d'une organisation].
Plusieurs des déclarations de principes existantes se retrouvent sur ce schéma élaboré par le Berkman Klein Center for Internet and Society, qui montre que malgré la prolifération des principes de l'IA, nous observons en fait une cohérence remarquable entre les diverses approches. À certains égards, l'élaboration des principes en matière d'IA était en fait la partie la plus facile. Le véritable défi pour les gouvernements consiste à traduire ces principes en systèmes de réglementation efficaces pour régir l'IA.
[Le texte indique : « Le véritable défi pour les gouvernements consiste à traduire ces principes en systèmes de réglementation efficaces pour régir l'IA. » Le texte s'estompe pour laisser place à un tableau noir rempli d'équations complexes. Un texte apparaît : « Traduire les principes en systèmes de réglementation : les leçons de l'Europe, du Royaume-Uni et des États-Unis. »]
Ensuite, nous allons examiner certains des efforts de réglementation déployés par la Commission européenne, le Royaume-Uni et les États-Unis.
[Une image apparaît avec du code binaire en arrière-plan, et le logo de la Commission européenne à l'avant-plan.]
Depuis l'entrée en vigueur du Règlement général sur la protection des données, ou RGPD, en 2018, la Commission européenne a poursuivi un ambitieux programme de réglementation. Depuis décembre 2020, la Commission a déposé quatre projets de lois distincts ayant des répercussions interreliées sur l'utilisation des systèmes d'IA.
[Une liste des instruments proposés s'affiche : « Règlement général sur la protection des données, Loi sur la gouvernance des données, Loi sur les marchés numériques, Loi sur les services numériques, Loi sur l'intelligence artificielle. »]
Nous allons aborder certains aspects de la Loi sur les services numériques et de la Loi sur l'intelligence artificielle. Toutefois, il faut noter qu'autant le Règlement général sur la protection des données, qui définit des règles relatives au traitement des renseignements personnels par des systèmes décisionnels automatisés, que la Loi sur la gouvernance des données, qui vise à ouvrir l'accès à des ensembles de données de grande valeur dans l'Union européenne, ont contribué à l'effet de Bruxelles sur le paysage mondial de la réglementation du numérique.
Examinons de plus près le projet de loi de l'Union européenne sur l'intelligence artificielle, qui est le premier projet de règlement exhaustif sur l'intelligence artificielle au monde.
[Pendant qu'il énumère les éléments, les phrases clés s'affichent à l'écran.]
La loi de l'Union européenne sur l'IA adopte une approche fondée sur le risque visant à protéger la sécurité, la santé et les droits fondamentaux des citoyens européens. Les obligations des développeurs et des utilisateurs d'IA sont définies en fonction d'un système de catégories de risque, avec trois grandes catégories définies par la loi.
[Le texte indique « La loi de l'Union européenne sur l'IA : catégories de risque. 1. Risque faible/minimal 2. Risque élevé 3. Risque inacceptable ». Pendant que chaque catégorie est expliquée, les principaux éléments apparaissent sous la catégorie numérotée correspondante.]
Les développeurs ou les utilisateurs de systèmes à faible risque et à risque minimal auront des obligations de base en matière de rapports de transparence. Il s'agit notamment des applications d'IA actuellement utilisées dans le monde des affaires, comme les assistants virtuels d'IA et la gestion des stocks reposant sur l'IA. Les systèmes à risque élevé doivent faire l'objet d'évaluations de la conformité préalables à la mise en marché attestant qu'ils respectent toutes les obligations de la Loi. Les systèmes à risque élevé comprennent les systèmes d'IA intégrés aux infrastructures essentielles ou aux dispositifs médicaux, ceux utilisés pour la formation ou qui posent un risque pour la santé, la sécurité et les droits fondamentaux en général, comme l'identification biométrique à distance, la cote de crédit, ou même les systèmes d'intelligence artificielle utilisés pour prendre des décisions d'embauche. Il y a aussi une catégorie de systèmes qui sont carrément interdits. Ces systèmes d'IA sont réputés présenter des risques inacceptables pour la société. Ils comprennent des systèmes qui manipulent au moyen de techniques subliminales, des systèmes qui sont utilisés pour la notation sociale, l'identification biométrique à distance en temps réel et des systèmes utilisés dans les espaces publics par les forces de l'ordre.
[Un graphique indique « La loi de l'Union européenne sur l'IA : système à risque élevé ». À mesure que chaque exigence est énoncée, elle apparaît sous forme de texte.]
Examinons maintenant de plus près les systèmes d'IA à risque élevé. Dans la loi, un système à risque élevé serait assujetti aux exigences suivantes : évaluation des risques et mesures d'atténuation, règles de qualité et de gouvernance des données activités de consignation pour assurer la traçabilité des résultats documentation technique détaillée, exigences de transparence, surveillance humaine appropriée pour minimiser les risques, ainsi que des niveaux élevés de robustesse, de sécurité et d'exactitude. En plus des évaluations de la conformité préalables à la mise en marché, les fournisseurs de systèmes d'IA à risque élevé doivent effectuer une surveillance après la mise en marché produire et présenter des rapports sur leurs efforts aux organismes de réglementation.
La loi de l'Union européenne sur l'IA est également explicite quant à la façon dont elle entend tirer parti de l'élaboration de normes techniques et d'évaluations de la conformité pour soutenir la conformité aux exigences de la loi. Pour les systèmes à haut risque, la conformité aux normes internationales créera, dans certains cas, une présomption de conformité à la loi.
[Un tableau montre les exigences de la Loi et les codes des normes connexes.]
Ce tableau présente certaines des principales exigences de la loi et les compare à l'élaboration de normes techniques par des organismes de normalisation internationaux comme l'ISO et l'IEEE, y compris dans des domaines comme la protection de la vie privée et la gouvernance des données, la transparence, la gestion de la qualité, la gestion des risques et la surveillance humaine. Le processus d'élaboration de bon nombre de ces normes ne fait que commencer.
[Le texte indique « La loi de l'Union européenne sur les services numériques ».]
Examinons maintenant la proposition de loi de l'Union européenne sur les services numériques. La Loi sur les services numériques introduit de nouvelles règles pour les plateformes en ligne afin de garantir la sécurité et la protection des droits fondamentaux des citoyens européens dans leurs activités en ligne. La Loi comprend des mesures liées à la réglementation des systèmes d'IA. L'article 26 en particulier, exige que les grandes plateformes en ligne, celles qui ont 45 millions ou plus d'utilisateurs mensuels actifs dans l'Union européenne effectuent chaque année une évaluation des risques qui tienne compte de l'impact de la modération du contenu par l'IA.
[À mesure que les exigences sont mentionnées elles apparaissent sous forme de texte].
Elle exige également que les plateformes prennent des mesures d'atténuation appropriées pour gérer les risques. L'article 31 de la Loi exige que les plateformes fournissent aux chercheurs indépendants un accès aux données et aux modèles des plateformes dans le but de mener des études sur les répercussions des systèmes de recommandation qui organisent et fournissent du contenu afin de favoriser une meilleure compréhension des risques systémiques qu'ils posent et de déterminer leur conformité.
[La page couverture de la stratégie nationale en matière d'IA de l'Office for Artificial Intelligence du Royaume-Uni apparaît à l'écran. Sur l'image du document figure la forme du Royaume-Uni composée de nombreuses petites icônes et emojis, dans un dégradé de bleu et de rose].
Le Royaume-Uni a récemment publié sa stratégie nationale en matière d'IA, qui décrit une approche émergente de la réglementation de l'IA au Royaume-Uni.
[Un titre apparaît à l'écran : « Approche réglementaire émergente du Royaume-Uni : » Les points clés de cette approche apparaissent à mesure qu'ils sont mentionnés].
Le gouvernement britannique a l'intention de publier un livre blanc décrivant une position favorable à l'innovation pour réglementer l'IA au début de 2022. Cela a été fait à la suite d'une réflexion sur les lacunes d'une approche sectorielle de la réglementation de l'intelligence artificielle et sur la nécessité d'un cadre horizontal à l'échelle du marché pour éviter la confusion et le chevauchement des règles dans divers secteurs. Le besoin de règles horizontales indique que le contexte réglementaire lié à l'IA est en fait beaucoup plus vaste que l'écosystème de la protection des renseignements personnels et des données. La stratégie nationale du Royaume-Uni mentionne également la nécessité de veiller à ce que les intérêts commerciaux nationaux ne soient pas entravés par les efforts réglementaires mondiaux.
[La liste disparaît. Le logo du Centre for Data Ethics and Innovations apparaît, et de nouveaux éléments clés s'affichent sous le titre lorsque Phil les mentionne.]
Le Centre for Data Ethics & Innovation du Royaume-Uni, une agence gouvernementale, a récemment publié une feuille de route sur l'assurance de l'IA, clarifiant l'ensemble des activités nécessaires pour créer un marché concurrentiel pour les services d'assurance de l'IA qui tirent parti des normes techniques, des évaluations de la conformité et de la certification. L'approche du Royaume-Uni témoigne des investissements importants requis dans l'élaboration de normes techniques, la mise à l'essai des systèmes d'IA et les programmes pilotes comme base pour l'élaboration de cadres de réglementation et d'assurance de l'IA à partir de la base. Un partenariat entre le British Standards Institute, l'organisme national de normalisation du Royaume-Uni, et l'Allen Turing Institute, l'institut national de l'IA, a été annoncé en janvier 2022 pour développer un centre de normes de l'IA, afin de contribuer à accélérer les progrès en matière d'élaboration d'outils d'assurance et de conformité de l'IA.
[Le titre d'un article de journal apparaît : « Les Américains ont besoin d'une déclaration des droits pour un monde alimenté par l'IA ».]
En octobre 2021, le Bureau des politiques scientifiques et technologiques de la Maison‑Blanche a ouvert une consultation sur l'élaboration d'une déclaration des droits pour un monde alimenté par l'intelligence artificielle.
[Deux sceaux officiels du gouvernement des États apparaissent dans le coin supérieur gauche et un titre s'affiche : « Déclaration des droits des États-Unis pour une société automatisée. » À mesure que les droits sont mentionnés, ils sont énumérés au-dessous.]
Dans le cadre de la consultation, la Maison-Blanche a publié un échantillon de droits potentiels à prendre en considération, y compris le droit de savoir quand et comment l'IA influence une décision qui touche les droits et libertés civils, la protection contre l'IA qui n'a pas fait l'objet d'une vérification minutieuse; la protection contre une surveillance indue et des contrôles envahissants ou discriminatoires à la maison, dans la collectivité et au travail, ainsi que le droit à un recours valable dans l'éventualité où un système d'IA aurait contribué à un préjudice. Ce ne sont là que quelques exemples de nouvelles mesures de protection et de droits dérivés que nous devrions peut-être intégrer à un large éventail de lois et de règlements liés à l'élaboration et à l'utilisation de systèmes d'intelligence artificielle.
[Le titre d'un article de journal apparaît : « Les législateurs s'en prennent à l'algorithme de Facebook avec un projet de loi sur les 'bulles de filtrage' ». L'image accompagnant l'article montre un logo Facebook en éclats avec un cœur en son centre].
En novembre 2021, un groupe bipartisan de législateurs américains a présenté Filter Bubble Transparency Act, la loi sur la transparence des bulles de filtrage.
[Un titre indique « Filter Bubble Transparency Act – États-Unis » (loi sur la transparence des bulles de filtrage). À mesure que Phil mentionne les exigences, elles sont énumérées à l'écran.]
La loi exigerait que les grandes plateformes permettent aux gens d'utiliser une version de leurs services dans laquelle le contenu n'est pas sélectionné par des algorithmes dits « opaques ». Les algorithmes opaques sont définis dans le projet de loi comme « des algorithmes qui font des déductions basées sur des données spécifiques à l'utilisateur pour sélectionner le contenu qu'un utilisateur voit ». Autrement dit, la loi exigerait des grandes entreprises de médias sociaux qu'elles mettent à disposition une version de leurs services qui ne repose pas sur un système de recommandation généré par un contenu spécifique à l'utilisateur. Le projet de loi exigerait également que les services de médias sociaux utilisant de tels algorithmes informent l'utilisateur de leur utilisation et de la façon dont ils fonctionnent.
[Le titre d'un article de journal apparaît : « Le projet de loi du Sénat obligerait les entreprises à mener des vérifications sur les systèmes d'IA utilisée pour les logements et les prêts ». À l'avant-plan apparaît le texte : « Algorithmic Accountability Act – États-Unis » (loi sur la responsabilité algorithmique).]
Plus récemment, en janvier 2022, un groupe de sénateurs américains a déposé l'Algorithmic Accountability Act, ou loi sur la responsabilité algorithmique. Ce projet de loi exigerait des entreprises qu'elles procèdent à des études d'impact des systèmes d'IA sur une base régulière afin de détecter et d'atténuer les biais et d'évaluer leur rendement global ainsi qu'une panoplie d'autres facteurs.
[Une image montre des pièces de casse-tête vierges assemblées de manière approximative. Le texte indique « Quels sont les défis que pose la réglementation de l'IA?
Ce n'est qu'un aperçu de quelques initiatives de premier plan visant à réglementer l'intelligence artificielle à l'échelle mondiale; vous pouvez être certain que ce n'est qu'un début.
Pour terminer, j'aimerais faire quelques observations sur le défi que pose la réglementation de l'intelligence artificielle, afin d'animer une discussion plus approfondie.
Pendant qu'il présente ses commentaires, les points clés apparaissent à l'écran.]
Premièrement, il sera difficile de faire face à la rapidité, à la complexité et à l'ampleur des opérations d'intelligence artificielle au moyen des outils de réglementation traditionnels. Les processus manuels, comme l'inspection humaine, les évaluations des risques et des répercussions, ne peuvent tout simplement pas suivre le rythme des défis liés à la gouvernance d'une technologie très dynamique, imprévisible et en évolution rapide comme l'intelligence artificielle. Au lieu de cela, nous devrons presque certainement investir dans le développement de nouvelles technologies et de nouveaux outils de réglementation qui peuvent aider à opérationnaliser les normes et à automatiser les aspects des évaluations conformes pour les entreprises d'intelligence artificielle à grande échelle.
Deuxièmement, il est difficile de réglementer ce qu'on n'a pas testé et mesuré. Une plus grande transparence est nécessaire quant aux pratiques des entreprises et à leur utilisation des systèmes d'intelligence artificielle. De plus, nous devons mieux comprendre les répercussions des systèmes d'IA, qui sont souvent uniques d'un domaine à l'autre, et les cas d'utilisation.
Troisièmement, la coordination internationale de l'élaboration de normes techniques, d'évaluations de la conformité et d'autres moyens d'assurer la conformité, comme les technologies de réglementation, est nécessaire pour assurer l'interopérabilité mondiale des cadres de réglementation de l'IA afin de faciliter le commerce et les investissements internationaux.
[La liste s'efface pour laisser place à l'image d'un globe terrestre entouré de points et de lignes dans un vaste réseau connecté].
En résumé, nous avons fait beaucoup de chemin depuis l'élaboration des principes en matière d'IA. Le défi consiste maintenant à traduire ces principes en pratique et à encourager l'élaboration d'outils novateurs pour assurer la conformité afin de permettre une réglementation et une gouvernance efficaces de l'IA à grande échelle. Merci.
[La vidéo s'efface pour laisser place à un écran de titre qui indique : « Série L'intelligence artificielle est à nos portes. »]
[Neil Bouwer apparaît dans l'appel vidéo.]
Neil Bouwer :Merci pour tout cela, Phil. Quel aperçu fascinant, d'un point de vue international, des questions réglementaires liées à l'IA. C'est une excellente présentation.
Nous allons maintenant changer un peu la formule. Nous allons faire intervenir Phil en direct avec deux autres personnes. Vous avez déjà entendu Phil Dawson. Comme je l'ai mentionné plus tôt, il est avocat et conseiller en politiques publiques pour l'Institut Schwartz Reisman. Il est spécialiste de la gouvernance des technologies numériques et de l'intelligence artificielle.
Nous avons également parmi nous aujourd'hui Monique Crichlow. Elle est directrice générale de l'Institut Schwartz Reisman. Elle est spécialiste de l'innovation technologique et des soins de santé, et a également de l'expérience dans le secteur privé. Elle est aussi présidente du Comité national canadien sur les données et pour la science et la technologie. Bienvenue, Monique.
Craig Shank est également présent avec nous. Craig est conseiller stratégique et consultant, et c'est un conférencier expérimenté dans les domaines de l'éthique, de la gouvernance et des pratiques organisationnelles, de l'intelligence artificielle, des données et des nouvelles technologies. Il a travaillé avec Microsoft et d'autres organisations du secteur privé et possède une vaste expérience.
Bienvenue, Craig, bienvenue à vous trois. C'est formidable de vous compter parmi nous. La première question que je voudrais poser à Monique et Craig est la suivante : que pensez-vous de ce que Phil vient de nous exposer? Aimeriez-vous y ajouter quelque chose, par exemple certains domaines à prendre en considération à partir de cet aperçu général de la réglementation internationale de l'IA? Monique, je pourrais commencer par vous.
Monique Crichlow de l'Université de Toronto :Merci Neil. Je pense que Phil a fait un excellent travail en nous présentant les grandes lignes du panorama actuel et certaines considérations préliminaires. Et j'espère que nous pourrons approfondir un peu plus aujourd'hui, au cours de notre discussion, la question des mécanismes de collaboration inédits qui seront nécessaires pour résoudre ces défis, et pour y réfléchir avec une nouvelle approche.
Neil Bouwer :Très bien. Bien. Nous y reviendrons certainement. Et vous, Craig?
Craig Shank, Éthique en matière d'intelligence artificielle et de nouvelles technologies : Merci infiniment Neil. Et merci Phil. Phil et Monique, j'aimerais m'appuyer sur vos deux commentaires et mentionner quelques éléments. Je pense qu'il y a deux aspects qui m'ont frappé. Le premier est l'observation de Phil sur le besoin d'innovation dans la réglementation, dans les politiques. Et je pense que de nombreuses personnes ici aujourd'hui ont une longue expérience, et ont réfléchi à la question des politiques favorisant l'innovation. La partie délicate ici sera de passer à l'innovation dans les politiques. Et je pense que cela va nécessiter un certain nombre de nouveaux outils. Je crois que nous allons devoir faire des essais, essayer certaines choses qui, je pense, peuvent prendre appui sur les partenariats public-privé existants, et tirer part des évolutions qui viendront du marché tout en reconnaissant qu'un marché complètement libre ne servira probablement pas l'intérêt collectif. C'est le premier élément.
La deuxième observation que je voudrais partager est que Phil a parlé d'un écosystème réglementaire mondial. Et bien sûr, les moyens de véritablement encadrer l'écosystème réglementaire mondial sont limités. En même temps, nous savons que ces nouvelles technologies posent de tels problèmes que toutes les personnes affectées souhaiteront avoir leur mot à dire, et nous serons tous affectés. Et donc fondamentalement, il y a un rôle pour les gens à tous les niveaux. Beaucoup de ces rôles ne sont pas évidents à première vue, mais le pouvoir de divers types de décideurs politiques de progresser dans la voie de l'innovation, je pense qu'il est réel. Et je pense que nous sommes tous prêts à voir ces éléments commencer à se développer.
Neil Bouwer :J'aime cela. D'accord. Nous allons décortiquer ces éléments. Mais d'abord, Phil, Monique et Craig, la première question que je veux poser est la suivante : pourquoi l'IA n'a-t-elle pas été réglementée jusqu'à présent, et pourquoi l'IA devrait-elle être réglementée différemment des autres types de nouvelles technologies? Phil, vous pourriez peut-être commencer : pourquoi avons-nous l'impression d'être au Far West lorsque nous parlons de réglementer l'IA? Pourquoi le processus ne semble-t-il pas plus organisé?
Philip Dawson :Merci, Neil, c'est une excellente question. Je dirais tout d'abord que, dans de nombreux contextes, l'IA est réglementée. Ou du moins, il existe des lois qui devraient nous permettre de réglementer et de faire respecter les diverses normes que nous aimerions voir appliquées à l'IA. Je pense que la grande lacune est que nous ne savons pas tout à fait dans quelle mesure, et de quelle façon ces cadres législatifs ou réglementaires existants pourront s'appliquer.
Si l'on pense aux échanges précédents, des aspects de ce thème ont probablement été abordés dans la conférence. Mais au début des échanges sur une forme de politique et de principes mondiaux en matière d'IA de nombreuses personnes provenant de tous les types d'intervenants, mais surtout de la société civile et du monde universitaire, se sont posé les questions suivantes : « Avons-nous besoin de nouvelles lois? Comment améliorer l'application des lois existantes? » Le cadre des droits de la personne, par exemple, est un espace que nous pourrions examiner pour comprendre certaines des lacunes dans la législation et la réglementation existantes. Quelles sont les avancées que nous aimerions voir émerger de cette technologie, notamment en ce qui concerne le cadre international des droits de la personne? Nous pouvons contribuer à déterminer les lacunes et ensuite, les réponses appropriées en matière de réglementation en fonction de ce que nous jugeons nécessaire pour le respect des droits. Qu'il s'agisse de l'accès aux recours ou de certains principes de responsabilité, et ensuite tâcher de concevoir le bon type de nouvelles dispositions législatives, ou de nouveaux règlements, pour combler ces lacunes. Je pense qu'en fait, nous avons... Si nécessaire. Dans les services financiers, il y a des règlements en place sur la gestion des risques des modèles de gestion des risques. Les instances responsables de la réglementation au niveau sectoriel s'interrogent sur la manière d'appliquer les règlements dans le contexte de l'IA. Faut-il mettre à jour la réglementation? Dans divers secteurs, la réglementation est je dirais, assez sophistiquée. La question est de chercher à comprendre comment elle s'applique au nouveau contexte, et quels sont les changements nécessaires s'il y a lieu.
La raison pour laquelle nous avons l'impression que l'IA n'est pas du tout réglementée est que certains des développements, des applications des algorithmes ou de l'IA qui sont les plus visibles, ou qui ont le moins fait l'objet de discussions publiques, concernent les médias sociaux par exemple les plateformes comme Facebook ou YouTube ou d'autres espaces. Et c'est vraiment en soi une sorte de secteur à part entière, qui a un impact incroyable sur les gens. Et il s'agit d'un espace sous-réglementé. C'est un espace qui est assurément sous-réglementé, car il est nouveau. Je crois que c'est l'une des raisons. Et la situation perdure depuis un certain temps, pour un certain nombre de raisons, mais nous n'avons pas une vision claire de la façon dont ces systèmes fonctionnent. Pendant longtemps, je pense que la plupart des gens ne savaient même pas que ces mécanismes étaient à l'œuvre. Donc, c'était un peu... Nous étions complètement ignorants à ce sujet. Bref, dans de nombreux contextes, surtout au niveau sectoriel, il y a des cadres en place. Nous cherchons à comprendre comment mieux les utiliser et comment les adapter. Ensuite, dans un contexte beaucoup plus large, il y a des répercussions au quotidien sur la plupart d'entre nous. C'est un domaine sous-réglementé, et les pays cherchent à y remédier au moyen de certains projets de loi évoqués lors de la conférence.
Neil Bouwer :D'accord, excellent. À présent, Monique, vous avez utilisé le mot en C de « collaboration ». J'aimerais en savoir plus sur les acteurs qui collaborent pour trouver des solutions, quels sont-ils, et à l'inverse, quels sont les acteurs qui font preuve de résistance, peut-être, face à ces solutions? Et si nous nous dirigeons vers un renforcement de la surveillance réglementaire, ou du moins vers une surveillance plus claire et mieux définie à quoi pourrait ressembler cet écosystème? Comment se présentent les acteurs en matière de collaboration et de coopération?
Monique Crichlow : Merci Neil. Je pense que dans la conférence, Phil a très bien mis en lumière, au niveau international, certains des acteurs qui agissent comme leaders dans la discussion sur la réglementation de l'IA. Et c'est une bonne perspective pour examiner la question. Nous savons qu'au niveau international, il y a bel et bien des discussions. Et je pense que lorsque l'on commence à décortiquer le processus et à observer, on voit que les gens, que ce soit dans la société civile ou dans l'industrie, même dans les universités, ont vraiment montré qu'il y a un intérêt pour cette conversation, pour se réunir et discuter : à quoi pourrait ressembler la réglementation? Que faisons-nous de bien? Qu'est-ce que nous ne savons pas?
Je pense qu'il ne s'agit pas tant de savoir qui ne coopère pas, qui ne participe pas ou qui n'est pas intéressé par cette conversation. Je dirais qu'en général, il semble y avoir un intérêt pour cette conversation. J'ai l'impression que les gens attendent que quelqu'un agisse comme leader et donne le signal, en particulier dans les nouveaux domaines, par exemple pour ce qui est du domaine des médias sociaux, que Phil a mentionné. Mais dans d'autres secteurs bien connus, Phil, dans les services financiers et même la santé, je dirais que beaucoup d'initiatives de collaboration se mettent en place. Les gens veulent savoir à quoi cela peut ressembler au niveau mondial, international. Et pour en revenir à ce qu'a dit Phil, comment nos secteurs peuvent-ils s'adapter à cette irruption de l'IA, qui se rapproche d'une manière plus étroite? Je dirais donc que la collaboration est en marche. Les acteurs répondent présents et il s'agit vraiment de savoir comment transposer cette collaboration en mesures concrètes.
Neil Bouwer :Je dirais qu'il semble que l'IA sera plus difficile à réglementer. Si l'on parle des trains, des avions ou des automobiles, ce sont des éléments matériels, il est possible de les réglementer, de les inspecter, il y a des normes professionnelles connues. Mais quand je vous entends, vous et Phil parler de réglementer Facebook ou autre, cela me semble plus théorique. Pensez-vous qu'il soit possible de réglementer Facebook et ces autres applications d'IA, Monique? Pensez-vous que ce sera plus limpide dans cinq ans, ou que ce sera vraiment difficile?
Monique Crichlow :Je pense que nous constatons que les gens veulent qu'il y ait des règles. Nous voyons que même les entreprises veulent des règles. Donc, je pense que la réglementation sera bel et bien une réalité. Il y a des gens qui intentent des poursuites contre leur gouvernement sur des sujets liés à la protection des données de l'IA et à la sécurité de l'information. Nous voyons qu'il y a un intérêt et il est nécessaire, je pense, de réfléchir à la manière dont nous pouvons répondre à cette situation, de façon à protéger l'intérêt public. Parce que la population indique clairement qu'elle a une position, et qu'il y a des attentes envers les gouvernements qui sont tenus d'agir dans le meilleur intérêt de la population.
Et j'ai l'impression que nous constatons aussi que les entreprises, dans une certaine mesure, sont disposées à le faire. Et que des secteurs comme la société civile et le milieu de la recherche sont prêts à collaborer pour contribuer à définir les moyens et les stratégies. Alors, nous y sommes, je crois. Je pense que nous allons voir davantage d'initiatives de ce type. Ensuite, pour ce qui est de savoir à quoi cela ressemblera pour chaque secteur et pour chaque groupe, je crois que c'est vraiment ce sur quoi nous devons concentrer, car je ne pense pas que ce sera la même chose pour tout le monde.
Neil Bouwer :Intéressant. Et je me souviens que Mark Zuckerberg a eu une réplique mémorable au Congrès américain, quand il a dit que les législateurs n'avaient qu'à le réglementer s'ils n'étaient pas d'accord avec ce que faisait Facebook. Donc, Craig, vous avez mentionné l'innovation, je pense que vous... Pour vous paraphraser, vous avez dit que « pour y arriver, nous allons devoir essayer des choses différentes. » Pouvez-vous nous décrire brièvement ce que vous considérez comme des outils réglementaires innovants? Je vais ensuite laisser la parole aux autres, mais pourriez-vous nous dire quelques mots sur ce que ces approches novatrices pourraient impliquer?
Craig Shank :Certainement. En fait, j'ai hâte d'entendre Monique et Phil à ce sujet. Et il y a beaucoup de personnes dans l'auditoire qui seraient sans doute en mesure de nous donner une formation complète sur le sujet, mais j'aimerais proposer quelques réflexions. Parmi les éléments que j'aborderais en priorité, tout d'abord : que pouvons-nous faire? Que savons-nous que nous pouvons faire? Et cela signifie aussi de prêter attention à ce que nous ne pouvons pas faire, à mettre de côté ces éléments et à reconnaître la situation. Il y a quelques écueils très délicats, car il s'agit d'une technologie prédictive, et non d'une technologie déterministe. C'est un aspect très important, et il n'y a pas de doctrine du point de vue de l'élaboration des politiques sur la façon d'aborder ces éléments. Mais arrêtons-nous un instant et pensons à la question en matière de risques plutôt qu'en matière de réglementation précise. Donc, ce serait un premier élément. Un deuxième élément est...
Neil Bouwer :Avant de poursuivre, pouvez-vous nous en dire un peu plus? Expliquez-nous un peu ce que vous voulez dire par...
Craig Shank :Merci. Merci. Oui, alors quand nous examinons les outils, les outils d'IA, je ne vais pas définir l'IA, mais je vais rappeler certains des attributs de l'IA. L'un de ces attributs est que ce sont des systèmes qui ont la capacité d'apprendre, et de changer leur comportement. Cela signifie que la réponse du système demain pourrait être différente de sa réponse aujourd'hui.
Deuxièmement, les systèmes d'IA utilisent généralement des modèles de prévision, qui font généralement des prévisions sur nous, et sur notre comportement, ou sur le comportement de diverses choses dans l'univers. Ils font des prévisions quant aux comportements, mais ces prévisions sont fondées sur leurs apprentissages, et elles peuvent donc varier dans le temps. Cette combinaison de l'apprentissage au fil du temps et de l'utilisation de valeurs prédictives plutôt que d'une approche déterministe de type A plus B plus C égale D nous donne un système dans lequel on ne peut reproduire les résultats chaque fois. Il est très difficile de gérer la traçabilité de ces systèmes. Il faut donc réfléchir en profondeur à ces éléments, mais pour l'instant je dirais qu'il faut les mettre de côté et reconnaître que c'est un domaine qui nécessitera un certain travail.
Il y a certaines choses que nous pouvons faire dès maintenant. L'une d'entre elles est de travailler sur nos modèles de risques. Une autre consiste à bien réfléchir aux outils que nous avons dès maintenant à notre disposition, les études d'impact. Si je devais conseiller une équipe qui est sur le point de mettre en œuvre un outil, ou d'acheter un outil, je lui recommanderais de se perfectionner dans les études d'impact en s'inspirant des études d'impact sur les données et sur les droits de la personne, et de se pencher sérieusement sur cette question.
Le deuxième point serait : prenez le temps de bien réfléchir à votre plan de lancement et à la manière dont vous gérez le changement avec votre communauté de parties prenantes. Et le troisième serait axé sur la surveillance : il faut savoir où se trouve le bouton d'arrêt. Et je pense que ce sont là des domaines qui pourraient donner des idées à ceux qui jouent un rôle dans l'élaboration des politiques.
Neil Bouwer :Formidable. Monique et Phil, vous voulez ajouter quelque chose à cette liste?
Monique Crichlow :Phil, je vous laisse commencer et...
Philip Dawson :Certainement. Oui, bien sûr. Merci Neil. Je pense que Craig a très bien réussi à nous expliquer pourquoi l'IA est unique, ou du moins en quoi certaines de ses propriétés sont uniques, et pourquoi elle peut exiger de nouvelles approches, du simple point de vue de la technologie et de certains des outils dont disposent les entreprises. Je pense que les gouvernements, et cela a été un peu évoqué dans la présentation, les gouvernements cherchent également diverses manières de répondre aux défis uniques de l'IA en matière de complexité et de variabilité, en essayant d'optimiser ou d'exploiter les ressources du secteur privé pour certains aspects de la surveillance de l'IA dans un régime réglementaire. Ce que j'entends par là, très concrètement, c'est que, par exemple, dans la Loi sur les services numériques, la loi européenne qui porte sur les services numériques fournis par les très grandes plateformes en ligne, les entreprises de médias sociaux notamment, il y a une disposition qui cherche à savoir comment habiliter ou accréditer des chercheurs universitaires indépendants pour collaborer avec les entreprises de médias sociaux afin de servir les objectifs de la loi. Que ce soit du point de vue de la conformité ou simplement pour étudier les impacts de ces systèmes qui nous sont cachés, du moins pour ce qui est de leur développement et de leurs effets, comment pouvons-nous tirer parti des ressources existantes... Des ressources de confiance dans ce cas, des chercheurs universitaires, pour approfondir notre compréhension de la technologie d'une manière qui nous aidera à mieux la réglementer ou à comprendre ses conséquences à l'avenir?
Je pense qu'il s'agit là d'une approche assez novatrice quant à la manière dont le processus réglementaire peut être soutenu par les ressources appropriées. Et c'est un élément de la législation européenne. Il faudra ensuite donner des directives sur la manière dont cela fonctionne dans la pratique. J'imagine que ce sera une tâche compliquée, mais cela vaut la peine de s'y atteler. Et si nous pensons à la durabilité de la réglementation de la surveillance et de l'application de l'IA au fil du temps, je pense qu'il est très logique d'essayer de tirer parti de ressources supplémentaires en dehors du gouvernement, tout en maintenant une surveillance et une responsabilité publiques solides, et en définissant adéquatement cette approche pour s'assurer que nous obtenons ce que nous voulons de la collaboration et du produit final, et qu'il y a une reddition de comptes.
Mais je pense qu'en fait, au Canada, nous avons certains... L'une des choses dont nous avons parlé depuis l'adoption de la Stratégie pancanadienne en matière d'IA en 2017 est la force du Canada en matière de recherche sur l'IA et de recherche universitaire. Ainsi, il y a d'autres pays qui considèrent les ressources externes au gouvernement comme des occasions de soutenir un futur régime de réglementation. Je pense que c'est très important.
Neil Bouwer :Il semble donc que nous ayons moins besoin d'un ministère de la magie que d'une collaboration avec des acteurs de confiance pour effectuer une analyse des données, ce qui n'a rien de magique. C'est quelque chose que nous faisons déjà pour l'analyse de données multisectorielles ou intersectionnelles. Et ainsi, la démarche est peut-être beaucoup plus pragmatique qu'elle ne semble l'être à première vue. Monique, vouliez-vous ajouter quelque chose à propos des approches innovantes de la réglementation?
Monique Crichlow :La seule chose que j'ajouterais, et je l'ai évoquée au début en parlant de collaboration, je pense que nous devons réfléchir non seulement à ce qui se trouve dans notre trousse à outils et à la façon dont nous pouvons tirer parti de l'expertise des universitaires ou de l'industrie, mais aussi à ce qui constitue leur expertise spécifique et ce qui est hors de leur expertise, et nous assurer d'un équilibre dans nos approches. Nous devons veiller à bien réfléchir à la composition des tables de discussion et au rôle de chacun, car je crois que comme pour beaucoup d'aspects liés à l'IA et aux données, la confiance est au cœur de la conversation. Ainsi, même du point de vue de la collaboration en matière de gouvernance et de l'approche de la réglementation, nous devons nous questionner sur la clarté de nos approches de gouvernance. Faisons-nous preuve de responsabilité dans nos approches de gouvernance? Faisons-nous preuve de transparence dans nos approches de gouvernance? Je pense que c'est une attente que la population aura forcément.
Neil Bouwer :Intéressant... [propos simultanés 00:44:41] Oui, allez-y.
Craig Shank :Je veux souligner quelque chose que Phil et Monique ont mentionné les commentaires de Monique ont soulevé un point très important. Je crois que nous essayons d'innover dans l'élaboration des politiques, mais nous allons aussi devoir innover dans notre façon de faire appel aux parties prenantes. Et dans ce processus d'innovation pour susciter la participation des parties prenantes, nous allons devoir innover quant à la proposition de valeur associée à leur participation. En effet, vous pourriez consacrer tout votre temps à participer à des réunions et ne jamais réussir à voir votre point de vue véritablement pris en compte dans la politique en cours d'élaboration, et ce serait un mauvais résultat. Ce serait un mauvais résultat alors que nous cherchons à attirer une diversité de voix dans ces démarches. Je pense que c'est un point très important.
Une deuxième observation que je voudrais partager est que le Canada est déjà aguerri dans l'univers des études d'impact. Et je parie que d'excellentes données pourraient sortir d'un examen quinquennal, au fur et à mesure des développements qui se produisent, d'un examen quinquennal de ces études d'impact par rapport à ce qui s'est véritablement produit et aux préjudices éventuels. Je pense que nous avons là un système unique qui favorise cela.
Neil Bouwer :Eh bien, j'ai hâte de voir les citoyens appelés à faire partie de groupes de discussion ou de groupes d'utilisateurs pour examiner un algorithme ou de voir une assemblée de citoyens se pencher sur les effets d'un algorithme sur les services publics essentiels. Dans quelle mesure pensez-vous... Craig je commencerais peut-être par vous. Dans quelle mesure pensez-vous qu'il s'agit d'un effort national ou d'un effort international? Ce que Phil a décrit, c'est véritablement un écosystème international. Il y a diverses sortes d'écosystèmes réglementaires qui se développent à travers le monde. Dans quelle mesure le travail d'innovation, d'inclusion et de collaboration que vous avez tous décrit relève-t-il d'une échelle internationale?
Craig Shank :Je pense... Les deux sont nécessaires. Nous aurons fondamentalement besoin des deux, et les deux niveaux bougent, mais je dirais que nous apprenons énormément lorsque les développements surviennent d'abord dans des environnements de taille plus modeste. Je ne veux pas dire que la ville de New York est un environnement de taille modeste, mais la ville de New York a une loi sur les marchés publics de l'IA qui indique que d'ici 2023, les biens acquis par la municipalité pour l'utilisation de l'IA devront faire l'objet d'une vérification. C'est important pour plusieurs raisons. La première est que cela signifie que quelqu'un va devoir trouver comment procéder à une vérification de ces systèmes. En fait, c'est une incitation à l'innovation. En écho à la remarque de Monique sur les signaux de marché, c'est un signal du marché qui sera très utile, et je pense que nous en tirerons beaucoup d'avantages.
À l'autre bout des États-Unis, dans l'État de Washington on a tenté de réglementer la reconnaissance faciale. Cette initiative a échoué. Elle n'a pas échoué parce que les entreprises technologiques l'ont devancée. En fait, ce sont les entreprises elles-mêmes qui l'avaient proposée. Elle a échoué parce que les forces de l'ordre étaient très préoccupées par le fait de restreindre leur capacité à utiliser un outil qu'elles considéraient comme important et précieux. Les forces policières ont reconnu que l'usage de cet outil pouvait être inapproprié dans certaines situations, mais les parties n'ont pu se mettre d'accord assez rapidement pour faire adopter la loi. Il s'agissait d'une démarche qui avait le potentiel de compter sur le soutien de toutes les parties et elle a échoué pour l'instant. Mais ces expériences sont primordiales pour comprendre le fonctionnement de ces éléments dans la réalité et les divers secteurs. Quels sont les problèmes? Quelles sont les parties prenantes et quels sont les intérêts en jeu?
Neil Bouwer :Pour ma part, j'espère que le premier pays à réglementer la reconnaissance facile et à comprendre comment cela fonctionne sera une démocratie sociale libérale. Et vous, Phil? Vous avez abordé beaucoup de sujets au niveau international pour ce qui est des solutions et des défis à relever. Dans quelle mesure jugez-vous qu'il s'agit d'un effort international ou d'un effort national?
Philip Dawson :Oui, alors je dirais que je suis d'accord avec Craig. Je pense que les petits pays ou les économies moyennes, comme le Canada et d'autres pays similaires, auront besoin des deux. Je pense qu'il y aura une forte volonté de s'appuyer sur les normes internationales pour aider les entreprises actives au Canada à garantir leur accès au marché, et les normes internationales et les évaluations de la conformité par rapport aux normes internationales seront des outils incontournables dans cet objectif. En général, ces outils ne sont pas nécessairement élaborés par des Canadiens ou par les comités parallèles canadiens comme on les appelle dans les organismes internationaux sur les normes, mais le Canada a tendance dans certains cas à se démarquer et à contribuer de façon importante à certains de ces processus. Et il y a justement une initiative en cours au Canada, où le Conseil canadien des normes tente de faire précisément cela.
Le Conseil a tiré profit, pour ainsi dire, de certains de ses succès, et il a élaboré une norme internationale, une norme de gestion de la qualité pour l'IA. Il s'agit probablement de l'une des principales normes internationales qui permettra de garantir la conformité à l'échelle internationale, il est encore trop tôt pour le confirmer, mais c'est très probable. Dans le budget de 2021, le gouvernement a pris l'engagement d'élaborer une forme d'accréditation de l'évaluation de conformité par rapport à cette norme, en s'appuyant sur quelques projets pilotes menés avec diverses entreprises au Canada. C'est donc un excellent exemple de la dynamique dans laquelle le Canada examine les normes internationales, et cherche à y consacrer des ressources afin de consolider ses forces dans ce domaine particulier. Mais oui, je pense que c'est sans doute un bon modèle pour le Canada d'examiner les normes internationales et d'évaluer comment les aborder, car à l'échelle internationale, les grands marchés économiques ne considèrent pas nécessairement les normes nationales canadiennes comme des précédents.
Nous n'avons pas réellement besoin qu'ils le fassent mais lorsque nous aurons une bonne idée des règles internationales en phase avec nos valeurs et les besoins de nos entreprises, nous pourrons nous en servir pour élaborer nos programmes nationaux et soutenir notre écosystème technologique. Voilà donc un exemple. Je pense que les pays auront des approches différentes en matière de réglementation. Cela n'est pas négatif ou péjoratif mais le plus petit dénominateur commun devra être axé sur l'interopérabilité au moyen d'une approche harmonisée par rapport aux normes internationales. Sinon, j'ai l'impression qu'il y aura beaucoup d'approches différentes de la réglementation. Si l'on analyse à quel point la loi européenne sur l'intelligence artificielle est détaillée et même prescriptive, on se rend compte qu'il est très peu probable qu'un instrument de ce genre soit adopté aux États-Unis. Craig pourra me corriger si je me trompe, mais je ne pense pas que nous verrons ce genre d'approche aux États-Unis.
Nous verrons peut-être une position mitoyenne au Royaume-Uni, dans la foulée de la publication d'un livre blanc sur la réglementation de l'IA prévue pour 2022. En fait, nous risquons de voir émerger des approches nationales divergentes, mais il faudra que les normes internationales reposent sur des fondements communs, dans un objectif d'interopérabilité et de soutien aux échanges commerciaux.
Neil Bouwer :Très bien. Eh bien, c'est une bonne transition pour notre première question des participants et Monique, je vais commencer par vous, mais c'est une question très pointue en deux parties. La première partie est la suivante. La réglementation au Canada est-elle suffisamment solide ou complète pour relever les défis connus associés aux systèmes d'IA? Et la deuxième partie pose la question suivante : que devrait faire le Canada pour rattraper son retard par rapport aux initiatives de réglementation de l'IA dans l'Union européenne et aux États-Unis? Donc, Monique, je vais commencer par vous, mais je sais que Craig et Phil voudront sans doute ajouter leur grain de sel. Allez-y.
Monique Crichlow :Alors, pour ce qui est de la première question, à savoir si notre réglementation est suffisamment robuste ou complète pour relever les défis connus associés aux systèmes d'IA, Craig et Phil ont tous deux souligné certains des avantages que le Canada possède dans ce domaine. Nous réalisons beaucoup d'études d'impact. Nous avons de bons résultats en matière d'évaluation des risques. Nous avons de l'expertise dans ce domaine. Nous avons de solides systèmes de réglementation, et des normes en place. Je dirais donc que les fondements sont là. La question est plutôt la suivante : dans quelle direction voulons-nous aller? Et dans quelle mesure souhaitons-nous exercer une influence? Pas seulement au Canada, mais peut-être aussi à l'échelle internationale. Ainsi, pour ce qui est de la dernière partie de la question concernant le rattrapage par rapport à l'Union européenne ou aux États-Unis, j'ai une opinion claire à ce sujet.
Je pense que nous avons un réel avantage à l'heure actuelle pour être en mesure de tester certaines choses et de rassembler des groupes qui ont investi dans l'intelligence artificielle, pour mettre à l'essai les normes dès maintenant. Nous savons que nous avons un avantage concurrentiel dans plusieurs secteurs clés de notre économie. Nous savons que nous voulons faire en sorte de maintenir cet avantage concurrentiel. Et c'est peut-être sur ces secteurs que nous devrions nous concentrer, sur les normes. Mais je pense qu'en matière d'expertise, d'outils et de possibilités, nous sommes dans une position enviable pour combler ces lacunes. Voilà mes réflexions pour le moment, je laisse la parole à Craig et Phil pour avoir leurs commentaires.
Neil Bouwer :Super. Craig?
Craig Shank :Alors, je vais me lancer. Je suis tout à fait d'accord, Monique. C'est une excellente évaluation. Je pense qu'il y a deux ou trois choses que le Canada peut faire pour tirer parti de cette situation. L'une d'entre elles est la plus difficile de toutes, à savoir réglementer les médias sociaux, et je ne m'y attarderai pas pour l'instant, car je pense qu'il faut un type de réflexion et de réglementation différent de la vision horizontale de la réglementation de l'intelligence artificielle fondée sur les risques, ou de la réglementation sectorielle de l'intelligence artificielle.
La deuxième chose que je mentionnais est le fait d'envoyer un signal fort. Le Canada est un participant digne de confiance dans l'écosystème international. C'est un participant crédible dans la communauté des normes, et grâce à sa participation au Groupe des cinq, dans le domaine de la cybersécurité. Le Canada peut effectivement jouer un rôle non négligeable dans ce domaine. Je pense que le Canada pourrait envoyer un signal fort quant aux exigences qu'il aimerait voir en place, en particulier dans une optique d'approvisionnement. J'y reviendrai encore et encore, ce signal du marché est extrêmement précieux, et il attirera forcément l'attention des entreprises de technologie et des acteurs qui font partie de cet écosystème de partenaires bâtissant un cadre au-dessus de ce que les entreprises du secteur technologique mettent en place. Et je pense que cela pourrait être très, très utile. Je crois – je suis un Américain cynique – que la possibilité qu'une initiative voit le jour ici aux États-Unis sans être uniquement motivée par la colère contre les sociétés de médias sociaux, est, au mieux, modeste. L'environnement législatif actuel est très difficile pour ce type de travail horizontal. Et puis sur ce point, nous pouvons discuter de la question des médias sociaux à une autre occasion, un autre jour ou pendant une autre partie de cet échange. Mais je pense que c'est une chose très différente.
Neil Bouwer :Je vais céder la parole à Phil, mais d'abord, j'aimerais simplement souligner une chose que vous avez dite au sujet de l'approvisionnement parce que dans le contexte canadien, les ministères de SPAC et du Secrétariat du Conseil du Trésor travaillent fort par exemple ISDE et d'autres, à mettre de l'avant un programme pour les ministères et les organismes dont nous faisons tous partie, qui pourrait avoir des effets importants pour utiliser le mécanisme de l'approvisionnement de façon stratégique pour les achats d'IA, y compris de nombreux petits fournisseurs qui font partie de l'écosystème. Je voulais donc simplement souligner ce point, mais Phil, que pensez-vous de la question de savoir si le Canada en fait assez et ce qu'il devrait faire de plus pour combler cet écart potentiel avec l'Union européenne et les États-Unis?
Philip Dawson :C'est une excellente question et tout d'abord, je ne suis pas sûr que nous ayons un énorme écart avec ce que font les États-Unis. Mais du point de vue des États-Unis, et de l'écart avec l'Union européenne... Pour plusieurs raisons, je ne suis pas certain qu'il s'agisse de la bonne question. En fait il y a des approches fondamentalement différentes. Si l'on regarde le cas de l'Union européenne, cela a été abordé dans la présentation, mais en ce qui concerne les données et l'IA, l'Union européenne a déposé, je crois, cinq textes de loi au cours des 18 derniers mois et je pense qu'il n'y avait même pas sur la diapositive le projet de loi sur les données, qui vient tout juste d'être publié, après que la présentation a été faite. Donc, cinq textes de loi, une législation très complète, avec des dispositions interreliées dans ces divers instruments tout cela en 18 mois. Je pense qu'en un sens, nous devons également nous demander si c'est bien ce que nous cherchons à faire. Est-ce que, simplement en matière de capacités, c'est une chose que nous pouvons faire? Je n'en suis pas certain.
Et puis, deuxièmement, est-ce souhaitable? Dans certains cas, si l'on peut compter sur une fonction législative qui nous permet d'élaborer une législation de ce type dans un laps de temps aussi court, on peut probablement présumer qu'il est également possible de la réviser aussi rapidement. Il serait sans doute possible de continuer à la mettre à jour de manière presque itérative de notre point de vue, ou du moins du point de vue américain, pour les administrations qui observent cette fonction législative cela ressemble presque à nos règlements. En ce sens qu'elles peuvent être adaptées avec beaucoup plus d'agilité. Donc, si nous examinons la situation, au Canada, que devrions-nous faire pour rattraper notre retard? Je pense qu'il faut faire attention à ce que nous souhaitons, et à ce que nous voulons inclure dans de réels textes législatifs, car comme nous l'avons vu ces derniers sont difficiles à ajuster et à modifier, et il peut être plus approprié – et je ne dis pas qu'il n'y a pas de risques et de préjudices réels contre lesquels protéger la population.
Ainsi, je pense qu'il est nécessaire d'agir, mais cela se fera peut-être dans une approche plus semblable à ce que Craig évoquait, dans certains domaines stratégiques, au niveau de l'approvisionnement, ou à un niveau horizontal, avec un cadre qui au marché le signal que des règles de ce type sont en cours d'élaboration, peut-être par le biais de normes réglementaires assorties d'une surveillance publique robuste, mais je ne suis pas certain que nous souhaitions vraiment rattraper ce retard. Ou que nous serions bien positionnés pour combler ce retard, étant donné qu'il est très difficile de modifier les lois dans notre pays. Et puis, nous parlons encore d'un domaine relativement jeune sur le plan technologique. Je vais donc m'arrêter là, mais je pense que c'est une excellente question. Et c'est une question que nous nous posons constamment parce que nous voyons beaucoup de dynamisme dans l'Union européenne en particulier.
Neil Bouwer :Excellent.
Monique Crichlow :Désolé Neil. J'aimerais simplement [propos simultanés 01:00:11]. J'ai l'impression que vous dites que la façon de réglementer ou de normaliser l'IA se présentera différemment. Que tout ne doit pas nécessairement passer par des mécanismes juridiques comme ceux que nous avons vus dans l'Union européenne. Je crois que c'est ce que je retiens de vos propos, est-ce bien cela?
Philip Dawson :Oui, merci Monique. Ce que je dis, c'est qu'il y a peut-être de nombreuses caractéristiques des initiatives que nous voyons dans d'autres pays qui, pour nous, auront du sens si elles sont élaborées par le biais de règlements ou de normes, avec des liens avec un cadre législatif. Exactement.
Neil Bouwer :J'aime beaucoup cette distinction entre ce que l'on inclut dans la loi et ce que l'on inclut dans la réglementation. Et je note que le pouvoir législatif doit faire confiance au pouvoir exécutif s'il lui confie un pouvoir réglementaire, ce qui amène des questions très intéressantes en matière de confiance dans ce domaine fort dynamique. Nous avons une autre question des participants, et j'aimerais en profiter pour rappeler que vous pouvez utiliser le bouton « lever la main » dans le coin supérieur droit de votre écran. Donc, s'il vous plaît n'hésitez pas. Nous avons quelques questions en attente, mais n'hésitez pas à envoyer votre question pour que je la pose aux intervenants. La prochaine question vient, je crois, d'une remarque que vous avez faite, Craig. Je vais donc vous l'adresser en premier. Soyez indulgents avec moi, je vais lire la question.
La voici : « Si l'IA est de plus en plus utile, nécessaire ou inévitable pour accomplir les tâches quotidiennes des gouvernements et des entreprises, et que l'on constate qu'une IA a en fait des effets nuisibles et qu'il serait mieux pour l'organisation de s'en passer, sera-t-il possible de revenir en arrière, ou faudra-t-il ajouter encore et encore de nouvelles fonctionnalités d'IA sur un système d'IA potentiellement nuisible? » Je me rappelle que vous avez mentionné qu'il faudrait toujours être en mesure d'arrêter d'utiliser un système au besoin. Alors, voudriez-vous nous en dire davantage à ce sujet en répondant à cette question en premier?
Craig Shank :Certainement. C'est une excellente question et c'est un bon point qui concerne davantage la nature humaine que la technologie. Cela a à voir avec la facilité avec laquelle nous acceptons certaines choses dans une organisation et choisissons ensuite de les rafistoler ou de les réparer plutôt que, si un élément n'est vraiment pas adapté, de le retirer et de recommencer à neuf. Je crois qu'il y a là une partie des éléments en jeu. Et je pense qu'un point clé dans la façon d'aborder cette question est de s'assurer que... Il y a plusieurs volets différents. La segmentation de ces systèmes en diverses composantes lors de la conception doit absolument être gérée de manière à ce que les éléments qui n'ont pas leur place dans le système puissent en être retirés. Ensuite, il est possible d'effectuer un contrôle de l'intégrité du système, de comprendre ce qui reste et comment continuer à faire fonctionner le système. Cela dépend de la fonctionnalité, de son rôle. Je pense que la question a aussi à voir avec le fait qu'un grand nombre de systèmes d'IA qui seront construits au cours des prochaines années seront constitués à partir de nombreux systèmes. Ainsi, avec des composites, il faut être très attentifs à la situation de chacune des composantes. Que se passe-t-il lorsque vous arrêtez d'exploiter l'une des composantes, mais que vous continuez à... Quel que soit le système, il faut toujours être en mesure de retirer les éléments qui créent des risques. Il faut être en mesure d'arrêter de les faire fonctionner à un certain niveau, même si cela signifie que votre système, si vous bâtissez un système d'une importance cruciale qui repose sur certaines de ces composantes et que vous devez le faire fonctionner aux cinq neuvièmes de sa fiabilité, alors vous devez avoir une méthode pour retirer cette composante et la remplacer, cela doit faire partie de l'étude d'impact, du plan de lancement et du plan de surveillance. Je ne suis pas sûr d'avoir été très [inaudible 01:04:02] dans ce domaine, mais c'est une très bonne question.
Neil Bouwer :Permettez-moi de...
Craig Shank :Oui.
Neil Bouwer :Permettez-moi de vérifier si j'ai bien compris. Disons que j'ai une voiture autonome alimentée par l'IA, mais que les feux de route ne fonctionnent pas, ou que le détecteur d'angle mort ne fonctionne pas. Ce que vous dites, c'est que nous devrions concevoir l'IA comme une somme de plusieurs composantes, de sorte que nous puissions désactiver ces composantes si elles cessent de fonctionner. Est-ce bien cela?
Craig Shank :Je partagerais deux réflexions à ce sujet. Premièrement, nous savons que les systèmes seront construits ainsi, en rassemblant diverses composantes en raison de leur complexité et du nombre de personnes impliquées. Ce qui est essentiel, c'est de nous assurer de pouvoir désactiver ces éléments. Et que s'il faut désactiver un élément essentiel au fonctionnement du système, nous aurons la possibilité soit d'installer une composante de remplacement, soit d'arrêter le système. En ce sens, le système doit pouvoir être mis hors service si nécessaire, mais il doit pouvoir l'être sans que cela n'entraîne l'arrêt d'un battement de cœur humain, par exemple. Il s'agit d'un attribut important sur le plan de la conception qui permet de réfléchir à la manière dont nous concevons ces systèmes.
Neil Bouwer :D'accord, je comprends. Et j'imagine que cela vient avec la responsabilité de sauvegarder les différentes versions que vous avez utilisées auparavant, mais...
Craig Shank :Sauvegarder les différentes versions, avoir une bonne méthode de gestion des versions, et veiller à la traçabilité. Quand nous avons commencé à parler des aspects et à les passer en revue, nous nous sommes rendu compte qu'il serait presque impossible de réglementer ces éléments au moyen de la législation. C'est trop fragile, la législation est trop fragile pour gérer ce genre de procédé dynamique de développement de systèmes. Opter plutôt pour des règlements, peut-être, mais dans une approche de réglementation de l'analyse des risques, de réglementation de la traçabilité et de la capacité à mettre un système hors service. Cela pourrait être fait sans réglementer les détails de la gestion de chaque composante. Seule la Chine dispose des ressources nécessaires pour réglementer tous ces éléments.
Neil Bouwer :Intéressant. Monique et Phil, voulez-vous ajouter quelque chose à cette discussion sur le fait de retirer des composantes qui ne fonctionnent pas? Non?
Monique Crichlow :J'allais dire, je pense que Craig a vraiment bien résumé la situation. Et l'exemple de la voiture autonome que vous avez donné est un bon exemple, Neil. Quel que soit le domaine, l'essentiel quand il s'agit de normes est à mon avis d'avoir la capacité de réagir si vous voyons apparaître un élément dangereux.
Philip Dawson :J'aimerais simplement souligner un aspect que j'ai bien aimé des propos de Craig, et qui a aussi à avoir avec ce que j'essayais d'expliquer plus tôt, au sujet de la loi qui est un instrument fragile. Et qui ne semble pas être le bon mécanisme, ce n'est pas tant que nous... il n'est pas souhaitable de mettre au point toute une législation de ce type, car elle deviendra rapidement inadaptée pour répondre aux défis auxquels nous sommes confrontés. Il ne s'agit en aucun cas de renoncer à notre responsabilité au niveau législatif ou même au niveau réglementaire. Cela a plutôt à voir avec le fait de reconnaître que le bon outil pour faire face à ce type de dynamisme se trouve au niveau des normes industrielles. Ensuite, nous pouvons nous poser une tout autre question : cette situation est-elle légitime du point de vue des processus démocratiques et de la reddition de comptes? Et si elle ne l'est pas comment pouvons-nous renforcer la légitimité du cadre, tout en répondant aux défis des entreprises sur le terrain, avec des technologies qui seront développées en fonction de normes industrielles, plutôt que de normes relevant des deux premiers niveaux de réglementation.
Neil Bouwer :Et l'un des membres de l'auditoire pose une question qui tombe à point sur ce sujet, Phil. Vous avez utilisé le terme de « lois non contraignantes » dans votre conférence d'ouverture en parlant des normes internationales. Pourriez-vous nous donner un exemple ou nous dire quelques mots sur le type de lois non contraignantes qui pourraient régir ce domaine?
Philip Dawson : Certainement. Dans la présentation, je crois que nous avons parlé de certaines des organisations internationales qui ont contribué à l'élaboration de directives et de principes liés à la gouvernance de l'IA. J'ai mentionné plus tôt, dans la discussion aujourd'hui, le champ du droit international des droits de la personne. Les juristes et les groupes de la société civile ont discuté du potentiel de ce cadre pour comprendre les impacts de l'IA et formuler nos réponses d'une manière qui soit cohérente avec les exigences du cadre des droits de la personne. Le droit international des droits de la personne pourrait être décrit comme un droit non contraignant. Il fait partie des cadres juridiques internationaux. C'est lorsqu'elles sont incorporées dans le droit national par le biais, par exemple au Canada, de notre législation sur les droits de la personne au niveau provincial ou fédéral, que des normes deviennent contraignantes. Donc, au niveau national les dispositions législatives sont contraignantes et justiciables, je pense que c'est le bon mot, au niveau des tribunaux. Il y a une distinction entre ces deux niveaux.
La Déclaration universelle des droits de l'homme est un exemple d'un instrument à caractère non contraignant, tout comme certaines des orientations qui en découlent à travers les principes directeurs de l'ONU sur les entreprises et les droits humains, les principes de l'OCDE en matière d'intelligence artificielle, et certaines des orientations élaborées par l'OCDE. C'est le domaine des lois non contraignantes, qui est fréquent dans le domaine de la technologie, mais aussi dans d'autres espaces, souvent avant que les pays ne mettent en place leur propre législation contraignante. Ce sont des outils qui contribuent véritablement à orienter les efforts législatifs et les discussions politiques au niveau national. Dans certains cas, ils peuvent être intégrés de façon très spécifique dans la législation interne, mais ils ne sont pas contraignants.
Neil Bouwer :Maintenant, puis-je vous poser une question assez précise? Pensez-vous que l'industrie peut s'autoréguler par le biais de normes ou pensez-vous que nous avons besoin d'une loi stricte dans ce domaine?
Philip Dawson :C'est un excellent point, Neil, avant la table ronde d'aujourd'hui nous en parlions justement dans le cadre de l'excellente série d'activités organisée par l'École de la fonction publique du Canada avec le Conseil canadien des normes sur la feuille de route relative à la normalisation de la gouvernance des données publiée l'été dernier, et sur les normes de gouvernance des données qui pourraient être mises en œuvre pour soutenir les activités commerciales et les initiatives axées sur la conformité.
Je crois que dans le domaine des données et de l'IA jusqu'à présent, et jusqu'à présent je veux dire jusqu'à il y a environ 18 mois, dans de nombreux cas en relation avec l'IA, les normes étaient considérées comme facultatives, volontaires. Elles étaient perçues comme un élément intéressant à mettre en place pour donner des points de repère communs aux entreprises souhaitant faire des affaires ensemble et réduire certaines des frictions liées à la commercialisation de l'IA. À mesure que ces normes deviennent manifestement des moyens de se conformer à la législation à l'échelle mondiale, il semble y avoir une certaine transition entre le recours aux normes comme une forme de droit non contraignant ou d'autorégulation dirigée par l'industrie, et leur utilisation pour soutenir des cadres réglementaires contraignants. Et il est très intéressant de se pencher sur les développements dans cet espace quelque peu ambigu, parce que dans le fait pour les pays de faire directement référence à des normes spécifiques ou de se contenter de faire référence à des normes produites par certains organismes internationaux reconnus, c'est là, je pense, que réside une grande partie de la discussion. Nous pourrions alors voir certains des instruments de ce droit non contraignant être mis à profit dans des démarches axées sur une législation plus stricte, en quelque sorte.
Neil Bouwer :Allez-y, Craig, si vous le voulez bien.
Craig Shank :Pour poursuivre sur cette lancée, j'aimerais... Phil a mentionné l'une des utilisations clés des normes, qui peuvent agir comme une potentielle pierre de Rosette entre les régimes réglementaires. Il s'agit d'une forme d'utilisation des normes extrêmement riche, et cela pourrait être l'un des rôles des normes qui peuvent se renforcer et être employées dans la mise en place d'un cadre législatif exécutoire. Mais il existe deux autres voies de renforcement des normes non contraignantes qui vont au-delà de la simple autorégulation et qui je pense, intéresseront particulièrement les membres de l'auditoire. L'une d'entre elles est le processus par lequel les entreprises déclarent : « Nous respectons les normes ». Et ensuite, quel que soit votre régime de commerce équitable, par exemple, il y a un mécanisme pour dire : « Si vous affirmez respecter les normes, vos pratiques doivent être conformes, ou vous recevrez une sanction par le biais de votre commission du commerce équitable ou d'un autre type de mécanisme ».
La seconde avenue est celle de l'approvisionnement, dont nous avons déjà parlé. Je pense qu'un grand nombre de personnes ici présentes ont la capacité d'exercer une influence sur le système d'approvisionnement et de l'utiliser de manière stratégique comme un instrument pour contribuer à déterminer non seulement le besoin de normes, mais également la nécessité de compter sur l'assurance d'un tiers ayant comme rôle de vérifier que les normes ont été respectées, que ce soit au moyen de la certification, d'un audit, ou d'un autre type de mécanisme. Et je dirais que si je devais vous laisser un message à retenir, c'est qu'il s'agit d'outils spécifiques. Et je pourrais même penser à des délais précis à indiquer à l'industrie pour lui signaler : « Voici ce que nous voulons. Et voici quand nous souhaitons l'obtenir, alors vous feriez mieux de vous mettre au travail ». Parce que fondamentalement, nous essayons de promouvoir... Nous n'essayons pas de forcer la mise en place d'un ensemble d'outils de réglementation de nature non réglementaire plus rapidement que le cycle normal de plusieurs décennies généralement requis. Donc, de toute façon...
Neil Bouwer :Très bien. Monique, voulez-vous ajouter votre grain de sel?
[Monique parle en silence.]
Neil Bouwer :Votre micro est fermé, Monique.
Monique Crichlow :Non, je pense que Craig a bien présenté le rôle des normes. Je sais que nous pensons souvent aux normes dans une perspective du type « Oh, en bien, nous ne savons pas quoi mettre en place, alors commençons par là ». Et je dirais que ce n'est pas nécessairement la bonne approche quand il est question de normes et de réglementation de l'IA. Je pense que les normes ont un rôle à jouer dans la façon dont nous envisageons la réglementation de l'IA, la surveillance et la gouvernance des systèmes et des outils d'IA. Mais je pense que nous devons considérer tous ces éléments comme des outils distincts à utiliser à notre avantage. Ce n'est pas que l'un soit meilleur que l'autre, c'est plutôt qu'ils servent des objectifs différents, et ensemble ils nous donneront l'agilité nécessaire pour gérer de façon adéquate ce nouvel environnement qui émerge. Ce serait le seul élément que je souhaiterais ajouter.
Neil Bouwer :Oui. À mon avis, cela revient également à un aspect que vous avez mentionné plus tôt au sujet de la maturité du régime réglementaire du Canada. Si vous pouvez compter sur des acteurs de confiance dans votre écosystème, sur une tradition de réglementation, des mécanismes de vérification et ainsi de suite, dans un contexte où vous avez ce type de capital institutionnel, je pense que les normes ont davantage de sens comme instrument de politique. Pour ces raisons, nous ne devrions peut-être pas considérer les normes avec cynisme. Je crois que nous devrions les considérer comme une possibilité, à l'instar des marchés publics et d'autres instruments.
D'accord, super. C'est maintenant le temps de vous poser une question relative à la Chine, je vais vous poser la question et l'un de vous pourra y répondre. La question est la suivante : craignez-vous que l'Amérique du Nord et l'Europe prennent du retard sur le plan économique en raison d'une trop grande prudence en matière d'intelligence artificielle, comme nous l'avons vu avec l'élaboration de règlements, notamment, en comparaison avec d'autres pays? Par exemple avec la Chine, qui pourrait avoir une approche différente peut-être plus rapide, en matière de réglementation de l'intelligence artificielle. Alors je vais ouvrir le débat et voir si l'un d'entre vous veut mordre à l'hameçon.
Craig Shank :Je vais intervenir très rapidement. D'abord, oui, j'ai des inquiétudes, mais ma principale crainte n'est pas que l'on ait un excès de réglementation. La raison pour cela est, bien entendu, qu'il n'y a pas encore de réglementation en place. La réglementation n'entrave donc aucun développement à l'heure actuelle. Mes préoccupations concernent plutôt l'investissement de base aux États-Unis. Le Canada a fait un excellent travail en ce qui concerne l'investissement de base dans le secteur de l'IA, et je serais heureux de voir les États-Unis faire de même, de manière proportionnelle. Et j'aimerais vraiment voir l'Europe débloquer... Les pays européens ont fait des investissements intéressants au niveau national, mais il serait intéressant de débloquer une partie de ces investissements pour leur permettre de jouer un rôle plus innovant dans l'écosystème du marché. Et je pense qu'à partir de là nous aurions un consortium multinational beaucoup plus puissant et robuste qui serait, je pense, très efficace.
Par ailleurs, il y a un point d'inflexion clé que nous pourrions manquer dans la transition. Si les centres de données se tournent vers l'informatique quantique et que cette transition a d'abord lieu en Chine il s'agira d'un changement important dans la puissance numérique relative et dans la puissance intellectuelle qui pourrait être mise à profit par deux régimes distincts.
Neil Bouwer :Phil, voulez-vous ajouter quelque chose?
Philip Dawson :Oui, bien sûr, Neil, simplement quelques éléments. Je ne m'inquiéterais pas non plus nécessairement du fait que le Canada et ses partenaires commerciaux soient laissés pour compte. Ces partenaires sont assez nombreux, et nous voyons de plus en plus les États tirer parti de la politique étrangère en formant en quelque sorte des coalitions de partenaires commerciaux, d'une manière qui peut contribuer à protéger certaines des valeurs importantes pour les Canadiens et d'autres pays, mais aussi à faciliter les échanges commerciaux le plus possible. Il s'agit en quelque sorte d'une innovation en soi. Prenons l'exemple du Conseil du commerce et des technologies de l'Union européenne et des États‑Unis, une initiative bilatérale qui, à mon avis, devrait être élargie. C'est une initiative bilatérale, dans laquelle deux administrations examinent... Eh bien, l'Union européenne et les États-Unis cherchent à harmoniser leurs approches commerciales par rapport à l'IA pour s'assurer que ces approches favorisent l'exportation autant que possible tout en maintenant l'accent sur leurs valeurs communes.
Le partenariat mondial sur l'IA est un autre type d'alliance multilatérale qui poursuit le même objectif. Je ne sais pas si nous risquons d'être laissés pour compte en raison d'une approche trop prudente. Et je pense qu'un autre défi consistera à repérer certaines zones grises en ce qui concerne des pays dont nous aimerions nous rapprocher, et qui font également des affaires avec la Chine... Il ne faudrait pas que cette conversation devienne trop polarisée, ce que certains semblent rechercher, et je pense que c'est un problème. Mais en ce qui concerne toutes les discussions sur le commerce entre le Canada et certains pays et la façon de promouvoir les échanges commerciaux liés à l'IA tout en respectant nos valeurs, je ne pense pas que le Canada et les autres pays seront exclus.
Neil Bouwer :Bien. Très bien. Nous approchons de la fin de l'événement, alors je pense que je vais demander à chacun d'entre vous de répondre à une question en commençant par vous, Monique. Je souhaiterais tout simplement savoir, si vous pouviez recommander une seule et unique mesure de la part du Canada en matière de réglementation de l'IA, ou un domaine... Nous avons abordé plusieurs questions, mais si vous pouviez plaider en faveur d'une mesure que le Canada devrait prendre dans le domaine de la réglementation de l'IA, quelle serait-elle? Donc Monique, je commencerais avec vous. Et je donnerais ensuite la parole à Craig. Nous pourrions ensuite terminer avec l'intervenant qui a ouvert la discussion et passer le flambeau à Phil. Alors, Monique, à vous d'abord.
Monique Crichlow :Oh, c'est une question difficile. Les premiers éléments qui me viennent en tête ont trait à l'économie et à l'échelle internationale, car Phil et moi avons eu cette discussion plus tôt. Si je devais insister sur un point je pense que c'est sur un point que j'ai déjà mentionné. Je pense que peut-être d'une manière traditionnelle très typique du Canada, nous avons tendance à sous-estimer notre expertise dans ce domaine, la valeur que nous pouvons apporter dans les discussions sur le sujet, et les investissements que nous avons faits jusqu'à présent. Je pense que nous avons fait des investissements importants dans nos politiques scientifiques en matière d'intelligence artificielle. Nous avons fait des investissements importants pour veiller au maintien des pratiques numériques de nos gouvernements. J'ai l'impression que nous essayons véritablement de démontrer notre expertise, et la nécessité de la normalisation et de la réglementation. Alors, de mon point de vue, je ne sais pas si cela se résume en un seul souhait, mais je pense que nous devons vraiment prendre acte de toutes les choses positives que nous avons accomplies les reconnaître d'une certaine façon, et nous demander : « Comment pouvons-nous relier les points et construire ce cadre de référence?
Je crois qu'il y a là beaucoup d'occasions associées aux investissements et aux compétences à notre disposition, qui feront de nous un pays fidèle à nos valeurs, mais qui nous permettront également de demeurer compétitifs sur le marché mondial. Et je pense qu'il y a beaucoup d'occasions ici. Si je devais formuler un souhait, ce serait de faire converger tous ces éléments et de prendre des mesures dans les domaines où nous avons fait des investissements importants.
Neil Bouwer :Très bien. J'entends quelque chose comme : « Ressaisis-toi, Canada ». Très bien. Et vous, Craig?
Craig Shank :Je pense que Monique dit : « Ressaisis-toi et marche avec fierté ». J'aime beaucoup cela, Monique. Je pense que je vais y aller avec une réponse beaucoup plus tactique, avec mon éternelle rengaine. Je continuerais à miser sur le pouvoir de l'approvisionnement stratégique et à l'utiliser d'une manière qui profite à cet écosystème en construction, et je pense que cela créera un modèle exportable pour le Canada. Et franchement, je commencerais dès maintenant à signaler que d'ici 2024, nous allons exiger des certifications indépendantes par une personne dûment accréditée par le CCN, le Conseil canadien des normes. Nous allons laisser à l'industrie le soin de régler les aspects complexes dans un premier temps, mais l'industrie va devoir porter attention à notre voix collective sur ce que cela signifie, ce qui est nécessaire. Et je pense qu'à partir de là, nous verrons une certaine agitation. Mais je crois aussi que nous verrons des résultats positifs et des expériences dont nous pourrons tirer des conclusions de grande valeur.
Neil Bouwer :Très bien. J'aime cela, car je pense que tout fonctionnaire tourné vers l'avenir devrait réfléchir à la manière dont l'IA va transformer les activités du gouvernement dans son domaine. Les marchés publics sont un moyen d'y parvenir. Et puis, compte tenu du service d'assurance qui est également soumis aux mécanismes d'approvisionnement, c'est vraiment un conseil pratique. Merci. Phil, et vous?
Philip Dawson :Oui. Je serais heureux d'ajouter quelques éléments. Je pense que le Canada pourrait faire un grand pas en avant en redoublant d'efforts dans certains des domaines où il est vraiment compétitif au niveau mondial. Par exemple, dans la recherche sur l'IA. Je pense que nous l'avons mentionné plus tôt, mais nous pouvons voir le partenariat au Royaume-Uni entre l'Alan Turing Institute et leur organisme national de normalisation, le British Standards Institute, ou BSI, comme un moyen d'augmenter leur capacité de normalisation et leur expertise sur les normes de l'IA. Je pense que c'est très intéressant. Nous avons un formidable institut national de normalisation, le Conseil canadien des normes, qui a reçu des ressources supplémentaires pour soutenir ses travaux sur l'IA. Je voudrais également mentionner le projet pilote d'évaluation de la conformité qui est en cours. Je pense que ce sont des choses formidables et j'aimerais qu'on leur accorde encore plus de ressources et qu'on en tire parti en raison des avantages qui en découlent.
Ensuite, une chose dont nous n'avons pas parlé aujourd'hui mais qui est souvent abordée à l'Institut Schwartz Reisman, c'est le rôle de la technologie dans l'opérationnalisation des normes et des évaluations de la conformité, ainsi que des outils et des technologies qui transforment les évaluations et les certifications manuelles du passé en processus automatisés beaucoup plus rapides et efficaces su le plan opérationnel. Ainsi, je pense que si nous savons, ou si nous pensons que diverses technologies vont jouer un rôle dans l'opérationnalisation des instruments de droit non contraignant dont nous avons parlé aujourd'hui, par exemple les normes en matière de certification quelle forme pourrait prendre une coordination plus stratégique entre certains de nos programmes d'investissements dans les R et D, dans l'innovation en matière d'IA et le financement de la recherche dans les instituts nationaux d'IA, par exemple? Existe-t-il des centres d'essai ou des centres de mesure pour les systèmes d'IA, des domaines particuliers dans lesquels nous devrions investir? Pouvons-nous soutenir les entreprises qui développent ces types de technologies de certification pour accélérer les progrès? Je pense que ces aspects pourraient être très prometteurs. Je vais m'arrêter là, mais je pense que ce sont deux pistes vraiment intéressantes à explorer.
Neil Bouwer :Très bien. Je vous remercie. Pendant que vous parlez, je pense à nos collègues d'Innovation, Sciences et Développement économique Canada qui réfléchissent à la façon de tirer parti des forces du Canada et de rassembler ces divers éléments, y compris l'approvisionnement, les normes et les dépenses en sciences et en technologie. Donc, la discussion a été vraiment fantastique. Alors, merci beaucoup à nos extraordinaires conférenciers invités, Monique Crichlow, Craig Shank et Phil Dawson. Merci à ces formidables experts qui ont partagé leur temps et leurs idées avec nous sur l'avenir de la réglementation de l'IA dans le monde. Merci beaucoup de vous être joints à nous aujourd'hui.
Si vous avez apprécié cet événement, assurez-vous de ne pas manquer le prochain de la série. Il aura lieu le 19 avril prochain. Il portera sur l'intelligence artificielle, l'apprentissage automatique et le renseignement étranger et mettra en vedette Janice Stein de l'École Munk des affaires internationales et des politiques publiques de l'Université de Toronto et Jon Lindsay de l'École Sam Nunn des affaires internationales de l'Institut de technologie de la Géorgie. Nous espérons que vous pourrez vous joindre à nous pour cet événement. Vous recevrez également un courriel après cet événement. Il comprendra un sondage. Votre avis nous sera utile pour améliorer nos événements au fil de cette série, et dans l'ensemble de nos activités. Donc, au nom de l'Université de Toronto, de l'Institut Schwartz Reisman et de l'École de la fonction publique du Canada, je vous remercie de votre participation avec nous aujourd'hui. Passez une belle fin de journée. Portez-vous bien.
[La fenêtre de vidéoclavardage s'estompe et le logo de l'EFPC apparaît.]
[Le logo du gouvernement du Canada apparaît et l'écran devient noir.]