L'utilisation sécuritaire de l'intelligence artificielle au sein du gouvernement
L'intelligence artificielle (IA) est de plus en plus souvent intégrée à différentes activités gouvernementales partout dans le monde. Au Canada, parmi les nombreuses applications de l'IA au sein du gouvernement, on notera l'amélioration des processus, comme à Immigration, Réfugiés et Citoyenneté Canada, qui utilise l'analyse avancée pour trier les demandes courantes de visa temporaire, ainsi que la recherche scientifique, qui permet à Environnement et Changement climatique Canada de recourir à la modélisation météorologique et climatique. De nombreuses applications de l'IA existent depuis longtemps, mais nous constatons également un nombre croissant de nouvelles initiatives faisant appel à l'IA. Cette situation découle des récentes avancées technologiques et de la normalisation grandissante de l'IA, qui contribuent à accroître son utilisation au sein du gouvernement.
Ainsi, le gouvernement du Canada a publié de façon proactive des directives stratégiques exhaustives pour assurer un déploiement responsable de l'IA dans le cadre de ses activités. En voici quelques exemples.
- Principes directeurs pour l'utilisation de l'IA au gouvernement : Un cadre décrivant les pratiques éthiques et responsables pour intégrer les technologies d'IA aux activités gouvernementales en favorisant la transparence, la responsabilisation et la confiance du public.
- Guide sur l'utilisation de l'intelligence artificielle générative : Un manuel exhaustif détaillant les pratiques exemplaires, les risques et les considérations éthiques liés à l'utilisation de l'IA générative dans les services gouvernementaux et les processus décisionnels.
- Directive sur la prise de décisions automatisée : Une politique établissant des normes et des exigences pour la mise en œuvre responsable de systèmes décisionnels automatisés au sein des organismes gouvernementaux.
- Outil d'évaluation de l'incidence algorithmique : Un outil conçu pour évaluer les risques, les avantages et les répercussions possibles de l'utilisation d'algorithmes dans les processus gouvernementaux afin de s'assurer que les algorithmes en question sont conformes aux normes éthiques et juridiques.
- Une section portant sur la prise de décisions automatisée dans la Ligne directrice sur les services et le numérique qui présente des instructions détaillées pour la mise en œuvre, la surveillance et la gestion de systèmes décisionnels automatisés dans les services gouvernementaux.
Bien que les politiques existantes établissent un cadre pour la mise en œuvre et l'utilisation de l'IA, leur principale fonction consiste à fournir une orientation stratégique adaptée à des publics gouvernementaux possédant différents niveaux d'expertise technique et de pouvoir décisionnel. Ces documents peuvent être complexes pour les personnes qui n'ont pas de responsabilités en matière d'approvisionnement ou de gestion, mais qui souhaitent néanmoins utiliser l'IA en toute sécurité.
Le présent article vise à doter les employé·es du gouvernement d'une connaissance de base en ce qui concerne l'utilisation sécuritaire de l'IA et à proposer des mesures et des étapes concrètes pour utiliser les systèmes d'IA de façon sécuritaire.
Pourquoi une utilisation sécuritaire de l'IA?
L'expression « utilisation sécuritaire de l'IA » désigne les stratégies et les pratiques conçues pour s'assurer que les systèmes d'IA fonctionnent comme prévu, et de façon sécuritaire et éthique. L'objectif principal est de prévenir les risques et les préjudices pour les personnes et la société tout en maintenant la transparence et la responsabilisation dans les activités faisant appel à l'IA.
Les risques associés à l'IA sont nombreux, mais ils ne sont pas tous pertinents dans tous les contextes. Il peut s'agir de préoccupations immédiates comme des défaillances, des atteintes à la vie privée et de la discrimination, ou encore de problèmes potentiels à long terme liés aux risques existentiels posés par l'IA, comme l'intelligence artificielle générale, un type de système superintelligent qui pourrait échapper au contrôle humain et menacer l'humanité. Bien que certains commentateurs aient souligné les risques avancés ou existentiels posés par le déploiement de l'IA, ces risques ne sont pas considérés comme immédiats. Les prédictions selon lesquelles l'IA pourrait évoluer jusqu'à remettre en question l'existence humaine demeurent spéculatives et contestées.
Plutôt que de se concentrer sur ces possibilités lointaines, il est plus urgent de s'attaquer aux risques et aux préjudices concrets découlant de l'utilisation actuelle de l'IA par le gouvernement. En réagissant à ces menaces actuelles, on s'assurera que l'IA servira le bien public et sera exploitée dans le respect des limites éthiques et juridiques.
Risques liés à l'IA dans les déploiements gouvernementaux
La présente section présente les risques les plus pertinents pour la sécurité que l'on doit atténuer lors du déploiement de solutions basées sur l'IA au gouvernement. Les exemples ci-dessous sont offerts à titre illustratif seulement et ne reflètent pas des enjeux liés aux services actuels. Pour une explication sommaire du fonctionnement de l'IA et des risques potentiels qu'elle peut poser, veuillez lire l'article Démystifier l'intelligence artificielle (DDN2-A14).
Bien que l'IA ne soit pas une technologie unique et uniforme, certaines caractéristiques communes à ses différentes variations contribuent aux risques qu'elle peut poser.
Fondamentalement, les systèmes d'IA traitent les données et en tirent des leçons pour générer des résultats exploitables. Des problèmes liés à la qualité des données, à la formulation des requêtes ou à une utilisation inadéquate peuvent entraîner des résultats imprévus ou posant un problème de sécurité. Ce type de situation ne se produit pas dans les logiciels traditionnels, qui affichent généralement un message d'erreur lorsqu'ils rencontrent un problème, plutôt que de produire des résultats erronés.
- Défaillances : Les erreurs peuvent découler d'une mauvaise utilisation des systèmes d'IA ou de défaillances techniques. Par exemple, un système de prévision météorologique pourrait traiter incorrectement des données atmosphériques, ce qui entraînerait des prévisions de tempête inexactes pouvant mener à des risques importants pour la sécurité publique.
- Dépendance excessive : Une tendance à faire excessivement confiance aux résultats de l'IA sans un examen suffisant peut entraîner des défaillances en matière de surveillance et des risques de dépendance. Par exemple, l'utilisation d'un système d'IA pour automatiser le traitement des demandes d'indemnisation liées à la sécurité sociale sans examen suffisant pourrait entraîner des refus injustifiés.
- Manque d'harmonisation : Un décalage entre les propositions de l'IA et les politiques gouvernementales ou les valeurs sociétales pourrait miner la confiance du public et mener à la mise en œuvre de politiques inefficaces ou nuisibles. Par exemple, un programme attribuant des subventions à l'éducation qui n'est pas harmonisé avec les politiques gouvernementales pourrait désavantager certaines populations.
- Manque de transparence : Les systèmes d'IA reposent souvent sur des algorithmes complexes qui ne sont pas nécessairement bien compris par le public, ni même par les fonctionnaires qui les utilisent. Par exemple, un système conçu pour déterminer l'admissibilité à des prestations publiques peut donner lieu à des décisions sans justification claire, ce qui empêche les citoyens et citoyennes ainsi que les fonctionnaires de bien comprendre ou de remettre en question le résultat.
- Discrimination : Les systèmes d'IA peuvent encoder et perpétuer par inadvertance les biais sociétaux existants, entraînant ainsi des résultats discriminatoires. Par exemple, un outil de recrutement fondé sur l'IA pourrait développer des biais en intégrant des données historiques non diversifiées provenant de processus de recrutement antérieurs, ce qui pourrait entraîner de la discrimination à l'égard des femmes ou des personnes issues de minorités.
- Atteintes à la vie privée : L'IA peut traiter les données personnelles d'une manière qui n'est pas prévue ou souhaitée. Par exemple, un système d'IA qui suit les tendances en matière de santé publique pourrait recueillir des données personnelles détaillées sans anonymisation adéquate, ce qui entraînerait des atteintes à la vie privée.
- Violation du droit d'auteur : La capacité de l'IA d'utiliser de nombreux ensembles de données peut parfois mener à l'utilisation de matériel protégé par le droit d'auteur sans autorisation appropriée, ce qui pourrait entraîner des problèmes juridiques et des manquements à l'éthique. Par exemple, un outil d'IA qui numérise et archive les documents publics pourrait utiliser du matériel protégé par le droit d'auteur sans autorisation et ainsi donner lieu à des contestations judiciaires.
- Désinformation : La possibilité que l'IA génère ou diffuse de fausses informations peut avoir de graves conséquences sur l'opinion publique et la sécurité. Par exemple, une plateforme alimentée par l'IA qui est utilisée par un organisme fédéral pour diffuser de l'information sur la sécurité publique pourrait être piratée et propager de fausses informations au sujet d'une situation d'urgence.
Les risques pour la sécurité ne sont pas hypothétiques; il existe des exemples concrets de chacun des risques susmentionnés pour des systèmes d'IA utilisés actuellement par des organisations des secteurs public et privé. Ces risques peuvent varier considérablement selon la mise en œuvre particulière d'un outil d'IA. En l'absence d'une gouvernance adéquate et d'une atténuation responsable des risques pendant le déploiement, ces risques peuvent s'amplifier et entraîner des conséquences imprévues.
L'utilisation sécuritaire de l'IA n'est pas seulement une question technique
La possibilité que des systèmes d'IA causent des préjudices découle d'une combinaison de questions techniques ou non, ce qui présente un problème qu'on ne peut pas résoudre à l'aide de solutions techniques uniquement. Bien que certaines mesures de protection contre de nombreux risques soient intégrées aux systèmes d'IA pendant les phases de conception, d'entraînement et de mise à l'essai, les utilisateurs et utilisatrices jouent encore un rôle crucial pour assurer l'utilisation sécuritaire de l'IA. De plus, l'élaboration de protocoles de sécurité et de gouvernance robustes est essentielle pour renforcer le déploiement de l'IA au sein des organisations.
Mesures pratiques à prendre pour les utilisatrices et utilisateurs
En tant qu'utilisateur ou utilisatrice d'un système d'IA au gouvernement, votre influence directe sur les protocoles de sécurité ou la gouvernance peut être limitée, mais vous pouvez prendre plusieurs mesures pour assurer une utilisation sécuritaire de l'IA.
- Suivez la formation disponible (voir la liste des possibilités d'apprentissage de l'EFPC ci-dessous) pour comprendre l'utilisation adéquate des systèmes d'IA. Par exemple, les grands modèles de langage, qui sont présentés comme une technologie d'usage général, sont utiles pour produire du contenu textuel – leur tâche principale – mais moins utiles pour les calculs mathématiques. La plupart des systèmes conçus pour et par le gouvernement sont destinés à des tâches précises et peuvent traiter uniquement des demandes simples ou de portée restreinte. L'utilisation inadéquate des systèmes d'IA peut causer des défaillances. Par exemple, une fonction de clavardage créée pour fournir des renseignements sur les programmes d'Agriculture et Agroalimentaire Canada (voir AgriGuichet) pourrait produire des hallucinations1 de l'IA lorsqu'on pose des questions sur les politiques gouvernementales.
- Utilisez les outils d'IA de façon responsable, en respectant les lignes directrices en matière d'éthique et les normes juridiques, particulièrement dans les environnements dans lesquels les risques sont élevés et les enjeux importants. Commencez en consultant les Principes directeurs pour l'utilisation de l'IA au gouvernement et le Guide sur l'utilisation de l'IA générative.
- Assurez-vous d'appliquer les mises à jour du système rapidement. Les mises à jour peuvent corriger les bogues connus, renforcer la sécurité et améliorer les fonctionnalités; des éléments essentiels pour le maintien de la fiabilité du système.
- Gardez en tête les répercussions sur la protection de la vie privée et comprenez quelles données l'IA recueille et comment elles sont utilisées. Évitez de téléverser ou de créer des données ou des renseignements privés, de nature délicate ou secrets dans des outils d'IA, à moins que le système d'IA soit spécialement conçu pour traiter de telles données en toute sécurité.
- Examinez et vérifiez l'exactitude et la cohérence de l'information produite par l'IA.
- Signalez les résultats inappropriés ou erronés. Vérifiez si votre organisation dispose de protocoles de sécurité pour signaler les propositions des systèmes d'IA utilisés à l'interne. Si ce n'est pas le cas, assurez-vous de prendre en note les problèmes et de les communiquer à votre superviseur·e.
Definitions
- Hallucinations : Les hallucinations de l'IA sont des résultats inexacts ou trompeurs générés par les modèles d'IA. Ces erreurs peuvent être causées par divers facteurs, notamment des données d'entraînement insuffisantes, des hypothèses erronées formulées par le modèle ou des biais dans les données utilisées pour entraîner le modèle.
En savoir plus
Si vous êtes à l'emploi du gouvernement et que vous vous y connaissez peu dans le domaine de l'utilisation sécuritaire de l'IA, il est important de commencer par vous renseigner sur le potentiel de l'IA et ses pièges. Consulter des spécialistes en IA, participer à des programmes de formation et se tenir au courant des dernières avancées constituent d'excellentes façons d'acquérir une bonne compréhension des questions liées à l'utilisation sécuritaire de l'IA.
Si vous souhaitez en apprendre davantage sur l'IA au gouvernement du Canada, consultez les ressources d'apprentissage suivantes.