Sélection de la langue

Rechercher EFPC

Réflexions de Yoshua Bengio (LPL1-V52)

Description

Cette vidéo met en vedette Yoshua Bengio, professeur à l'Université de Montréal, conseiller scientifique et fondateur de Mila, et chef de file mondial en intelligence artificielle, qui présente ses réflexions sur les prochaines avancées de l'intelligence artificielle et notre responsabilité commune concernant son développement.

Durée : 00:50:04
Publié : 9 octobre 2025
Type : Vidéo
Séries : Série Analyses et réflexions


Lecture en cours

Réflexions de Yoshua Bengio

Transcription | Visionner sur YouTube

Transcription

Transcription : Réflexions de Yoshua Bengio

[00:00:00 Montage d'une série d'images : des gens marchant dans des rues animées ; un drapeau canadien flottant sur le côté d'un immeuble ; une vue aérienne de la Colline du Parlement et du centre-ville d'Ottawa ; l'intérieur d'une bibliothèque ; une vue de la Terre depuis l'espace. Textes à l'écran : Leadership ; Politique ; Gouvernance ; Innovation.]

Narratrice : Les fonctionnaires, les leaders d'opinion et les spécialistes à l'échelle canadienne réfléchissent aux idées qui façonnent la fonction publique : le leadership, les politiques, la gouvernance, l'innovation et bien plus encore. Voici la série Analyse et réflexion, réalisée par l'École de la fonction publique du Canada.

[00:00:25 Yoshua Bengio apparaît en plein écran. Texte à l'écran : Yoshua Bengio, chercheur en intelligence artificielle / Professeur (Université de Montréal) / Co-président (LoiZéro) / Fondateur (Mila).]

Myra Latendresse Drapeau : Bonjour monsieur Bengio, professeur Bengio. C'est un grand plaisir, un grand honneur pour nous de pouvoir vous écouter un peu, vous entendre. On vous connaît évidemment comme un expert international, comme une sommité dans le domaine de l'intelligence artificielle, un des fondateurs de ce qu'on connaît maintenant de l'intelligence artificielle. Mais on aimerait commencer peut-être par le début, apprendre à vous connaître un tout petit peu. Est-ce que vous voudriez nous parler un peu de : où vous êtes né, comment vous avez grandi, comment vous êtes devenu professeur Bengio ?

Yoshua Bengio : Moi, je suis né en France en 1964. Mes parents ont immigré à Montréal quand j'avais une douzaine d'années. J'ai fait des études universitaires en informatique à l'Université McGill.

[00:01:20 Image de l'entrée principale du bâtiment de L'Université McGill.]

Yoshua Bengio : C'est là que j'ai commencé à me poser des questions sur l'intelligence artificielle. Un peu par hasard, j'ai lu des articles scientifiques qui m'ont inspiré sur la synergie entre comprendre le cerveau et comprendre l'intelligence qu'on pourrait déployer dans des machines, donc l'intelligence artificielle. C'est devenu une passion assez rapidement. Je trouvais ça vraiment incroyable qu'on puisse penser à formaliser ce que c'est l'intelligence d'une manière qui nous permette de comprendre l'humain, l'intelligence humaine, et de construire des machines qui pourraient nous aider avec leur intelligence.

Ça a été le début d'une longue carrière qui a été pleine de jalons excitants, de progrès, même plus rapides que ce qu'on anticipait quand on commençait.

Puis, vers 2012-2013, ce qu'on faisait est sorti des laboratoires. Les grandes entreprises comme Google et Facebook se sont emparées un petit peu de nos développements et ont mis ça dans leur système. On commençait à recruter beaucoup de chercheurs. C'est là que je me suis dit : Ça serait bien qu'au Canada on ait des pôles d'attraction de ces chercheurs-là et ça a mené un peu plus tard à la création des instituts d'intelligence artificielle qu'on a au Canada, la Stratégie pancanadienne d'intelligence artificielle. Aujourd'hui, je suis fier de ce qu'on a accompli.

Myra Latendresse Drapeau : Et vous êtes resté au Canada ?

Yoshua Bengio : Et je suis resté au Canada. J'avais bien d'autres options.

Myra Latendresse Drapeau : Oui, j'imagine bien.

Yoshua Bengio : Et plusieurs autres chercheurs sont revenus des États-Unis, des Canadiens sont revenus parce que tout d'un coup, la recherche en IA au Canada devenait beaucoup plus attrayante et qu'on créait des masses critiques de chercheurs dans des endroits où il se passe de quoi. Les chercheurs, ils veulent être entourés de gens comme eux, qui sont stimulants, avec qui jaser puis collaborer. Donc ça, ça a été vraiment un grand succès.

Myra Latendresse Drapeau : Vous avez commencé à établir les parallèles, ou ce qui vous amène à l'intelligence artificielle, c'est les parallèles entre l'intelligence humaine et l'intelligence artificielle. Est-ce que vous pouvez nous proposer une définition, votre définition, de ce que c'est que l'intelligence artificielle ?

Yoshua Bengio : Je vais commencer par essayer d'expliquer ce que c'est l'intelligence. Puis après ça, artificiel ou biologique, quelque part, c'est un détail, très important évidemment. Mais à un niveau abstrait, une entité intelligente a suffisamment de compréhension du monde pour anticiper ce qui s'en vient, pour prédire comment les choses vont se passer et potentiellement utiliser cette compréhension pour atteindre des objectifs.

Nous, on a ces capacités-là. De plus en plus, les systèmes d'IA à la pointe ont ces capacités-là. Et de différentes manières aussi, nos cousins animaux, les plus proches étant les primates, partagent aussi ces capacités-là. L'intelligence, ce n'est pas une seule dimension ; parce qu'on peut être intelligent dans certains domaines où on a beaucoup d'expérience, puis être plutôt naïf dans un autre domaine. Et c'est vrai pour l'intelligence artificielle, l'IA aussi, qu'on a des systèmes qui sont très compétents à certaines choses, comme les IA de pointe aujourd'hui peuvent comprendre 200 langues. Personne au monde n'est capable de faire ça. Mais leurs capacités de raisonnement, de planification sont très inférieures à celles des êtres humains moyens, disons. Donc, ce n'est pas juste une quantité, l'intelligence, c'est des connaissances et la capacité de les appliquer pour répondre à des questions, prendre des décisions qui fonctionnent.

Myra Latendresse Drapeau : Cette définition-là est très éclairante, puis ça nous ramène un peu à l'essentiel. Parfois, on est intimidé. On entend l'expression, on ne sait pas trop ce que c'est. On est un peu intimidé. J'aime beaucoup comment vous le présentez.

J'aimerais vous amener tranquillement vers l'intelligence artificielle dans le contexte du gouvernement du Canada. Si on revient au fondement du gouvernement du Canada. Vous connaissez la formule consacrée qui est de servir l'intérêt public en garantissant la paix, l'ordre et le bon gouvernement, n'est-ce pas ? Est-ce que vous pensez que l'IA pourrait éventuellement aider le gouvernement du Canada comme institution à remplir cette mission-là, sa mission fondamentale, en fait ?

Yoshua Bengio : Oui, certainement, si on met les bonnes balises. Et ce que je veux dire par bonnes balises, grosso modo, ça se situe à deux niveaux. Premièrement, l'IA, au niveau technique a besoin d'être un outil de confiance. Parce qu'on prend des décisions qui sont peut-être avec un impact important, surtout au gouvernement. Aujourd'hui, on n'y est pas vraiment. On pourra en reparler plus tard. Mais ça, c'est un enjeu. Puis l'autre enjeu, c'est plus un enjeu, bien, comment les humains s'organisent avec ces outils-là ? Quelles règles de gouvernance on met ?

[00:07:12 Extrait de l'article de l'OCDE

Texte à l'écran : Intelligence artificielle

Une gouvernance efficace est essentielle pour garantir que le développement et le déploiement de l'IA soient sûrs, sécurisés et dignes de confiance, avec des politiques et des réglementations qui favorisent l'innovation et la concurrence. ]

Yoshua Bengio : Parce que les balises techniques, ce n'est pas suffisant. Enfin, pour répondre à ces deux questions, je vais revenir sur un point important : l'intelligence donne du pouvoir.

[00:07:25 Yoshua Bengio apparaît à l'écran]

Yoshua Bengio : Donc, c'est important de savoir dans quelle direction ce pouvoir est dirigé. Il faut que ce soit pour le bien public. Il ne faut pas que ce pouvoir soit abusé par ceux qui utilisent l'IA ou qui la développent. Et c'est pour ça qu'on a besoin de règles à l'intérieur d'une organisation, à l'intérieur d'un pays, puis au niveau global, parce que les conséquences de l'utilisation de l'IA peuvent traverser des frontières assez facilement.

Myra Latendresse Drapeau : Donc, dans la fonction publique, on a à peu près 250 000 employés, un très grand employeur au Canada. Donc, c'est une main d'œuvre qui est importante, qui est aussi extrêmement diversifiée. J'avais envie de vous demander quel genre d'aptitude ou de compétence les fonctionnaires pourraient développer pour mieux utiliser, bien pour commencer à utiliser, premièrement, parce qu'il y a des études qui démontrent que c'est le secteur dans lequel l'intelligence artificielle est le moins utilisé, secteur public, au Canada en tous les cas. Mais quelles pourraient être certaines de ces compétences-là que les fonctionnaires pourraient vouloir développer ? Et peut-être aussi pousser juste un peu vers quel genre de question devraient-ils se poser, il et elle, se poser au moment de réfléchir à une intelligence artificielle, mais aussi de l'utiliser dans leur quotidien ?

Yoshua Bengio : La compétence, peut-être de départ, c'est simplement d'avoir des connaissances de base sur ce qu'est l'intelligence artificielle d'aujourd'hui, mais aussi les connaissances scientifiques aujourd'hui qui nous permettent d'anticiper où elle sera dans un an, dans trois ans, dans dix ans. Parce que l'IA est en progression très rapide dans ses capacités. Les IA d'aujourd'hui, au moment où on tourne, sont beaucoup plus intelligentes que celles d'il y a un an, vraiment. Elles sont beaucoup plus intelligentes que celles d'il y a deux ans, trois ans, etc. Il y a trois ans, elles ne maîtrisaient pas la langue. Aujourd'hui, non seulement elles maîtrisent la langue, mais elles commencent à avoir des capacités de raisonnement. Aujourd'hui, elles sont entraînées sur une quantité de données telle qu'elles ont des connaissances sur à peu près toutes.

En même temps, l'IA d'aujourd'hui fait des erreurs et parfois agit de manière trompeuse. Il faut comprendre ça, puis se poser des questions par rapport à notre travail. Qu'est-ce que ça veut dire pour notre travail ? Comment on peut développer des aptitudes pour gérer ce changement qui s'en vient ?

Donc, l'aptitude à s'adapter au changement, ça va être crucial et ce n'est pas qu'individuel. On s'entend que la manière dont une organisation fonctionne dans un bureau, ou même plus large, si c'est trop rigide, même si les gens ont une bonne volonté et des capacités à s'adapter, il y aura trop de barrières.

Un élément que je veux apporter dans cette équation c'est qu'il est plausible, si l'IA continue dans sa tendance, que de plus en plus de tâches qui sont faites par des êtres humains pourront être faites par des IA.

Dans quel ordre ça va se faire ? C'est incertain. Mais les choses qui demandent peu de réflexion ou un travail qui peut être effectué assez rapidement, qui ne demande pas des compétences relationnelles très développées, ça va être les premières à être remplacées par du travail de l'intelligence artificielle.

Mais on ne sait pas où ça s'arrête. Il n'y a pas de raison de croire que les développements de l'intelligence artificielle vont s'arrêter au niveau de compétences de l'IA. La preuve de ça, c'est que déjà dans certains domaines l'IA est plus compétente que nous au niveau de la quantité de connaissances, au niveau de toutes les choses qu'elle sait, toutes les langues, etc.

Donc, il faut se préparer. Comment est-ce qu'on va adapter notre travail, notre travail d'équipe, quand une partie de ça va être automatisée ? Comment on en profite ? Mais comment on gère la transition ? Puis là encore, la flexibilité, l'agilité de l'organisation, ça va devenir essentiel.

L'autre chose, c'est qu'aujourd'hui, l'IA fait toutes sortes d'erreurs et malheureusement les gens ont tendance à prendre ce qui sort de la machine comme la vérité divine, ce qui n'est évidemment pas le cas. Les IA peuvent… on espère qu'elles vont s'améliorer dans ce sens-là, mais pour l'instant il faut pratiquement vérifier s'il y a des conséquences à des assertions qui sont faites par l'IA qui seraient fausses. Il ne faut pas prendre ça comme la vérité, il faut aller vérifier. S'il n'y a pas de conséquence, ce n'est pas nécessairement grave mais il faut se poser la question : Qu'est-ce que je vais faire avec cette IA, avec cette réponse ? Puis éventuellement, de plus en plus, les compagnies vont nous donner accès à des IA qu'on appelle agentiques, c'est-à-dire qui prennent des décisions par eux-mêmes sans une personne qui vérifie à chaque étape.

Donc, c'est des systèmes qui ont plus d'autonomie, qui vont pouvoir faire une tâche qui est plus longue sans qu'un humain soit derrière à chaque étape. Ce n'est pas encore clair si ces systèmes vont être suffisamment fiables, puis peut-être qu'ils le seront éventuellement, mais pour l'instant, ce qu'on observe, c'est que ces systèmes-là peuvent être trompeurs, peuvent mentir volontairement pour atteindre un objectif.

Là, non seulement on doit avoir un esprit critique parce que l'IA peut se tromper involontairement, mais on pourrait être face à des IA qui, pour toutes sortes de raisons, pour nous faire plaisir, supposément, vont nous mentir. Il y a déjà plein d'exemples de ça. L'IA est actuellement programmée à obtenir des récompenses, mais des fois, les humains qui entraînent l'IA vont se laisser berner par quelque chose qui a l'air correct et qui ne l'est pas nécessairement.

Myra Latendresse Drapeau : Qu'est-ce que vous voulez dire par là : Elle est programmée pour aller chercher des récompenses ?

Yoshua Bengio : Oui, il y a deux phases dans l'entraînement des IA aujourd'hui. Il y en a une où elle imite ce que quelqu'un aurait fait, c'est-à-dire en complétant des textes que les humains ont écrits. Et de cette manière, elle absorbe toutes sortes de connaissances que les humains ont, puis comment un humain aurait réagi dans une certaine circonstance.

La deuxième étape, c'est une étape qu'on appelle d'alignement, où on la fait interagir avec des humains, puis quand elle se comporte bien, elle va recevoir une récompense ; puis, si elle ne se comporte pas bien, elle va être punie, puis, elle va chercher à obtenir plus de récompenses et moins de punitions, comme un enfant ou un animal.

Le problème avec ça, c'est que peut-être que l'IA va dire quelque chose qui nous fait plaisir, mais qui n'est pas vrai, par exemple. Il y avait une expérience où une IA est supposée faire des réservations de restaurant pour nous. Puis là, elle revient, elle dit : Oui, il n'y a pas de problème, c'est réservé. En réalité, il n'y avait plus de place, mais pour nous faire plaisir, elle va dire : Tout va bien, j'ai la place. Ou elle serait peut-être prête à tricher, hacker l'ordinateur pour essayer d'obtenir la place. Donc, aller contre nos instructions morales. On est à une étape où on ne sait pas bien contrôler le comportement normatif de l'IA, ce qui peut avoir des conséquences graves si on n'en est pas conscient.

Myra Latendresse Drapeau : Cette idée-là nous amène à la question presque des valeurs ; de comment l'IA peut ou peut ne pas adopter des comportements. Parce qu'on en est presque là, ou peut-être que vous direz qu'on en est là.

Yoshua Bengio : On en est là.

Myra Latendresse Drapeau : On en est là. Qui peuvent aller dans le sens de nos structures démocratiques ou dans un autre sens. Dans le contexte évidemment de la fonction publique, puis des administrations publiques en général, les fonctionnaires travaillent dans le sens de la viabilité de la démocratie. C'est au cœur de notre fonction, c'est au cœur de notre mandat. Qu'est-ce que vous pourriez dire là-dessus, notamment pour les fonctionnaires qui veulent travailler dans ce sens-là et qui voient un peu cette question-là émerger et ils ne savent pas trop comment s'orienter ?

Yoshua Bengio : Une des grandes lacunes des IA de pointe actuelles puis en particulier des IA agentiques, qui font des choses par elles-mêmes sur Internet, avec votre carte de crédit et autres informations précieuses, c'est qu'on n'est pas sûr qu'elles vont agir selon nos instructions normatives, c'est-à-dire morales, ou selon les règles qu'on s'est données dans notre environnement de travail.

Notre gouvernement pourrait, par différentes mesures, favoriser le développement de ces mécanismes de contrôle de ce que fait l'IA pour que dans un contexte comme le déploiement de l'IA par des fonctionnaires dans le gouvernement, on a une assez bonne confiance que soit l'IA ne fait rien ou dit : Je ne sais pas, ou va agir de manière alignée avec nos instructions normatives.

Puis là, ça veut dire quoi les normes qu'on veut que l'IA suive ? Qui décide de ça ? À un certain niveau, ça devrait être le processus démocratique, c'est la volonté populaire de ce qui est acceptable ou pas acceptable, qui devrait résulter des décisions collectives qu'on prend. En démocratie, on a des institutions démocratiques qui devraient déjà avoir une certaine transparence quand on va utiliser l'IA, bien c'est quoi qu'on considère acceptable dans le comportement de l'IA. Puis peut-être que ce ne sera pas la même chose d'un pays à l'autre et il faut qu'on puisse avoir un certain contrôle là-dessus en tant que nation.

Il faut aussi que les populations comprennent qu'on peut avoir du contrôle, qu'on peut s'exprimer là-dessus, que l'IA va être de plus en plus utilisée, pas seulement dans le gouvernement mais dans toute la société, et qu'il y a des choix à faire, des choix de société, comme en général dans toutes les politiques publiques, sur ce qu'on trouve socialement bénéfique, puis ce qui n'est pas acceptable dans le comportement d'entités qui vont avoir de plus en plus d'autonomie et dont les conséquences de leurs actions pourraient être significatives pour la société.

Donc, c'est ça. Il faut qu'on réfléchisse à un processus. Au départ, ça peut être assez simple, mais il faut comprendre que ça ne peut pas être juste des décisions individuelles que chaque bureau va prendre, parce qu'on voudrait quand même une certaine uniformité de ce qui est acceptable ou pas dans le comportement d'une IA.

La manière dont je le conçois, c'est un peu comme, dans nos lois, on a la Constitution, puis on a des lois plus spécifiques ; il faut qu'il y ait des principes normatifs généraux qui s'appliquent à toutes les IA qu'on va déployer dans notre pays. Puis peut-être après ça, on va décliner ça en contraintes ou règles plus spécifiques à une entreprise, à une organisation, à un bureau, etc.

Myra Latendresse Drapeau : À un objectif de politique, par exemple.

Yoshua Bengio : À un objectif de politique, etc. L'autre élément en rapport avec la question démocratique, c'est, comment on s'assure que les IA qui vont être déployées ne vont pas seulement agir dans le bon sens d'eux-mêmes, mais qu'elles ne seraient pas des outils pour quelqu'un qui voudrait s'en servir contre nos normes, contre nos lois, de manière criminelle, finalement. Puis ça, ça veut dire qu'on a besoin de mécanismes techniques et sociétaux pour contrôler ça, pour s'assurer que quelqu'un ne peut pas, dans son garage, utiliser l'IA pour fabriquer une nouvelle pandémie, par exemple ; ou s'en servir pour hacker un système informatique à son bureau. Il y a plein de cas de figure parce que l'IA va avoir de plus en plus de connaissances et de capacités d'appliquer ces connaissances. Ou quelqu'un qui n'est pas nécessairement un expert va pouvoir utiliser l'IA pour faire des choses criminelles, des choses qu'on ne veut pas dans la société.

Myra Latendresse Drapeau : Ou antidémocratique.

Yoshua Bengio : Ou antidémocratique, absolument. Ça inclue de vouloir influencer, par exemple, l'IA utilisée comme bot dans un média social. Bien, ça peut être une manière d'éduquer, mais facilement, peut devenir une manière de manipuler aussi. Donc, d'avoir un effet dangereux sur l'institution démocratique elle-même.

Myra Latendresse Drapeau : Un des piliers, on va dire, de nos démocraties, c'est la confiance que les citoyens accordent à leur gouvernement. Je ne vous apprends rien quand je vous dis que l'indice de confiance descend, est en déclin un peu partout à travers le monde. Le Canada s'en tire plutôt bien, mais la tendance est là quand même. Les citoyens font de moins en moins confiance en leur gouvernement. Quelle est la place de l'IA là-dedans, dans cette espèce de grande question-là de la confiance ? Est-ce que ça peut aider ? Est-ce que peut nuire ? Qu'est-ce que le gouvernement doit faire s'il utilise l'IA pour le faire dans un sens qui suscite la confiance des citoyens plutôt que l'inverse ?

Yoshua Bengio : C'est une bonne question. Il y a la possibilité de choisir dans quelle direction on va vouloir aller collectivement dans le développement de l'IA, pour quel genre d'application. Certaines pourraient être très bénéfiques à la démocratie et à la confiance qu'on va donner à nos systèmes de gouvernement, puis d'autres pourraient être très destructeurs.

Ça, ça veut dire qu'il faut qu'il y ait des gens dans le gouvernement qui comprennent ces enjeux. Là, on a un nouveau ministère de l'IA, donc c'est fantastique. Mais il faut s'emparer de ces enjeux, puis aussi de se donner les outils d'influencer ce développement, de favoriser les directions qui vont être bénéfiques à la démocratie et à la confiance.

Mis à part les genres de garde-fous dont on parlait tantôt, il y a aussi la possibilité d'investir dans le développement d'IA, par exemple, qui vont nous permettre de vérifier les faits. Aujourd'hui, un des grands problèmes de nos démocraties, c'est qu'on perd la notion de vérité, puis les gens peuvent énoncer toutes sortes de choses qui ne sont finalement pas cohérentes avec la réalité et les citoyens s'y perdent. Et ça, je pense que c'est une des sources importantes de perte de confiance dans nos gouvernements, si on ne sait plus ce qui est vrai, ce qui est bon, etc.

Donc, si on développait des IA qui étaient plus objectives dans leurs réponses, pas entraînées à faire plaisir, mais à nous donner l'heure juste sur des sujets qui nous intéressent, ça peut devenir un outil dans la boîte à outils démocratique pour le dialogue démocratique.

Parce qu'une démocratie a besoin d'un dialogue démocratique, c'est-à-dire une place où on s'entend sur certaines choses de base, certaines valeurs, la démocratie, par exemple. Et après ça, on peut construire ensemble des politiques publiques, des choix collectifs, parce qu'on a un langage commun. Si on n'est pas capable de s'entendre sur des fondements de ce qui est vrai dans le monde, ça ne va pas bien. Puis, la polarisation qu'on voit dans les réseaux sociaux aujourd'hui, ça rend ce dialogue très, très difficile.

Je pense qu'il y a moyen de développer des outils qui vont permettre un dialogue collectif plus objectif, qui laisse la place aux avis et opinions de tout le monde, mais qui ne laisse pas de place au mensonge, à la démagogie, etc., qui aujourd'hui polluent énormément l'espace démocratique.

Myra Latendresse Drapeau : Oui. Là, vous dites développer des outils. Est-ce que vous pensez essentiellement à des outils de dialogue ou si vous pensez aussi à des outils technologiques, vraiment concrets.

Yoshua Bengio : Technologiques. Je pense vraiment que l'IA, comme elle est aujourd'hui, il y a plusieurs chemins qui s'offrent à nous. Actuellement le développement de l'IA est beaucoup façonnée par la compétition entre quelques entreprises, puis la compétition entre une couple de pays, qui ne va pas nécessairement dans le sens de comment l'IA pourrait être développée plus pour aider la démocratie, par exemple. Et là, c'est des choix qu'on peut faire. Un exemple évident, c'est l'utilisation de l'IA pour améliorer la recherche médicale. Tout le monde voudrait avoir de meilleurs traitements médicaux. Mais pour l'instant, les compagnies d'IA ne font pas des gros investissements dans ce sens-là. Donc, je pense que les gouvernements peuvent jouer un rôle pour que le développement, la recherche et développement ait au moins une composante qui est focalisée sur l'intérêt public.

Il y a beaucoup de discussions en ce moment en Europe avec l'idée de développer un peu comme on a fait pour la physique, par exemple, la physique nucléaire et tout ça. On a développé des laboratoires de recherche qui ne sont pas à but commercial, mais qui sont pour aider à la mission publique. Ça peut être de protection, ça peut être d'avancées fondamentales.

Dans le cas de l'IA, c'est qu'on peut développer l'IA dans des directions comme faire avancer les outils démocratiques, faire avancer la protection du public, donc la sécurité de l'IA. Tout ça, c'est des aspects qui sont sous-développés aujourd'hui parce que les forces du marché ne poussent pas vraiment dans ce sens-là. Mais c'est, à mon avis, plus le rôle des gouvernements de développer ce genre de recherche-là.

Myra Latendresse Drapeau : Cette question-là, évidemment, les investissements en intelligence artificielle sont immenses, beaucoup plus élevés que ce que les gouvernements peuvent se permettre comme tel. Mais est-ce que vous voyez un potentiel pour que les gouvernements travaillent de concert avec les gros pôles de développements technologiques pour justement aller plus dans ce côté-là, plus éthique. On regarde au Canada, on est un joueur important à certains plans, mais il y a quand même un risque qu'on puisse manquer le bateau d'une certaine manière. Qu'est-ce qu'on peut faire pour ne pas manquer ce bateau-là ?

Yoshua Bengio : Premièrement, si on prend le Canada en isolation, on est tout petit comparé à notre voisin américain ou encore plus par rapport aux Chinois. Donc, comment est-ce qu'on peut tirer notre épingle du jeu ? Je pense que la réponse est simple : c'est qu'il faut s'allier avec d'autres pays qui partagent un peu des visions éthiques, par exemple, de l'IA et la crainte de te laisser pour compte dans le futur. Je pense que c'est tout à fait faisable et ça n'exclue pas de collaborer avec des entreprises, mais idéalement avec des entreprises canadiennes qui vont avoir l'intérêt de nos autres entreprises à cœur. Ça, c'est très important. Ça fait, moi, une décennie que j'essaie d'œuvrer dans le sens de développer la technologie d'une façon qui va nous donner comme pays des outils souverains, finalement.

C'est quoi les bonnes mesures pour ça ? C'est une autre question. Mais clairement, on voit, par exemple, les pays européens aujourd'hui qui décident d'aller dans ce sens-là, d'investir dans une mission publique au niveau des équipements, des ressources, de la recherche. Et je crois que le Canada a le potentiel de contribuer à ce genre de choses, de façon à augmenter les chances qu'on ait accès dans le futur à des IA compétitives avec les meilleurs qui existent au monde. Et on a le bassin d'expertises, on a l'énergie, on a beaucoup d'atouts pour ce défi-là.

Myra Latendresse Drapeau : On commence tranquillement à... Vous l'avez mentionné à quelques reprises, cette question de l'avenir de l'IA, parce que la vitesse de progression est incroyable! Qu'est-ce qui, vous, vous fascine le plus dans les avancées justement, qu'elles soient techniques ou éthiques ou sociales ? Qu'est-ce qui retient le plus votre attention à l'heure actuelle, par rapport aux dix dernières années, où vous voyez où ça s'en va ?

Yoshua Bengio : La première chose à dire, si on veut penser au futur de l'IA, c'est qu'il y a beaucoup d'incertitudes, que les chercheurs ne sont pas d'accord entre eux sur les scénarios de ce qui nous attend. Mais il y a quand même des tendances objectives qui sont assez fortes. Donc, si on regarde les cinq, dix dernières années, on voit que les capacités cognitives de l'IA sur plusieurs mesures, plusieurs bancs d'essai, augmentent et dans certains cas, quantitativement de façon exponentielle. Ça veut dire, par exemple, sur la capacité de planification, on voit que

[00:30:53 Texte à l'écran : Article par Jean-François Lisée – Désalignement artificiel / Extrait de l'article :

D'ici cinq ans, donc 2030, et au plus tard dans 10 ans, soit 2035, l'IA atteindra non seulement le niveau humain de l'intelligence, mais le niveau combiné de l'intelligence de tous les humains. Cela sera vrai si l'IA maintient son rythme de doubler sa capacité cognitive tous les sept mois, ce qui est le cas. Cela arrivera plus rapidement si elle augmente ce rythme ; ce qui est probable.]

Yoshua Bengio : la durée des tâches que l'IA peut faire avec succès double tous les sept mois. Donc, c'est important pour un citoyen, pour un fonctionnaire, pour quelqu'un qui prend des décisions de politique publique, de comprendre ça, de comprendre qu'on est sur une trajectoire qui va très vite. Non seulement elle va vite, mais elle accélère.

[00:31:12 Yoshua Bengio apparaît à l'écran]

Yoshua Bengio : Peut-être que ça va s'arrêter dans six mois, puis les chercheurs des compagnies vont frapper un mur. Mais ce qui est plus plausible, c'est qu'on continue sur la lancée.

Et là, l'autre problème, une fois qu'on accepte ça, c'est : Oui, mais ça veut dire quoi pour moi ? Ça veut dire quoi pour la société ? Puis, c'est très difficile pour la plupart des gens d'accepter l'idée qu'on va construire dans quelques années, ou peut-être une ou deux décennies, des ordinateurs qui auront les capacités cognitives de l'humain ou plus, ou même beaucoup plus, peut-être dans certains domaines plus que dans d'autres. On porte en nous l'idée que c'est nous les humains les plus intelligents. Puis, si quelqu'un nous dit que ça pourrait être différent dans quelques années, on dit : Ça ne se peut pas, c'est de la science-fiction. Malheureusement les faits scientifiques vont plutôt dans le sens que c'est là qu'on va. Il y a une espèce de barrière psychologique qui nous amène, beaucoup d'entre nous, au déni, finalement, de ce futur qu'on voit venir de plus en plus rapidement.

Le plus important, c'est déjà de s'ouvrir à l'idée que ce n'est pas de la science-fiction puis ce n'est pas n'importe quoi. Ce n'est pas tout ce qu'on voit dans les films de science-fiction qui va pouvoir se réaliser. Il faut une compréhension de ce qui est plausible et de ce qui ne l'est pas. Mais avec cette compréhension-là, on peut planifier, on peut essayer de se prémunir contre plusieurs scénarios catastrophe. Parce que pour bénéficier des avancées de l'IA, que ce soit pour la démocratie, la santé, les changements climatiques, il faut qu'on la gouverne, qu'on la gère avec sagesse. C'est-à-dire, d'une part, en comprenant les possibilités de ce qui s'en vient et avec des valeurs comme le principe de précaution, qu'on utilise en sciences quand on joue avec quelque chose de dangereux. Puis, même si je vais sur les scénarios de ceux dont on pourrait s'inquiéter, si l'IA continue dans sa lancée.

Il y a, on en a parlé, les utilisations, disons, criminelles ou terroristes de l'IA, parce que l'IA va avoir beaucoup de connaissances et de capacités d'appliquer ces connaissances, incluant pour fabriquer des nouvelles pandémies, par exemple, ou des cyberattaques, toutes sortes de choses. Il y a ce qu'on appelle la perte de contrôle.

Aujourd'hui, on voit que les IA qui résonnent bien et qui sont les plus avancées ont des tendances à mentir, à tromper pour essayer de se préserver elles-mêmes; être prêtes à tricher pour obtenir leurs objectifs comme des êtres humains, finalement. Ça, c'est rigolo jusqu'au jour où elles sont plus intelligentes que nous, puis qu'elles réussissent à échapper à notre contrôle et potentiellement causer des dégâts dans la société qui peuvent, pour certains chercheurs, aller jusqu'à l'extinction de l'humanité. C'est grave. On ne peut pas même prendre une petite chance que ça pourrait arriver.

Le troisième problème, j'en ai parlé un peu tout à l'heure, c'est que l'IA va donner beaucoup de pouvoir à ceux qui la contrôlent. La concentration du pouvoir, c'est le contraire de la démocratie.

[00:34:35 Texte à l'écran : Déclaration par Gabriela Ramos, sous-directrice générale pour les sciences sociales et humaines de l'UNESCO – Un extrait se lit comme suit :

« La technologie de l'IA apporte des avantages majeurs dans de nombreux domaines, mais sans garde-fous éthiques, elle risque de reproduire les préjugés et les discriminations du monde réel, d'alimenter les divisions et de menacer les droits de l'homme et les libertés fondamentales. »]

Yoshua Bengio : La démocratie, c'est le partage du pouvoir. Comment on gère le fait que l'outil, par sa nature, va pouvoir donner lieu, si on ne fait pas attention, si on ne met pas les bonnes balises démocratiques, à…

[00:34:50 Yoshua Bengio apparaît à l'écran]

Yoshua Bengio : des gouvernements autoritaires, par exemple, qui pourraient utiliser l'IA pour augmenter leur pouvoir, pour surveiller les populations, etc. Et ça pourrait arriver chez nous, ça pourrait arriver dans un autre pays. Qu'est-ce qu'on peut faire pour éviter ce genre de scénario ? Il y a plein de scénarios catastrophe.

Il y a aussi les scénarios catastrophe du côté économique. Donc, on a aussi parlé du potentiel de remplacer beaucoup d'emplois par le travail qui est fait par l'IA, puis ça va se faire graduellement. Mais comment on gère ça ? Qu'est-ce qu'on fait si les entreprises qui contrôlent ça sont essentiellement des entreprises étrangères ? Est-ce qu'on n'a plus de contrôle sur ça ? Est-ce que les bénéfices de ces changements-là vont être dans un autre pays, puis on se retrouve juste avec les gens au chômage ? C'est des questions difficiles qui demandent de réfléchir stratégiquement, de manière pas seulement en pensant au Canada, mais le Canada dans le monde avec d'autres pays, toute la géopolitique. C'est des choses… Je pense que c'est important que les individus comprennent, que les citoyens comprennent, que les fonctionnaires comprennent et que les directions, nos législateurs comprennent aussi.

Myra Latendresse Drapeau : Il y avait comme un peu un deuxième aspect à ma question. Je vous demandais ce qui vous occupe, vous préoccupe le plus. Puis j'allais vous demander : qu'est-ce qui vous semble être ce qui est le plus sous-estimé en ce moment dans les capacités de l'IA. Je pense que j'ai entendu quelque chose autour de ce que l'IA pourrait faire qui amènerait des effets délétères assez importants. Est-ce qu'il y a un potentiel, par contre, qui est un peu inexploité ou sous-estimé en ce moment, qui pourrait plutôt aller dans le sens du bien commun ou de l'intérêt public ?

Yoshua Bengio : Oui. Je pense qu'il y a un potentiel d'accélérer la recherche scientifique. Ça peut être dans les domaines où les gens voient tout de suite l'intérêt, comme dans la recherche médicale. Il faut savoir, par exemple, que notre corps est formé d'un grand nombre de cellules et que les biologistes ne comprennent pas bien le fonctionnement de chaque cellule. On connaît énormément de choses, mais ça reste un mystère. On ne sait pas la simuler, la cellule. Ça fait en sorte que le développement de thérapies, de médicaments, c'est quasiment à l'aveugle aujourd'hui. On essaye des choses, on voit ce qui marche. Ce qu'on voit poindre à l'horizon, c'est les capacités de l'IA à aider les chercheurs à mieux comprendre de manière systématique un système biologique, par exemple, ou un aspect du climat, ou un aspect de la vie municipale ou de nos écosystèmes, ou de ce qui fait qu'un élève va apprendre mieux et plus vite.

Finalement, c'est de la science de comprendre ces choses-là qui aujourd'hui se fait à un certain rythme, mais qui a le potentiel d'être grandement accéléré par l'IA. Déjà, les scientifiques commencent à utiliser ça, mais encore là, c'est un problème d'incitatif. Ce n'est pas rentable nécessairement de faire avancer la science dans ce sens-là. C'est plus rentable de prendre les jobs; c'est plus rentable de fournir des services pour lesquels les gens vont payer. Donc, je pense que c'est un peu la responsabilité des gouvernements de dire : OK, il y a une direction d'application de l'IA qui serait vraiment bénéfique à la société, mais où il y a un sous-investissement, parce que les forces du marché ne sont pas là aujourd'hui. Et là, on peut intervenir.

Myra Latendresse Drapeau : Tout ce qui nous aide à reconnaître des patterns, dans le fond. C'est là où l'intelligence humaine est vite limitée, mais que l'intelligence artificielle voit les choses que nous, on ne voit pas.

Yoshua Bengio : Oui, mais pas seulement reconnaître des patterns, mais même proposer des hypothèses scientifiques. C'est la base de comment fonctionne la science. On observe des données expérimentales et là, c'est notre cerveau qui génère des idées de pourquoi, pourquoi ça se passe comme ça ? Ça ne veut pas dire que l'idée est bonne. Des fois, les hypothèses ne sont pas vérifiées. Mais de générer des explications, des idées, c'est quelque chose où on voit de plus en plus de recherches qui pourraient mener à des outils vraiment qui pourraient accélérer, pour certains qui disent diviser par 10 le temps que ça prend pour résoudre certains problèmes scientifiques. Ça, ça pourrait vraiment changer la société de manière bénéfique, de manière drastique.

Myra Latendresse Drapeau : En 2023, vous étiez d'avis qu'il fallait mettre un peu sur pause le développement de l'intelligence artificielle pour se pencher sur les répercussions que ça pouvait avoir sur nos sociétés, sur le développement humain, sur certains des facteurs que vous avez évoqués jusqu'à maintenant. Comment est-ce qu'on peut concevoir un cadre global qui va continuer à favoriser l'innovation, mais qui, en même temps va assurer une espèce d'harmonisation des systèmes d'IA et leur ancrage dans nos valeurs humaines, les principes de sécurité, la surveillance démocratique, etc.?

Yoshua Bengio : C'est une excellente question. Aujourd'hui, malheureusement, on est parti dans le sens inverse, où l'attention et la volonté politique concernant les balises qu'on veut mettre autour de l'IA sont en train de céder le pas à la volonté…

[00:40:49 À l'écran, un article de Jenna Benchetrit de CBC dont voici un extrait :

« On assiste ici à une tension entre, d'une part, le désir de stimuler l'économie grâce à l'innovation en matière d'IA et d'autre part, la nécessité de la réglementer. »

Yoshua Bengio : de gagner une course. La volonté de mettre tout dans l'innovation vers des IA plus intelligentes, mais pas nécessairement plus morales ou plus capables de suivre nos instructions et nos normes.

[00:41:07 Yoshua Bengio apparaît à l'écran.]

Yoshua Bengio : Donc ça c'est un enjeu qui se comprend, parce qu'il y a de plus en plus de compétition entre les entreprises. Ça se voit dans leur comportement et ça veut dire qu'elles vont avoir tendance à couper les coins ronds sur les aspects qui sont plus un bien public, finalement ; la sécurité étant un exemple. La volonté des états à collaborer pour mettre en place des mécanismes de réglementation ou de standards internationaux, ça aussi, il y a un certain recul. En 2023, le gouvernement britannique a fait venir des chefs de gouvernement d'une trentaine de pays et des ministres d'une trentaine de pays pour essayer de réfléchir dans ce sens-là. Les entreprises sont venues, on dit oui, on veut aller dans ce sens-là. Et aujourd'hui, en 2025, bien, on voit un recul de cette volonté.

Donc ça, c'est un problème. Comment est-ce qu'on peut se sortir de ça ? Je pense que les détails techniques de quel genre de traités ou d'accords internationaux sont moins importants que la volonté politique. Puis d'où va venir la volonté politique ? Elle va venir des citoyens qui s'inquiètent des risques de dérapage. Elle va venir d'une meilleure compréhension des citoyens et des dirigeants des pays. Elle va venir des risques qui nous mettent tous dans le même bateau, tous les pays, même des pays qui ont des systèmes politiques très différents.

Donc, quand on voit l'IA comme potentiellement une arme qui peut être utilisée contre nous ou que nous, on peut utiliser contre les autres, ça, ça nous amène dans une posture de compétition qui n'est pas nécessairement saine, même s'il faut tenir compte de cette réalité-là.

Quand on regarde les risques comme la perte de contrôle à des IA folles, disons, qui ne voudraient pas notre bien, là, on est tous dans le même bateau. Je pense que c'est ce genre… ou, par exemple, des risques d'un terroriste qui utiliserait ou d'une secte avec des croyances bizarres qui utiliserait l'IA pour créer des catastrophes globales. Ça, c'est des risques dans lesquels tout le monde serait affecté. Tous les pays seraient affectés. Personne n'a intérêt, personne, à part quelques fous, personne n'a intérêt vraiment à ce que ça se passe, ces choses-là.

Je pense que c'est ce genre de risque, mais il faut regarder tous les risques, mais c'est ce genre de risques qui ont le plus de chances d'amener des gouvernements qui se perçoivent comme des adversaires autour de la même table. Je pense que le Canada peut être un acteur positif de ça. On a une tradition de multilatéralisme. On veut collaborer avec d'autres pays. On le fait et on peut le faire plus et encourager des efforts de multiples pays pour développer une IA sécuritaire, justement, pour laquelle ces risques-là seraient mitigés.

Myra Latendresse Drapeau : À l'échelle nationale, qu'est-ce qu'on pourrait faire ?

Yoshua Bengio : À l'échelle nationale, il faut qu'on fasse ce qui est moralement juste. Je vais prendre l'exemple : Aujourd'hui, l'Europe essaye de développer un système de réglementation autour de l'IA. Ça serait bien que d'autres pays fassent quelque chose d'équivalent. À ce moment-là, on est ensemble, plus de pays, à dire : Ça, c'est nos limites, nos limites éthiques. Même s'il y a certains pays qui refusent d'embarquer, on a plus de force quand il y a beaucoup de pays qui se tiennent ensemble pour dire : l'IA peut être bénéfique, mais il faut qu'elle soit balisée.

Myra Latendresse Drapeau : J'ai envie de finir sur une touche un peu plus personnelle. Je pense que vous êtes père, je pense que vous êtes aussi grand-père. Parfois, je vous entends, puis il y a quand même des scénarios possibles qui sont effrayants. Comment on élève nos jeunes, puis qu'on soit parents ou pas, qu'on soit pédagogues, comment est-ce qu'on grandit dans ce monde-là, qu'on doit apprendre à naviguer avec des possibilités qui sont quand même, enfin, on va dire inconnues, mais en tous les cas, peut-être un peu effrayantes. Qu'est-ce qu'on se dit entre nous, à nous-mêmes ? Puis, qu'est-ce qu'on dit à nos jeunes qui vont grandir dans ce monde-là ?

Yoshua Bengio : Premièrement, pour prendre des bonnes décisions,

[00:46:02 Déclaration de l'UNESCO. Texte à l'écran : Une approche de l'IA fondée sur les droits de l'homme

La compréhension des technologies de l'IA et de la valeur des données par le public devraient être favorisées par une éducation ouverte et accessible, l'engagement civique, l'acquisition de compétences numériques et la formation à l'éthique de l'IA et l'éducation aux médias.]

Yoshua Bengio : il faut comprendre ce qui se passe, il faut comprendre ce qui va probablement s'en venir. Donc, collectivement, si on peut s'aider à comprendre, ça, c'est déjà une étape importante.

[00:46:16 Yoshua Bengio apparaît à l'écran]

Yoshua Bengio : Deuxièmement, si je réfléchis à ma propre trajectoire, que des gens brandissent des scénarios catastrophe, ça ne m'a pas nécessairement influencé tant que ça, mais ce qui m'a fait bouger, moi, c'est de penser à l'amour que j'ai pour mes enfants puis mon petit-fils et me poser la question : Quel genre de vie ils vont avoir dans 10 ans, dans 20 ans, s'il y a des IA plus intelligentes que nous qui peuvent être utilisés de manière destructrice ou dont on perdrait le contrôle et qui pourraient vouloir la fin de l'humanité.

C'est des scénarios peut-être très difficiles à quantifier, est-ce que c'est probable ou pas ? Mais c'est des scénarios que les chercheurs et les ingénieurs dans les compagnies d'IA évaluent sérieusement.

Mais cette pensée à l'amour des gens qui comptent pour nous, qui vraiment, moi, m'a amené à bouger et à changer ma trajectoire. Je pense qu'après, quand on se dit : OK, il y a des risques inacceptables ; l'étape suivante, c'est de dire : Qu'est-ce que moi, je peux faire ? Qu'est-ce que moi, je peux faire pour les gens que j'aime ?

Chacun de nous peut faire quelque chose, un peu comme pour le climat. Oui, nos gouvernements jouent un rôle très important, mais à la base, c'est parce que les gens prennent ça au sérieux qu'on se retrouve avec des politiques publiques qui vont dans ce sens-là. C'est pareil pour l'IA. Si on regarde de côté, puis qu'on ne se confronte pas émotionnellement à la fois au potentiel bénéfique et dangereux, on ne fait rien, puis on est des victimes passives, potentiellement de certains de ces scénarios-là.

Pour avoir une chance de trouver un chemin bénéfique pour nous, pour l'humanité, il va falloir qu'on sorte de nos ornières, qu'on laisse aller notre imagination, qu'on soit rigoureux à la fois dans ce travail-là, qu'on soit créatif dans les solutions qu'on va déployer, qu'on s'ouvre à des manières de comprendre les choses très différentes de ce qu'on a vécu toute notre vie. On a tous des barrières qui nous amènent dans la routine et qui nous font résister au changement, qui nous font résister aux idées qui nous sont très étrangères. Et ça prend de la flexibilité mentale, ça prend de la créativité, puis ça prend qu'on travaille ensemble, puis qu'on s'écoute pour trouver notre chemin qui va être positif pour tout le monde.

Myra Latendresse Drapeau : Encore une fois, merci beaucoup, professeur Bengio. Ça a été un moment extraordinaire de vous entendre. Clairement, ça vous passionne, vous avez énormément à dire. Je pense qu'on a matière à réflexion. On doit, nous, comme individu, prendre un moment de pause, puis réfléchir à comment on se met en action, comment on se mobilise. Oui, c'est une question pour nos gouvernements, nos administrations, mais c'est aussi une question pour nous comme individu. Vos propos ont été très inspirants et je vous remercie encore une fois de nous avoir offert autant de perspectives.

Yoshua Bengio : Ça m'a fait très plaisir. Merci pour les questions.

[00:49:54 Le logo animé de l'EFPC apparaît.]

[00:49:58 Texte à l'écran : canada.ca/ecole]

[00:50:01 Le mot-symbole Canada apparaît.]

Liens connexes


Date de modification :