Sélection de la langue

Recherche

Série L'intelligence artificielle est à nos portes : L'utilisation de l'IA par les gouvernements et le consentement citoyen (DDN2-V06)

Description

Cet enregistrement d'événement présente une conversation entre Peter Loewen et Wendy H. Wong au sujet des principaux obstacles à l'utilisation de l'intelligence artificielle par les gouvernements dans le monde.

(Consultez la transcription pour le contenu en français.)

Durée : 01:29:13
Publié : 24 mai 2022
Type : Vidéo

Événement : Série L'intelligence artificielle est à nos portes : L'utilisation de l'IA par les gouvernements et le consentement citoyen


Lecture en cours

Série L'intelligence artificielle est à nos portes : L'utilisation de l'IA par les gouvernements et le consentement citoyen

Transcription

Transcription

Transcription : Série L'intelligence artificielle est à nos portes : L'utilisation de l'IA par les gouvernements et le consentement citoyen

[Le logo « Webcast Webdiffusion » apparaît.

Erica Vezeau apparaît par webcaméra. Pendant qu'elle parle, un bandeau s'affiche indiquant « Erica Vezeau. École de la fonction publique du Canada »]

Bonjour tout le monde! Bienvenue à l'École de la fonction publique du Canada.

Je m'appelle Erica Vezeau et je suis la directrice générale par intérim de l'Académie du numérique ici à l'École. J'agirai comme animatrice pour l'événement spécial d'aujourd'hui. Je suis très heureuse d'être parmi vous aujourd'hui pour cet événement et je souhaite la bienvenue à tous ceux qui sont connectés. Avant de poursuivre, j'aimerais souligner, puisque je diffuse à partir d'Ottawa-Gatineau, que je me trouve sur le territoire traditionnel non cédé du peuple Anishinaabe pendant que je participe à cet événement virtuel. Reconnaissons que nous travaillons tous dans des endroits différents et que, par conséquent, nous nous trouvons tous sur un territoire traditionnel autochtone différent. Je vous invite à prendre quelques minutes pour réfléchir à cette réalité et à la reconnaître.

L'événement d'aujourd'hui est le deuxième volet de notre série intitulée « L'intelligence artificielle est à nos portes ». L'école propose cette série d'événements en partenariat avec l'Institut Schwartz Reisman pour la technologie et la société, un centre de recherche et de solutions établi à l'Université de Toronto, dont la mission est de veiller à ce que les technologies comme l'intelligence artificielle soient sûres, responsables et exploitées à bon escient. Le premier événement de la série « L'intelligence artificielle est à nos portes », qui a eu lieu le 5 novembre, a offert aux participants un aperçu du monde de l'IA et une analyse des différentes façons dont l'IA et l'apprentissage automatique peuvent potentiellement transformer le processus décisionnel du gouvernement et les emplois des fonctionnaires. Aujourd'hui, nous allons nous pencher sur le consentement citoyen et l'utilisation de l'IA au gouvernement. L'événement d'aujourd'hui se déroulera comme suit : Tout d'abord, nous regarderons une conférence préenregistrée donnée par Peter Loewen, directeur de l'École Munk des affaires internationales et des politiques publiques de l'Université de Toronto, ainsi que directeur associé de l'Institut Schwartz Reisman. Après la conférence, je reviendrai accompagnée de deux estimés panélistes, Peter Loewen lui-même et Wendy H. Wong, professeure au Département de science politique de l'Université de Toronto et titulaire de la Chaire de recherche du Canada sur la gouvernance mondiale et la société civile. À ce moment-là, je laisserai Wendy et Peter animer une table ronde où seront explorés un certain nombre d'idées et de sujets soulevés pendant la conférence en lien avec l'utilisation des algorithmes au gouvernement et le consentement citoyen. Enfin, nous offrirons une période de questions-réponses, ce qui vous donnera l'occasion, à vous, membres du public, de poser certaines de vos questions à nos panélistes. Nous avons prévu un bel événement pour vous et nous voulons que vous viviez la meilleure expérience possible. Avant d'amorcer la conférence, voici quelques points d'ordre administratif dont il faut parler. Nous vous recommandons de vous déconnecter du RPV ou d'assister à la séance à partir d'un appareil personnel si possible, afin d'optimiser votre visionnement. Si vous éprouvez des problèmes techniques, nous vous recommandons de relancer le lien vers la webdiffusion qui vous a été envoyé par courriel. Vous pouvez soumettre vos questions à Peter et Wendy tout au long de l'événement en utilisant l'interface vidéo. Veuillez diriger votre curseur dans le coin supérieur droit de votre écran, cliquez sur le bouton « Lever la main » et inscrivez votre question. Si votre question s'adresse à l'un de nos intervenants en particulier, veuillez l'indiquer. La boîte de réception sera surveillée pendant toute la durée de l'événement et vos questions me seront communiquées afin que je les transmette à nos invités. Une traduction simultanée est offerte pour les participants qui se joignent à nous par la webdiffusion. Vous pouvez choisir la langue officielle que vous préférez à l'aide de l'interface vidéo. Enfin, veuillez noter que la séance d'aujourd'hui sera enregistrée par l'École et qu'elle pourra être rediffusée à une date ultérieure ou utilisée pour soutenir nos offres d'apprentissage. Maintenant, sans plus attendre, commençons la vidéo sur le consentement citoyen et l'utilisation de l'IA au gouvernement.

[Un carton violet avec une étoile rayonnante portant l'inscription « Série L'intelligence artificielle est à nos portes ». Les mots apparaissent. « L'utilisation de l'IA par les gouvernements et le consentement citoyen ». Peter Loewen se tient devant un fond bleu. Des diapositives apparaissent à sa gauche. La première indique « L'utilisation de l'IA par les gouvernements et le consentement citoyen » sur une image de pièces de casse-tête en 3D. Un bandeau indique « Peter Loewen. Directeur associé, Institut Schwartz Reisman. Directeur, École Munk des affaires internationales et des politiques publiques de l'Université de Toronto »]

Bonjour, chers collègues. Je m'appelle Peter Loewen et je suis heureux de vous parler aujourd'hui de quatre obstacles à l'algorithmique gouvernementale. Au cours des prochaines minutes, j'aimerais vous parler des recherches que j'ai menées avec mes collègues, Benjamin Alan Stevens, Dario Sidhu et Bart Bonikowski. Travaux financés par Shirk, par la politique publique formée par l'Institut Schwartz Reisman. Ces travaux visaient à mieux comprendre quels sont les obstacles qui empêchent les citoyens d'accepter que le gouvernement utilise des algorithmes pour prendre des décisions. Je souhaite vous faire part de quatre obstacles particuliers qui, selon nous, entravent le consentement citoyen généralisé en ce qui a trait à l'utilisation des algorithmes dans le processus décisionnel des gouvernements.

[Les mots suivants s'affichent : « Questions centrales : Pourquoi n'automatisons-nous pas davantage le processus décisionnel au gouvernement? Quels sont les obstacles possibles à l'algorithmique gouvernementale? »]

Ce qui motive réellement cette série de questions et ces investigations, ce sont les questions centrales suivantes : Pourquoi n'automatisons-nous pas davantage le processus décisionnel au gouvernement? Pourquoi laisser aux humains le soin de prendre les mêmes décisions, encore et encore, alors que ces décisions pourraient être prises beaucoup plus rapidement, peut-être même avec plus de cohérence et moins de partialité si elles étaient prises par des machines? La deuxième question centrale est la suivante : Quels sont les obstacles possibles à l'algorithmique gouvernementale? Ce que je veux vous expliquer, c'est qu'il existe quatre obstacles particuliers à l'appui généralisé des citoyens de l'utilisation de l'algorithmique gouvernementale. Ces obstacles sont importants et il faudra les surmonter. Si nous voulons utiliser un processus décisionnel automatisé d'une manière qui soit consentie par les citoyens, à une échelle beaucoup plus large au sein du gouvernement.

[La diapositive est intitulée « Feuille de route ». Au fur et à mesure qu'il parle, ses principaux points sont énumérés sur la diapositive.]

La feuille de route de cet exposé est la suivante. Je vais donner mes arguments en faveur de l'algorithmique gouvernementale. En d'autres termes, je vais vous exposer certaines des raisons pour lesquelles je pense que nous devrions peut-être utiliser davantage d'algorithmes ou de processus décisionnels automatisés au sein du gouvernement. Pour être juste, je vais aussi discuter de l'envers de la médaille et vous expliquer ce qui, je crois, constitue les limites de l'utilisation des algorithmes au gouvernement. Je souhaite ensuite présenter un argument particulier concernant ce que j'appelle la centralité du consentement citoyen. L'idée de base ici est que lorsque le gouvernement doit changer à grande échelle la façon dont il fait quelque chose, il doit le faire avec le consentement des citoyens. Pas d'une manière simple, mais d'une manière qui considère en profondeur plusieurs aspects sur lesquels les citoyens peuvent s'opposer ou non à ce que le gouvernement fasse quelque chose. Maintenant que la table est mise, je parlerai de quatre difficultés à l'obtention du consentement citoyen qui font obstacle à l'algorithmique gouvernementale. Essentiellement, je vais vous présenter quatre raisons différentes pour lesquelles les citoyens peuvent être réticents à consentir à ce que le gouvernement utilise des algorithmes.

[On lit sur la diapositive « Quels sont les arguments en faveur de l'algorithmique gouvernementale? »]

Quels sont donc les arguments en faveur de l'utilisation des algorithmes au sein du gouvernement? Eh bien, voici quelques arguments qui expliquent pourquoi nous pourrions vouloir automatiser un plus grand nombre de décisions prises par les bureaucrates.

[On lit sur la diapositive « L'État administratif devient plus complexe, et non pas moins complexe. »]

Le premier argument est que l'État administratif devient plus complexe, et non moins complexe. Vous savez que chaque année, lorsque nous adoptons de nouvelles lois, que nous introduisons de nouveaux programmes, que nous mettons en œuvre de nouvelles politiques, une nouvelle couche vient s'ajouter à l'État administratif. Cet argument ne signifie pas que le gouvernement est inefficace ou qu'il ne fait pas bien son travail. Ce n'est qu'un constat : le gouvernement devient plus complexe, et non pas moins complexe. Les organisations qui sont complexes devraient, à un certain moment, tendre vers la simplicité. Une forme de simplicité peut consister à essayer d'automatiser les décisions plutôt que de laisser aux humains le soin de les prendre.

[On peut lire sur la diapositive : « Nous comptons sur les humains pour prendre un grand nombre de décisions. »]

Le deuxième élément qui est lié à cela, c'est que nous comptons fréquemment sur les bureaucrates, c'est-à-dire sur des humains comme vous et moi, pour prendre un grand nombre de décisions et mettre en œuvre des politiques. Toutefois, le problème est qu'il existe des limites claires et démontrables à notre capacité de prendre des décisions. Les humains ont du mal à prendre des décisions constamment. Ils ont du mal à inscrire régulièrement et systématiquement leurs décisions dans les valeurs ou les objectifs d'une politique qui devraient motiver ces décisions. Les humains sont biaisés. Ajoutons que les humains sont doués dans plusieurs domaines. Nous sommes particulièrement doués pour les jugements. Ainsi, nous pourrions penser à l'ensemble des décisions que vous pourriez prendre en tant que bureaucrate et séparer celles qui sont plus routinières, automatisables et forgées de celles qui requièrent du jugement. Pourquoi ne voudrions-nous pas consacrer plus d'énergie à celles qui requièrent du jugement ou peut-être un élément de moralité, plutôt qu'à celles qui sont plus forgées et routinières?

[On lit sur la diapositive : « Le respect de l'équité procédurale ne conduit pas nécessairement à de meilleures décisions ». L'image de fond est une longue planche en équilibre sur un ballon, avec trois petits ballons à une extrémité et un grand ballon à l'autre extrémité. La planche est à l'horizontale.]

Le troisième élément est que le respect de l'équité procédurale ne conduit pas nécessairement, ni même probablement, à de meilleures décisions, si l'on comprend cela de la manière suivante. Il existe un très bon exemple aux États-Unis, où l'on compte un grand nombre de vétérans. Notre collègue Dan Hoe a donné un très bon exemple : la Veterans Administration aux États-Unis a décidé que lorsque les vétérans veulent faire opposition ou interjeter appel concernant les prestations qu'ils reçoivent, ils doivent être entendus par un juge humain. Maintenant, ceci est motivé par le fait que nous croyons que si nous avons un problème avec le gouvernement, il est juste et équitable qu'un humain nous entende, mais il y a là un problème d'échelle. Tellement de gens font appel concernant leurs prestations qu'un juge ne peut accorder que cinq minutes à chaque personne. Ainsi, ce qui semble équitable d'un point de vue procédural, c'est-à-dire qu'on amène quelqu'un devant un juge et qu'on laisse un humain entendre la cause d'un autre humain, peut en fait conduire à des processus inéquitables par manque de temps pour procéder correctement. Même lorsqu'il y a assez de temps pour procéder correctement, les données et la recherche sont relativement claires sur le fait que les décisions prises par les humains ne sont pas constantes. Ainsi, nous intégrons souvent des êtres humains dans nos processus décisionnels parce que nous voulons qu'ils semblent équitables du point de vue de la procédure, mais, dans les faits, ils peuvent être moins équitables que si c'était une machine qui prenait la décision.

[On lit sur la diapositive « L'État n'est pas conçu pour apprendre ».]

Le quatrième argument en faveur de l'algorithmique gouvernementale est que l'État n'est pas conçu pour apprendre. Si vous prenez des décisions à un rythme très rapide et que vous passez à de nouvelles décisions sans prévoir de période de réflexion, l'apprentissage que vous pouvez faire à partir des données que vous produisez dans les décisions qui sont prises, votre apprentissage ou l'apprentissage de n'importe quel bureaucrate lorsque les décisions ont conduit à de bons résultats, puis l'actualisation des modèles mentaux et de la façon dont les décisions sont prises sont limités, même lorsque du temps est prévu à cet effet. Toutefois, dans un domaine qui est – qui est de plus en plus complexe, où il y a un nombre croissant de décisions à prendre, il devient presque impossible d'apprendre réellement. Ainsi, en prenant en compte ces quatre éléments, il en ressort la possibilité qu'un certain degré de prise de décision algorithmique puisse être en mesure de répondre aux lacunes dans la façon dont nous prenons actuellement des décisions dans l'État administratif.

[La diapositive indique « Limites de l'utilisation des algorithmes ». Ses principaux points apparaissent sur la diapositive au fur et à mesure qu'il parle.]

Maintenant que je vous ai parlé des avantages potentiels ou des raisons d'utiliser des algorithmes, il faut reconnaître qu'il existe certaines limites à leur utilisation, et que celles-ci sont tout aussi importantes. Je voulais vous en énumérer seulement cinq et je veux vraiment me concentrer sur la cinquième. La première a trait à la supervision, car il est difficile, si nous automatisons un grand nombre de décisions, d'être en mesure de vérifier ou de superviser efficacement toutes les décisions qui sont prises. C'est plus difficile que si les décisions sont prises plus lentement par les humains. La deuxième limite potentielle à l'utilisation des algorithmes concerne le problème classique de la relation entre le mandant et le mandataire. Si je suis le mandant dans une relation, je souhaite que vous réalisiez quelque chose comme mandataire. Je vous donne le pouvoir de le faire, mais si je ne peux pas vous superviser dans cette tâche, l'idée générale est que je vous la délègue parce que vous avez plus de temps que moi pour prendre la décision, alors il y a un écart entre ce que je veux et ce que vous faites. C'est un problème classique dans toute grande organisation. En fait, cela se produit dans toute organisation qui implique une délégation de tâches, mais il est possible que ce soit encore pire avec les algorithmes si nous permettons aux algorithmes d'apprendre. Parce que si nous ne pouvons pas voir comment les algorithmes apprennent et changent la façon dont ils prennent leurs décisions, alors cela élargit le fossé entre – potentiellement entre ce que le mandant veut et ce que le mandataire fait. Il y a le problème de capacité à expliquer; il est important d'être en mesure d'expliquer aux citoyens ce qui se cache derrière la prise de décision algorithmique, surtout si les algorithmes apprennent en temps réel et adaptent leur façon de prendre des décisions. Les citoyens veulent raisonnablement obtenir des justifications pour les décisions prises par les fonctionnaires. Si les décisions sont laissées dans la boîte noire d'un algorithme et qu'on ne peut pas les expliquer, alors on passe à côté d'une valeur fondamentale de la prise de décision publique. Enfin, il y a le défi de la mise en œuvre tout simplement. Les grandes administrations nationales, provinciales et municipales ont toutes le problème, c'est bien connu, de diffuser réellement la technologie et les solutions technologiques au sein de leurs effectifs. C'est tout aussi vrai, peut-être même encore plus vrai, pour la prise de décision algorithmique. On peut imaginer des façons dont les algorithmes prendront des décisions. Les mettre en œuvre dans les flux de travaux est une autre affaire. Il existe un cinquième obstacle, qui est celui sur lequel je veux me concentrer pour le reste de cet exposé. C'est l'idée du consentement citoyen. L'idée que le gouvernement ne devrait faire que ce que les citoyens accepteraient qu'il fasse et peut-être ce qu'ils accepteraient qu'il fasse après réflexion.

[La diapositive indique « Consentement citoyen ». Ses principaux points apparaissent sur la diapositive au fur et à mesure qu'il parle.]

Permettez-moi maintenant de parler un peu de la centralité du consentement citoyen pour la prise de décision gouvernementale. La première affirmation que je veux faire est qu'à long terme, le consentement citoyen est fondamental pour le fonctionnement efficace du gouvernement. Le secret de la démocratie, la raison pour laquelle elle fonctionne mieux que d'autres systèmes, ce n'est pas parce que les citoyens sont des superviseurs parfaits du gouvernement, mais parce qu'ils sont capables, au fil du temps, de freiner les gouvernements qui vont trop loin et de pousser les gouvernements qui ne vont pas assez loin. Au cœur de cela se trouve l'idée que les citoyens consentent à ce que les gouvernements font. En effet, le consentement citoyen est lié à toute une série d'hypothèses et de normes sur le fonctionnement du gouvernement et du service public. Troisièmement, l'opposition à l'action du gouvernement est puissante, même si cette opposition n'est le fait que d'une minorité. Imaginez un instant que la plupart des citoyens ne se soucient pas du tout de savoir si le gouvernement utilise des algorithmes ou non, mais qu'une minorité, 10, 15 ou 20 %, s'en soucie profondément et est très préoccupée par l'utilisation correcte ou la limitation de l'utilisation des algorithmes par le gouvernement. Comment ces 10, 15, 20 % peuvent-ils servir de frein à l'utilisation – à l'utilisation accrue de l'algorithmique gouvernementale? Eh bien, ils peuvent tout d'abord susciter une plus grande opposition, car un groupe très motivé pourrait être capable de générer une opposition publique plus forte. Deuxièmement, il y a l'idée connexe de public cible. Et l'idée ici est que nous n'avons pas un seul public. Nous en avons plusieurs et ces publics sont définis par les questions qui les intéressent vraiment. Et si vous voulez obtenir le consentement continu du gouvernement, vous devez construire ce consentement à partir des éléments constitutifs de ces différents publics cibles. Pour les 10, 15, 20 % de personnes qui se soucient vraiment de la façon dont le gouvernement prend ses décisions, l'utilisation d'algorithmes peut être fondamentale à l'obtention de leur consentement. Ainsi, même s'il s'agit d'un petit groupe, ce sont les conditions sur lesquelles vous devez obtenir leur consentement. Enfin, la réussite du gouvernement dépend de l'attention. Vous savez dans vos ministères. Vous avez probablement eu vent d'exemples ou avez vécu des expériences de ce genre; lorsque l'opposition publique et les projecteurs de l'opposition publique se concentrent sur [rires] un ministère, cela peut vraiment ralentir ce que ce ministère fait pendant une longue période. Parfois, cela peut arrêter des programmes entiers, de bons programmes, à mi-chemin. La réussite du gouvernement dépend donc de sa capacité à se concentrer sur les choses et à les faire. Et lorsqu'il se heurte à l'opposition, même celle d'une minorité sur une question donnée, la capacité du gouvernement à obtenir ce qu'il veut est réduite.

[La diapositive se lit comme suit : « Quatre difficultés pour obtenir le consentement citoyen à l'algorithmique gouvernementale ».]

Ce dont je veux vous faire part maintenant, c'est que notre recherche suggère qu'il y a quatre difficultés pour obtenir le consentement citoyen à l'algorithmique gouvernementale. C'est-à-dire qu'il y a quatre éléments particuliers. Il y en a peut-être d'autres, mais nous avons relevé quatre éléments particuliers concernant l'utilisation d'algorithmes dans la prise de décisions qui peuvent ne pas faire l'objet de l'entier consentement des citoyens. En d'autres termes, il s'agit d'obstacles fondamentaux qui se dressent entre la situation actuelle et la poursuite ou l'intensification de l'utilisation des algorithmes d'intelligence artificielle par le gouvernement. J'en parlerai plus en détail, mais les voici en résumé.

[La diapositive remplit l'écran. Ses principaux points apparaissent sur la diapositive au fur et à mesure qu'il parle.]

La première difficulté est que les citoyens soutiennent plusieurs motifs d'utilisation des algorithmes différents, mais ils ne soutiennent fortement aucun ensemble -- aucun ensemble cohérent de motifs. La deuxième est que, lorsqu'on demande aux citoyens d'évaluer une innovation algorithmique, ils l'évaluent toujours négativement par rapport au statu quo. En d'autres termes, si on leur décrit la façon dont les décisions sont prises aujourd'hui et la façon dont elles pourraient être prises à l'aide des algorithmes, il semble qu'ils préfèrent toujours le statu quo. Troisièmement, la confiance des citoyens envers les algorithmes se développe indépendamment de la performance algorithmique. C'est une façon élégante de dire que les citoyens jugent très sévèrement les algorithmes et qu'ils ne leur accorderont probablement pas leur confiance. Je vais vous donner quelques exemples d'expériences que nous avons utilisées pour mesurer cela. Enfin, l'opposition à l'algorithmique gouvernementale est plus forte chez ceux qui craignent les effets plus étendus de l'automatisation et de l'IA. Le gouvernement ne fonctionne pas de façon isolée des grandes, grosses, super forces qui changent la façon dont notre société s'organise. Et dans la mesure où il existe une opposition plus étendue à l'automatisation et à l'IA, cette opposition plus étendue sous-tend l'opposition des gens à ce que le gouvernement utilise l'automatisation et l'IA.

[La diapositive s'intitule « Quatre difficultés pour obtenir le consentement citoyen ». On lit les points ci-dessous : « Les citoyens appuient différents motifs d'utilisation des algorithmes, mais aucun ensemble de motifs ne s'impose ». « Les citoyens évaluent négativement toute innovation algorithmique par rapport au statu quo ». « La confiance des citoyens envers les algorithmes se développe indépendamment de la performance algorithmique ». « L'opposition à l'algorithmique gouvernementale est plus forte chez ceux qui craignent les effets plus étendus de l'automatisation et de l'IA ».]

Donc, si on souhaite savoir ce que les citoyens pensent de l'algorithmique gouvernementale, nous pensons que la meilleure chose à faire est de leur demander.

Nous souhaitons donc vous présenter les résultats d'études que nous avons menées dans plusieurs pays.

[La diapositive indique « Données issues de sondages en ligne réalisés dans 18 pays entre 2018 et 2020, à partir d'échantillons largement représentatifs ».]

Ces études s'appuient sur des données recueillies dans le cadre de sondages en ligne réalisés sur des échantillons de population largement représentatifs. Les résultats que nous allons vous montrer ne dépendent pas vraiment de l'attente ou d'un quelconque type de statistique – de fortes corrections statistiques. Je veux que vous – c'est une longue façon de dire que je veux que vous me fassiez confiance sur le fait que ces résultats sont représentatifs des populations où nous les avons obtenus. Les données que nous voulons vous présenter proviennent de plusieurs pays : Canada, États-Unis, Australie, Autriche, Belgique (Flandre et Wallonie), Danemark, Finlande, France, Allemagne, Grèce, Italie, Irlande, Pays-Bas, Norvège, Portugal, Espagne, Suède et Royaume-Uni. Et puis nous avons mené une deuxième série d'études au Canada, aux États-Unis et en Australie en 2018. Nos données en provenance d'Europe ont été recueillies au printemps 2020. Nous allons vous présenter les résultats des expériences et des sondages que nous avons réalisés auprès des citoyens pour mesurer leur opinion sur l'algorithmique gouvernementale.

[Une diapositive titre remplit brièvement l'écran et indique « Obstacle 1 : Faible appui »]

Le premier obstacle dont je veux parler et que nous déterminons par ces données est le suivant, à savoir que l'appui à l'algorithmique gouvernementale est faible. L'appui est faible de la manière suivante.

[Ses points principaux apparaissent sur la diapositive pendant qu'il parle]

Les citoyens appuient différents motifs d'utilisation des algorithmes, mais ils ne soutiennent pas fortement un ensemble particulier de motifs. Cela est important parce que, à ma connaissance, en tant que spécialiste de la politique, la politique est souvent une question de raison donnée et d'acceptation de la raison. La politique ne consiste pas à soutenir une politique ou un plan d'action particulier, mais à soutenir les raisons pour lesquelles le gouvernement agit. Si des personnes en particulier ont des raisons de s'opposer à certaines choses, celles-ci ont beaucoup plus de poids que les raisons en faveur de cette chose. Ainsi, plus on peut donner de raisons pour soutenir une politique, plus les raisons sont acceptées, plus la politique sera soutenue. Donc voici ce que nous avons fait dans cette étude, que nous avons administrée dans tous ces pays :

[Une diapositive remplit l'écran, intitulée « Raisons de soutenir l'automatisation ». Les raisons énumérées sont les suivantes : Réduire le temps nécessaire à la prise de décisions. Prendre des décisions qui permettront une meilleure utilisation des fonds publics. Prendre des décisions qui ne sont pas influencées par des facteurs tels que le sexe, l'origine ethnique ou la richesse du bénéficiaire du programme. S'assurer que les décisions ne sont pas influencées par les préjugés des représentants. Réduire la fraude à l'encontre du gouvernement. Prendre des décisions plus cohérentes, moins aléatoires. Réduire le nombre de bureaucrates/de représentants du gouvernement. Réduire les coûts des opérations gouvernementales.

Nous avons présenté aux citoyens les raisons pour lesquelles les gouvernements peuvent utiliser des algorithmes pour prendre des décisions. Après leur avoir décrit la prise de décision algorithmique, nous leur avons présenté ces huit raisons. Et vous pouvez voir qu'il y a différentes raisons ici. On pourrait utiliser des algorithmes pour réduire le temps nécessaire à la prise de décisions, pour réduire la fraude à l'encontre du gouvernement, pour réduire le nombre de bureaucrates ou de représentants du gouvernement, ou pour prendre des décisions plus cohérentes et moins aléatoires.

[Le titre change pour « Aspects d'efficacité/d'équité ». « Efficacité » est en rose, « Équité » en jaune. Certains des points sont en rose, d'autres en jaune. Les points en jaune sont « Prendre des décisions qui ne sont pas influencées par des facteurs tels que le sexe, l'origine ethnique ou la richesse du bénéficiaire du programme. S'assurer que les décisions ne sont pas influencées par les préjugés des représentants. Prendre des décisions plus cohérentes, moins aléatoires. »]

Si vous examinez ces huit raisons, vous verrez qu'elles se décomposent en deux aspects ou qu'elles s'organisent en deux aspects. Il y a un aspect d'efficacité où l'utilisation des algorithmes consiste à prendre de meilleures décisions plus rapidement. Et puis il y a l'aspect de l'équité, qui concerne des choses comme la prise de décisions qui ne sont pas influencées par les préjugés des représentants ou la prise de décisions qui ne sont pas influencées par des facteurs comme le sexe, l'origine ethnique ou la richesse d'un bénéficiaire du programme, afin de prendre des décisions plus cohérentes et moins aléatoires.

[Une diapositive remplit l'écran et montre un diagramme à bandes. Le titre est « Dans quelle mesure les raisons suivantes sont-elles acceptables pour que les gouvernements utilisent des algorithmes et l'IA pour prendre des décisions? » Le sous-titre est « Pourcentage ayant sélectionné "Raison acceptable d'utiliser un algorithme" ». L'axe des x représente tous les points de la liste. L'axe des y représente les pourcentages.]

Ce que nous constatons, et ce sont des données canadiennes, c'est que lorsque nous présentons aux gens ces différentes raisons de soutenir les algorithmes, nous constatons que la majorité des raisons sont soutenues – toutes les raisons sont soutenues par une majorité de citoyens, mais la plupart des citoyens ne soutiennent pas toutes les raisons.

[Un autre diagramme à bandes apparaît, intitulé « Acceptation de la gouvernance algorithmique. Nombre de raisons jugées acceptables ».]

En fait, lorsque nous analysons les résultats, nous constatons qu'environ un quart des citoyens soutiennent toutes les raisons, mais que 10 % ne soutiennent aucune raison. Au total, quelque chose de l'ordre d'un tiers des citoyens, hum, un tiers des citoyens soutiennent moins de la moitié des raisons. Pourquoi les citoyens soutiennent certaines de ces raisons et pas d'autres? La réponse à cela se trouve dans la politique.

[Un tableau deux par deux. Les lignes sont intitulées « N'ont pas accepté la majorité » et « Ont accepté la majorité ». Les colonnes sont intitulées « N'ont pas accepté la majorité » et « Ont accepté la majorité ».]

Voici à quoi ressemble la répartition; si vous examinez ces aspects d'efficacité et d'équité, rappelez-vous que l'efficacité consiste à prendre de meilleures décisions plus rapidement et que l'équité consiste à prendre des décisions qui sont moins biaisées et plus justes. Nous constatons que 60 % des personnes acceptent la majorité des raisons relatives à l'efficacité et la majorité des raisons relatives à l'équité, mais que seulement 10 % ou près de 10 % soutiennent uniquement les raisons relatives à l'efficacité ou uniquement les raisons relatives à l'équité. Et puis il y a un fort pourcentage de 20 % qui n'accepte pas la majorité des deux ensembles de raisons.

[Un autre diagramme à bandes intitulé « Dans quelle mesure les raisons suivantes sont-elles acceptables pour que les gouvernements utilisent des algorithmes et l'IA pour prendre des décisions? »]

Lorsque nous examinons les données en Europe, nous constatons des tendances semblables pour l'ensemble des questions, bien que le soutien pour l'un ou l'autre des éléments soit moins important qu'au Canada.

[Un autre diagramme à bandes intitulé « Acceptation de la gouvernance algorithmique. Nombre de raisons jugées acceptables. »]

Encore une fois, nous obtenons cette répartition semblable où une partie des gens soutiennent toutes les raisons, une part importante ne soutient aucune des huit raisons, et puis il y a une répartition au centre où les gens acceptent certaines des raisons, mais pas d'autres.

[Un tableau apparaît à côté de lui, énumérant diverses données démographiques. Il s'intitule « Tableau 1 : Régressions d'après la MCO du soutien à la gouvernance algorithmique, données de l'EPIS et du Canada combinées]

Si les ensembles de raisons soutenues par les citoyens quant à l'utilisation de l'algorithmique gouvernementale varient, pourquoi est-ce ainsi? Cela a-t-il un rapport avec qui ils sont, leur origine démographique? Ou est-ce que cela a quelque chose à voir avec leur vision du monde? La réponse est que c'est en fait un peu des deux. Si nous examinons les données canadiennes, ce tableau nous montre ce qui suit.

[La diapositive remplit l'écran. Pendant qu'il parle, les lignes du tableau sont surlignées.]

Les personnes âgées sont plus susceptibles d'appuyer l'utilisation d'algorithmes, ce qui peut vous paraître contre-intuitif, mais elles sont peut-être moins conscientes de certains de leurs aspects négatifs. Les femmes soutiennent moins l'utilisation d'algorithmes pour des raisons d'équité ou d'efficacité, et les personnes à faible revenu y sont moins favorables. Je veux que vous réfléchissiez à la fréquence à laquelle les personnes à faible revenu sont régulièrement confrontées aux décisions du gouvernement. L'éducation est positivement liée à l'utilisation, hum, des algorithmes sur l'un ou l'autre des aspects. Ce sont donc des facteurs démographiques. Mais qu'en est-il des facteurs politiques? Ce que je veux souligner ici, c'est que l'élément vraiment important selon moi est le suivant : la mesure dans laquelle les gens ont des opinions populistes, c'est-à-dire des opinions sur la question de savoir si le gouvernement peut ou ne peut pas prendre de bonnes décisions et si nous devrions avoir effectivement des moyens plus autoritaires et moins démocratiques de prendre des décisions, est liée au soutien de l'algorithmique gouvernementale. Les personnes qui ont un niveau élevé ou sous-jacent de populisme sont plus susceptibles de soutenir les raisons d'efficacité pour lesquelles le gouvernement utilise des algorithmes, mais pas plus susceptibles de soutenir les raisons d'équité. Votre vision du monde et votre idéologie, en fait, comptent aussi. Ceux qui se situent plus à droite de l'aspect idéologique sont plus enclins à soutenir les raisons d'efficacité que ceux de gauche, et ils sont plus enclins à soutenir les raisons d'équité que ceux de gauche. C'est un ensemble complexe de raisons que les gens invoquent pour justifier leur soutien ou leur opposition à l'utilisation d'algorithmes par le gouvernement, mais il ne s'agit pas simplement de dire que les gens en savent plus et sont ensuite plus favorables à ces algorithmes.

[Une diapositive titre remplit brièvement l'écran et indique « Obstacle 2 : Un parti pris pour le statu quo ». Au fur et à mesure qu'il parle, ses points sont ajoutés à la diapositive]

Le deuxième obstacle à l'utilisation des algorithmes au gouvernement est profondément ancré dans une caractéristique particulière de la psychologie humaine, à savoir que les humains ont un fort parti pris pour le statu quo. Si vous présentez aux citoyens ou à des hommes l'une des deux politiques, la politique A ou la politique B, et que vous décrivez la politique A comme un statu quo, ils seront plus enclins à la soutenir indépendamment de ses caractéristiques ou de ses mérites. Si, au contraire, vous décrivez la politique B comme un statu quo, ils seront plus enclins à la soutenir. Il s'avère qu'il en va de même avec l'utilisation des algorithmes. Un élément que nous avons étudié dans nos données canadiennes est que nous avons présenté aux répondants un certain nombre d'innovations algorithmiques potentielles. Nous l'avons fait dans trois domaines différents : les décisions en matière d'immigration, les prêts aux petites entreprises et la déclaration d'impôts, c'est-à-dire le fait de savoir si une déclaration d'impôts sera vérifiée ou non. Nous leur avons décrit la façon dont ces décisions sont prises maintenant et avons expliqué qu'à la fin du processus, c'est un humain qui prend une décision. Nous leur avons ensuite présenté un certain nombre d'innovations algorithmiques potentielles. Il est important de noter qu'aucune de ces innovations n'a complètement écarté l'homme. Elles visaient simplement à améliorer la façon dont un humain prenait une décision. Qu'avons-nous constaté? Laissez-moi vous donner un seul exemple.

[Une capture d'écran d'un sondage en ligne remplit brièvement l'écran]

Nous avons constaté que lorsque nous décrivons aux gens la façon dont les décisions en matière d'immigration sont prises, puis lorsque nous décrivons une innovation potentielle qui pourrait être apportée pour améliorer l'utilisation des renseignements dans la sélection des immigrants, nous constatons que les citoyens sont moins favorables à cette innovation.

[Un diagramme à barres verticales remplit l'écran, intitulé « Immigration ». L'axe des y représente le degré de soutien, et l'axe des x indique « Questionnaire sur l'algorithme », « Score plus élevé », « Tirage au sort » et « Aucun ».]

En effet, nous, nous, nous leur avons présenté trois innovations différentes. Dans tous les cas, ils sont moins favorables à l'innovation qu'au statu quo.

[La diapositive passe à un graphique semblable intitulé « Prêts aux petites entreprises », puis à un autre intitulé « Imposition ».]

Il en va de même si nous parlons non seulement de l'immigration, mais aussi des prêts aux petites entreprises, et si nous parlons d'imposition. En résumé, lorsque nous présentons aux gens des innovations algorithmiques potentielles pour améliorer le processus décisionnel des fonctionnaires, dans trois domaines différents, nous constatons dans tous les cas que les citoyens sont moins favorables à ces innovations algorithmiques qu'au statu quo.

[Une diapositive titre remplit brièvement l'écran. On y lit « Obstacle 3 : Établissement d'une réputation ». Pendant qu'il parle, un texte supplémentaire apparaît : « Les humains évaluent les décisions en fonction de la nature de cette décision et de leur perception du décideur » puis « Les humains sont beaucoup moins indulgents envers les décisions algorithmiques ».]

Le troisième obstacle à l'utilisation des algorithmes dans la prise de décision est lié à la réputation. Pensez à ce que fait le gouvernement, il essaie de maintenir sa réputation dans le temps. Et par cela, nous voulons dire qu'il essaie de maintenir la confiance que les gens lui accordent pour prendre de bonnes décisions. La prise de décision humaine présente une caractéristique intéressante : lorsque quelqu'un prend une décision et que nous l'évaluons, nous évaluons non seulement la nature de la décision prise, mais aussi notre perception du décideur. Le décideur essayait-il de faire ce qu'il fallait? Avait-il les bonnes intentions? Si nous croyons qu'un décideur a de bonnes intentions, nous sommes beaucoup plus susceptibles de pardonner une décision qui va dans le mauvais sens. Après tout, les personnes qui prennent les décisions sont des humains. Mais ce que nous voulons vous montrer, c'est que ce n'est pas le cas des algorithmes. Lorsque l'être humain constate qu'un algorithme a pris une décision qu'il n'approuve pas ou qui a eu un mauvais résultat, il punit beaucoup plus l'algorithme et est beaucoup moins susceptible de lui faire confiance à l'avenir que si la décision est prise par un humain. Laissez-nous vous montrer cela au moyen d'un message sur la prise de décision en matière de soins de santé que nous avons donné dans les sondages auprès des citoyens.

[Texte noir sur une diapositive blanche]

Nous avons donné aux citoyens un petit message qui disait ce qui suit, et vous verrez du texte en gras à l'écran. Et... et c'est là qu'on répartit aléatoirement les gens pour qu'ils entendent parler d'un gestionnaire ou d'un algorithme. Laissez-moi vous lire l'algo – le message sous forme d'algorithme. Imaginez un -- un hôpital qui a un algorithme qui assigne les chirurgiens aux patients. Cet algorithme est un ordinateur entraîné à prendre des décisions automatiquement. Un jour, un chirurgien opère un patient dans un état critique lorsque cinq autres patients arrivent à l'hôpital et ont besoin de soins. Si l'algorithme décide de réaffecter le chirurgien, son patient actuel mourra, mais il pourra sauver les cinq nouveaux patients. S'il ne réaffecte pas le chirurgien, le patient actuel vivra, mais les cinq nouveaux patients mourront. Après avoir lu cela, les personnes interrogées ont ensuite lu que l'algorithme décide de réaffecter le chirurgien ou que l'algorithme décide de ne pas réaffecter le chirurgien. Lorsque le chirurgien est réaffecté, nous appelons cela une décision utilitaire parce qu'elle s'intéresse au résultat : sauver cinq personnes ou en sauver une. Lorsque la décision est de ne pas réaffecter le chirurgien, nous appelons cela le choix ontologique, car il s'agit des dommages qui sont réellement causés par le changement d'un comportement.

[La diapositive suivante est intitulée « Résultats qui nous intéressent ». Les points numérotés apparaissent sur la diapositive au fur et à mesure qu'il en parle.]

Trois résultats nous intéressent. Nous voulons savoir si les citoyens sont d'accord ou non avec la décision qui a été prise. Ils se rappellent avoir lu que la décision était prise soit par le gestionnaire, soit par un algorithme. Nous voulons savoir s'ils feraient confiance au décideur pour prendre des décisions semblables à l'avenir. C'est une question de réputation. Et enfin, nous nous intéressons à savoir si la confiance envers le décideur à l'avenir est conditionnelle à l'accord qu'ils ont eu avec la décision prise à ce moment-là. Puisque nous randomisons la décision et le décideur, nous pouvons séparer les effets du décideur, c'est-à-dire, que ce soit -- que ce soit un algorithme ou un humain, de la décision prise, ou nous pouvons les considérer conjointement.

[Un diagramme par points intitulé « Résultats anglo-américains : Accord » apparaît.]

Qu'avons-nous constaté? Nous constatons que lorsque la décision prise est une décision utilitaire, c'est-à-dire qu'il faut sauver les cinq patients contre un, les citoyens sont beaucoup plus susceptibles de soutenir l'algorithme et d'approuver la décision prise. Ce sont les résultats dans les pays anglo-américains. Mais nous constatons que lorsque la décision est un algorithme indépendant de la décision que l'algorithme a prise, les citoyens sont moins susceptibles d'être d'accord avec la décision. Pensez-y un instant. Indépendamment de la décision prise par les citoyens, ils sont moins susceptibles d'être d'accord avec la décision prise par l'algorithme.

[Un graphique semblable apparaît, intitulé « Résultats anglo-américains : La confiance à l'avenir ».]

Lorsque nous demandons aux citoyens s'ils feraient confiance à l'algorithme ou au décideur à l'avenir, nous constatons ce qui suit : le choix qui a été fait, qu'il soit utilitaire ou non sur le moment, n'a aucune importance en ce qui concerne la confiance qu'ils accordent à l'algorithme à l'avenir. Ce qui compte, c'est que le décideur soit un algorithme. Et si le décideur était un algorithme plutôt qu'un humain, ils sont beaucoup moins susceptibles de faire confiance à ce décideur à l'avenir. Pensez à ce que cela implique quelques secondes. Lorsque les citoyens regardent vers l'avenir et se demandent s'ils feraient confiance à une décision importante prise par un algorithme ou par un humain, l'information dont ils disposent sur la décision prise par l'algorithme ou par le gestionnaire sur le moment importe peu. Tout ce qui les intéresse, c'est de savoir qui prend la décision. Et s'il s'agit d'un algorithme, il est beaucoup moins probable qu'ils disent qu'ils feraient confiance à la décision qu'il prendrait à l'avenir.

[Un graphique semblable apparaît, intitulé « Résultats européens : Accord ».]

Enfin, voici des résultats provenant d'Europe, et je vais vous montrer qu'ils sont en grande partie les mêmes. Une fois de plus, dans ces différentes populations, les citoyens sont davantage d'accord avec les décisions lorsqu'elles sont prises de manière utilitaire et ils sont moins favorables lorsqu'elles sont prises par un algorithme, quelle que soit la décision prise.

[Un graphique semblable apparaît, intitulé « Résultats européens : La confiance à l'avenir ».]

En ce qui concerne la confiance future, l'utilitarisme a un peu plus d'importance pour savoir s'ils feront confiance au décideur à l'avenir. Mais, encore une fois, il s'agit de savoir si le décideur était un algorithme ou non. S'il s'agit d'un algorithme, ils ne renouvellent pas la confiance accordée comme ils le font pour une décision prise par un gestionnaire.

[Un graphique semblable apparaît, intitulé « Résultats européens : Confiance future conditionnelle »]

Enfin, nous avons demandé s'ils sont plus susceptibles de soutenir une décision ou de pardonner la décision lorsqu'ils sont d'accord avec la décision prise en premier lieu par le décideur. Encore une fois, nous constatons que même s'ils sont d'accord avec la décision prise en premier lieu par l'algorithme ou le gestionnaire, ils sont moins susceptibles de faire confiance au décideur à l'avenir si la décision a été prise par un algorithme. Ainsi, même parmi les gens qui aimaient la décision prise par l'algorithme ou le gestionnaire sur le moment, ils punissent beaucoup plus l'algorithme ou lui accordent beaucoup moins de confiance à l'avenir.

[Une diapositive de titre remplit brièvement l'écran. On y lit : « Obstacle 4 : Une opposition plus large à l'IAA ». Pendant qu'il parle, ses deux points principaux apparaissent sur la diapositive.]

Bien que nos trois premiers obstacles à l'algorithmique gouvernementale relèvent principalement de la psychologie, le quatrième obstacle est d'ordre politique. Cela concerne le populisme. Nous allons soutenir que le populisme est ce type d'idéologie politique flexible qui cherche des raisons de générer une opposition au gouvernement. C'est entrepreneurial. Et ce qui est important, c'est que nous avons relevé que les corrélats du populisme, du nativisme, ou de la croyance qu'il faut privilégier les gens de son propre pays par rapport aux autres, par peur des pertes économiques, sont corrélés à l'opposition à l'algorithmique gouvernementale.

[Une diapositive remplit brièvement l'écran et montre une photo de Viktor Orban, une caricature politique, un graphique linéaire et la couverture de The Economist montrant Donald Trump avec les mots « Jouer avec la peur »]

La possibilité que ces éléments soient corrélés est plus grande pour les entrepreneurs politiques qui associent l'utilisation des algorithmes à la conviction qu'il ne faut pas faire confiance au gouvernement et les politiciens qui s'opposent à un gouvernement moderne efficace ont le potentiel, selon nous, de rassembler une opposition plus large à l'IA automatisée ou à l'algorithmique gouvernementale.

[La diapositive à côté de lui indique « Une opposition plus large ». Ses mots apparaissent sur la diapositive au fur et à mesure qu'il parle.]

Je vais donc dire ce qui suit. D'abord, il existe une appréhension généralisée des effets de l'automatisation et de l'IA sur la sécurité de l'emploi et la prospérité. Une grande partie des citoyens s'inquiète des effets de l'automatisation et de l'IA sur l'économie au sens large, des effets non seulement pour eux-mêmes, mais surtout pour les personnes qu'ils connaissent, leur famille et leurs amis. Il existe une croyance corrélée selon laquelle l'automatisation et l'IA vont accroître les inégalités et limiter la mobilité sociale.
Ces trois croyances, soit la peur de perdre son emploi ou la croyance en une inégalité accrue et la croyance en une mobilité sociale limitée,

[Une grille de graphiques linéaires sous un certain nombre de noms de pays remplit temporairement l'écran. La diapositive est intitulée « Peur de la perte d'emploi en raison de l'IAA et soutien à l'algorithmique gouvernementale »]

sont corrélées à une plus grande opposition à l'algorithmique gouvernementale. En effet, si nous examinons l'ensemble des pays de notre échantillon, ce que nous constatons, c'est qu'à mesure que la peur de la perte d'emploi due à l'automatisation et à l'IA augmente, le soutien à l'algorithmique gouvernementale diminue. Dans tous les cas, nous constatons que les personnes qui sont plus inquiètes des effets plus larges de l'automatisation et de l'intelligence artificielle s'opposent davantage à l'utilisation des algorithmes par le gouvernement.

[Ses mots apparaissent sur la diapositive au fur et à mesure qu'il parle.]

Voici ce qu'il faut retenir. D'abord, il n'y a pas de justification unique publiquement acceptable pour l'utilisation d'algorithmes par les gouvernements. Les gouvernements doivent composer avec le fait que les citoyens ont différentes séries de raisons pour lesquelles ils pensent qu'il serait acceptable que le gouvernement automatise la prise de décision. Deuxièmement, les citoyens ont un fort parti pris – un parti pris de statu quo contre l'utilisation des algorithmes. Troisièmement, les citoyens sanctionnent les algorithmes avec plus d'indifférence qu'ils ne le font pour les décideurs humains. Tout le travail que nous avons fait pour établir la confiance dans le fait que le gouvernement peut faire ce qu'il faut quand les choses se gâtent doit être établi de manière différente si nous utilisons des algorithmes. Enfin, l'opposition à l'algo – l'algorithmique gouvernementale peut se développer avec cette opposition sociétale plus large à l'automatisation et à l'intelligence artificielle.

Il existe de nombreuses difficultés à l'utilisation des algorithmes au sein du gouvernement. Il y a les difficultés relatives à la supervision, à la relation mandant-mandataire, à la mise en œuvre, à la capacité d'expliquer. Mais au cœur de toutes ces questions, et plus important encore, je pense que toute autre question est celle de savoir si les citoyens accepteront simplement que le gouvernement écarte les humains de la prise de décision et y introduise des algorithmes dans le but d'être plus efficace, plus juste, quelles que soient les justifications que vous souhaitez utiliser. Ce sont les barrières au consentement citoyen qui se dressent aujourd'hui entre nous et une utilisation beaucoup plus importante des algorithmes et de l'intelligence artificielle par le gouvernement à l'avenir. Merci.

[Il disparaît en fondu. Un carton titre violet avec une étoile rayonnante indique « Série L'intelligence artificielle est à nos portes », Erica réapparaît, remplissant l'écran. Elle est rapidement rejointe par deux autres participants.]

Bienvenue à tous encore une fois. J'espère que vous avez aimé la présentation. J'ai hâte de décortiquer certains des concepts et des idées abordés dans la vidéo avec nos panélistes experts aujourd'hui. Tout d'abord, nous avons avec nous Peter Loewen, que vous venez de voir dans la vidéo. Peter, merci d'être... merci beaucoup d'être à nouveau avec nous aujourd'hui et pour cette incroyable présentation. Je vais vous permettre de vous présenter en personne. Peter.

[Peter parle, remplissant le cadre. Peu après, un carton apparaît, indiquant « Peter Loewen. Université de Toronto ».

Bonjour. Je m'appelle Peter Loewen, je suis le directeur de l'École Munk des affaires internationales et des politiques publiques. Euh, et je suis, euh, l'un des directeurs associés de l'Institut Schwartz Reisman et je suis vraiment heureux d'être, euh, engagé avec la grande fonction publique du Canada sur ces questions.

Merci, Peter. Notre deuxième panéliste est une autre chercheuse talentueuse de l'Université de Toronto, Wendy Wong. Wendy?

Bonjour à tous. Je vous remercie de m'avoir invitée. Comme Erica m'a probablement présentée plus tôt, je suis professeure de sciences politiques et titulaire de la Chaire de recherche du Canada sur la gouvernance mondiale et la société civile. Je suis également chercheuse principale à l'Institut Schwartz Reisman et j'ai un intérêt particulier pour les relations internationales.

Merci, Wendy, pour cette présentation et merci de vous joindre à notre conversation aujourd'hui. J'ai vraiment hâte de me plonger dans notre clavardage animé au cours des 20 à 30 prochaines minutes, puis de poser des questions par la suite. Avant de plonger dans le vif du sujet, cependant, je voudrais juste profiter de l'occasion pour rappeler à notre auditoire que nous allons vous accorder du temps plus tard, alors s'il vous plaît continuez à soumettre vos questions tout au long de cette discussion en cliquant sur le bouton « Lever la main » dans le coin supérieur de votre écran. Si votre question s'adresse à Peter ou à Wendy en particulier, veuillez l'indiquer dans votre question afin que nous puissions nous assurer d'y répondre de manière appropriée. Wendy, nous avons déjà entendu Peter au cours de la dernière demi-heure dans cette vidéo, donc j'aimerais commencer par obtenir vos impressions générales sur la conférence de Peter que nous venons de voir. L'IA est un sujet qui comporte de multiples facettes. Êtes-vous généralement d'accord avec ce que Peter a dit ou avez-vous une opinion différente que vous aimeriez ajouter?

[Wendy parle et occupe tout l'écran. Peu de temps après, une bande s'affiche où on peut lire : « Wendy H. Wong. Université de Toronto et Chaire de recherche du Canada ».]

Oui, j'ai trouvé que dans sa présentation, Peter a bien réussi à soulever plusieurs des points liés aux questions de gouvernance auxquelles beaucoup d'entre nous, en sciences politiques, réfléchissent. Ce que j'aimerais ajouter est en quelque sorte lié aux droits internationaux de la personne et à la gouvernance dans son ensemble. Lorsque nous pensons à l'algorithmique gouvernementale ou à un gouvernement qui s'appuie sur l'intelligence artificielle (IA), nous avons tendance à penser qu'il pourrait s'agir de solutions pour les imperfections humaines, les erreurs humaines et la prise de décisions. Par contre, j'aimerais souligner que, compte tenu du fait que les humains sont imparfaits, nos algorithmes seront eux aussi imparfaits. L'automatisation des décisions gouvernementales est une chose, et je pense que c'est important, mais nous devons également déterminer si nous utilisons des technologies liées ou non liées à l'IA. Je pense que cela aura une incidence sur la façon dont nous évaluerons l'importance et la pertinence de ces technologies à l'avenir au sein du gouvernement. Donc, dans le contexte de l'automatisation, s'il s'agit de technologies non liées à l'IA, je pense que plusieurs des outils que nous avons (p. ex. mettre l'accent sur la transparence et la reddition de comptes) fonctionnent assez bien. Cependant, en ce qui concerne l'IA ou l'apprentissage automatique au sein du gouvernement, je pense que nous devons réfléchir au type de règles que nous voulons dans un système où nous devons en quelque sorte prévoir la façon selon laquelle l'ordinateur ou l'algorithme va interpréter nos commandements. Dans le cas des technologies liées à l'IA, les erreurs ne sont souvent révélées qu'après-coup. Par conséquent, dans le cas des décisions gouvernementales, les enjeux peuvent être considérables, puisque de petites erreurs peuvent avoir des répercussions sur un grand nombre de personnes. Ce n'est pas la même chose que dans le secteur des technologies, où nous constatons parfois que des photos sont mal étiquetées, ce qui est en quelque sorte une « drôle » d'erreur faite par l'IA. À mon avis, dans le cas des décisions gouvernementales, nous voulons tenir compte de l'incidence sur la vie des gens. Je veux également ajouter qu'il se peut que l'objectif de transparence ne soit pas aussi facile à atteindre dans le contexte de l'IA, compte tenu de la nature des algorithmes et de l'IA. Parfois, il n'est pas possible de les expliquer avec précision, puisque les commandements ne sont pas aussi directs. Nous voulons que la machine tire des apprentissages des données, mais nous ne savons pas toujours de quelle façon la machine tire des apprentissages. L'autre point que je veux souligner est que les humains ont des préjugés face à l'automatisation, et que si une machine nous dit quelque chose, nous avons tendance à trop nous appuyer sur ces types de réponses. Par conséquent, nous devons déterminer si les machines sont meilleures que nous pour prendre des décisions ou si nous allons finir par reproduire certaines des erreurs humaines à une échelle beaucoup plus grande dans le contexte de l'algorithmique gouvernementale.

Merci, Wendy. Peter, je me tourne maintenant vers vous, et je pense que Wendy a fait une bonne transition vers ma prochaine question. Dans la vidéo, Peter, vous expliquez quelles sont les différences entre l'utilisation de l'IA automatisée dans un cadre gouvernemental et dans des domaines non gouvernementaux. Pourquoi est-il important de souligner ces différences? Par exemple, qu'est-ce qui rend l'utilisation de l'IA dans un cadre gouvernemental si unique?

Je pense qu'il s'agit d'une distinction très importante. Il y a beaucoup de cas où ces choses-là vont se chevaucher d'une manière dont on ne se soucie pas. Supposons que vous voulez automatiser le paiement de factures ou réaliser une autre tâche administrative semblable. Qui se soucie de savoir si c'est un agent du gouvernement ou du secteur privé? Votre objectif, c'est de faire des gains d'efficacité. Il pourrait aussi s'agir de l'achèvement de vos messages dans les courriels à l'intention de vos clients. Cela n'a pas d'importance. Cependant, il y a des situations où c'est important pour le gouvernement, et ce, pour diverses raisons. La première est la suivante : au cœur du gouvernement, je pense qu'il y a en quelque sorte une obligation de fournir des explications ou des justifications. Cela se reflète dans beaucoup de choses, mais l'idée de base est l'intuition que les citoyens doivent savoir ce que fait le gouvernement, ce qu'il a fait et pourquoi il a agi de telle ou telle façon. Nous n'avons pas les mêmes attentes à l'égard des entreprises, ou du moins nos attentes à leur égard ne sont pas aussi importantes sur le plan moral. Par exemple, la raison pour laquelle les représentants de General Motors me recommandent une voiture plutôt qu'une autre leur appartient. C'est à eux de savoir pourquoi ils font ce qu'ils font, et il se peut même que je n'aie pas le droit de comprendre la raison de leur recommandation. Si je demande de l'aide à un organisme gouvernemental et que l'employé ou le programme avec lequel je traite a un certain pouvoir discrétionnaire en ce qui concerne le programme de soutien auquel je peux avoir accès, je pourrais avoir l'impression que j'ai le droit de comprendre pourquoi j'ai été placé dans un programme plutôt que dans un autre. De manière plus générale, comme vous le savez, nous avons des modèles de reddition de comptes, parce que nous voulons comprendre comment les décisions sont prises au sein de la fonction publique, puis mises en œuvre par les fonctionnaires ou les politiciens. Plus nous automatisons les décisions et, en particulier, plus nous les automatisons d'une manière qui nous empêche de voir comment elles sont prises (et il s'agit là d'un des éléments qui différencient l'IA des autres séries ou systèmes d'algorithmes de prise de décisions), même à son plus haut niveau de rendement, l'IA va souvent délibérer en dehors des règles que vous avez établies. L'IA va tirer des apprentissages de ce qu'elle a vu auparavant, puis rendre des décisions qui sont en dehors de ça. Cela peut entraîner une certaine opacité et une certaine incertitude concernant ce qui s'est passé, ce qui va à l'encontre de notre notion selon laquelle nous devrions comprendre pourquoi et où les choses ont été faites. Donc, c'est une raison : le besoin général de justifications au sein du gouvernement. Il y a aussi un élément plus vaste qui, en réalité, est l'élément humain, et je le vois de la manière suivante. Nous avons certaines intuitions morales, non seulement parce que nous voulons savoir pourquoi certaines choses ont été faites, mais aussi parce que nous avons une certaine intuition morale concernant la facturation et le fait qu'elle soit traitée par un humain. Il y a quelque chose de particulier dans le fait de présenter un cas ou une chose à une personne pour qu'elle l'examine. Nous semblons penser qu'une décision est plus importante sur le plan moral ou plus légitime lorsqu'elle est prise par un humain plutôt que par une simple règle. Cela va un peu à l'encontre de ce qu'a dit Wendy, à savoir que dans certains cas, nous pourrions faire plus confiance aux machines, et c'est peut-être le cas. Il y a certaines situations où c'est le cas, mais je pense surtout aux cas où nous nous attendons à être entendus par le gouvernement, par exemple si vous êtes une personne qui interjette appel d'un cas d'assurance-emploi, qui demande un prêt au gouvernement ou qui possède une entreprise qui a exercé des pressions pour qu'une règle change, ou quelque chose du genre; vous avez l'attente raisonnable qu'un humain s'occupe de votre cas. L'IA peut exclure les humains et les tenir à l'écart. Je pense toutefois que rien de tout cela n'est absolu, et c'est ce qui rend les choses difficiles. Il y a beaucoup de zones grises; les humains ont certaines attentes à l'égard de leurs interactions avec le gouvernement qu'ils n'ont peut-être pas à l'égard de leurs interactions avec les organisations du secteur privé, par exemple. Comprendre où ce non-chevauchement se situe est la clé pour comprendre où et quand il est possible d'utiliser l'IA au gouvernement.

Absolument. Vous avez soulevé de très bons points, Peter. J'ai une autre question, et je vais vous la poser à tous les deux. Nous pourrions d'abord écouter la réponse de Wendy, puis celle de Peter. Compte tenu de ce que vous venez tous deux de dire à propos du fait qu'il faut déterminer quand il est judicieux de remplacer un décideur humain par une machine au sein du gouvernement, de qui et de quoi faudrait-il tenir compte au moment de prendre une telle décision? À votre avis, qui devrait prendre cette décision? Qui est responsable de déterminer s'il s'agit d'un processus automatisé ou d'un algorithme de prise de décisions? En ce qui concerne les responsabilités, quel niveau et quelles conditions sont nécessaires? Wendy, nous allons commencer par vous.

OK, c'est une question difficile. Comme Peter vient tout juste de le dire, il y a beaucoup de bonnes réponses.

Une bonne réponse.

OK, donc, je vais tenter de répondre, et peut-être que Peter pourra ajouter des points importants que j'aurai oubliés. Donc, comme vous le savez, dans un système démocratique, nos attentes ne sont pas les mêmes que dans un système non démocratique. J'aimerais souligner le fait que, selon ce que j'ai retenu de la présentation de Peter, il faut tenir compte de la commodité, de la rapidité et de l'efficacité de plusieurs de ces possibilités d'algorithmique gouvernementale. Comme vous le savez, c'est très important, mais j'aimerais aussi souligner que nous devons concilier cela avec nos préoccupations, ici, au Canada, en ce qui a trait à la justice, à l'équité et à notre autonomie en tant que citoyens individuels. Je pense que nous devons également tenir compte de l'exactitude de ces technologies lorsque nous pensons à les utiliser à des fins gouvernementales. On parle beaucoup, par exemple, du fait que les technologies de reconnaissance faciale ne sont pas assez précises et qu'elles sont très biaisées à l'égard de certaines personnes racialisées et de certaines personnes qui s'identifient comme appartenant à des minorités sexuelles. À mon avis, il s'agit d'éléments qui doivent être corrigés, et tant que nous n'aurons pas fait cela, nous ne pourrons pas appliquer avec certitude ces types de technologies. Je tiens aussi à souligner qu'il ne s'agit pas d'un simple ensemble de décisions. Je pense que c'est une série de décisions. Pensons à la différence entre certains des éléments de la recherche de Peter, notamment quand il mentionne que les gens se méfient de la prise de décisions automatisée, et ce que j'ai souligné plus tôt comme étant des biais de l'automatisation. Je pense qu'il y a une tension là, et je pense que c'est en partie dû au fait que les gens ne savent tout simplement pas quoi faire de cela, parce que tout au long de notre histoire en tant qu'espèce, nous avons seulement interagi les uns avec les autres. Alors, pour ce qui est de savoir ce qui se passe lorsque l'on confie des décisions importantes à propos du bien-être social et individuel à des machines que nous avons créées, je pense que c'est une question ouverte. Je pense aussi qu'il faudrait une série de discussions à l'échelle fédérale, mais aussi à une échelle plus locale, p. ex. aux échelles provinciale et locale), pour que les gens se fassent une idée de ces technologies et comprennent vraiment ce qu'elles peuvent faire et ce qu'elles ne peuvent pas faire.

Oui, je pense que c'est une très bonne question, et je suis très content que vous me la posiez. J'ai examiné ça selon différentes perspectives. Comme Wendy l'a dit, lorsqu'on utilise l'IA pour interagir avec les citoyens, il est très important de penser à toutes les préoccupations que nous avons quant à la partialité, à l'exactitude, à l'équité et aux justifications, mais je vais aborder cette question d'une autre façon. Pensons à utiliser l'IA pour améliorer la prise de décisions au sein du gouvernement. Supposons que vous devez prendre une décision relative à une affectation de fonds. Vous avez une somme d'argent limitée et vous essayez de la répartir entre les différentes petites entreprises qui ont demandé du financement. J'utilise toujours cet exemple, mais vous l'appliquez aux petites entreprises qui ont présenté une demande de prêt, parce que c'est un domaine dans lequel nous utilisons déjà des algorithmes, dans une certaine mesure. Vous devez donc examiner plusieurs cas afin de formuler une recommandation. L'une des choses que les services publics font déjà très, très bien, c'est qu'ils ont des processus décisionnels très transparents et structurés en place. Comme vous le savez, lorsque vous envisagez de prendre une décision, une partie du travail est faite par un analyste. Cette décision et ces données passent ensuite à l'échelon supérieur, et quelqu'un peut formuler une recommandation à partir de là. Éventuellement, cela se rend à un sous-ministre qui présente, comme vous l'avez probablement deviné, trois options au ministre qui devra prendre une décision à ce sujet. À chacune de ces étapes, vous pourriez avoir recours à une certaine forme d'IA, si c'était applicable, et vous pourriez comprendre où cela s'intègre dans ce processus décisionnel, parce que le reste de la chaîne de décision, si vous voulez, est déjà si bien compris ou articulé. Je pense donc que c'est un domaine où il y a un véritable avantage lié à l'utilisation d'algorithmes par les gouvernements. Il existe déjà de nombreuses pratiques de prise de décisions collectives auxquelles la reddition de comptes, la transparence et la traçabilité ont été intégrées d'une manière qui n'existe peut-être pas dans le monde des affaires. Puis, l'autre chose que vous avez, c'est une sorte de contrôle vraiment important, parce qu'à un certain moment dans un processus décisionnel gouvernemental, il y a toujours un humain qui doit intervenir. Il peut s'agir du sous-ministre ou du ministre au-dessus de lui, mais il y a toujours quelqu'un de responsable, non seulement de la décision qui a été prise, mais aussi du processus par lequel la décision a été prise. Tout cela pour dire que les gouvernements ont déjà mis en place l'architecture et les pratiques permettant de contrôler l'IA d'une manière que les entreprises qui sont bâties à partir de rien puis détruites sans cesse ne possèdent pas nécessairement.

Peter, ce que vous dites me fait penser à ma propre expérience; j'ai travaillé pendant 15 ans dans le domaine de l'exécution des programmes au sein du gouvernement, et je peux sans aucun doute confirmer qu'un grand nombre de décisions sont si bien documentées que n'importe qui, à n'importe quel échelon, pourrait prendre la même décision. Je suis d'accord avec vous quand vous dites que l'objectif est l'équité et la transparence. Je pense que vous avez soulevé un point très intéressant, quand vous avez évoqué cette image, parce qu'elle me rend plus à l'aise. Par contre, il y a toutes sortes d'éléments de l'IA par rapport auxquels les gens ne sont pas à l'aise. Wendy, vous avez fait référence plus tôt au fait que les logiciels de reconnaissance faciale contiennent un bon nombre de biais qui peuvent être importants dans certains cas. Donc, Wendy, ma prochaine question, c'est à vous que je vais la poser. Si nous décidons d'utiliser des algorithmes pour faciliter notre prise de décisions, quelles sont les mesures que nous devrions prendre, en tant que gouvernement, pour accroître la transparence à l'égard des décisions et nous assurer que ces méthodes et ces « calculs » sont communiqués au public? J'aimerais juste souligner le fait que, selon toute vraisemblance, les décisions qui sont actuellement prises par des humains, ou plutôt la façon dont ces décisions sont prises, ne sont probablement pas communiquées au public.

C'est amusant, parce que oui, c'est exactement ça, et je pense que nous devons réfléchir au fait que nous supposons, dans bien des cas, que si une personne est concernée et intervient, le processus devient plus transparent. Par contre, dans les faits, nous savons que les humains ont souvent des processus décisionnels très opaques et qu'ils ne peuvent pas toujours vous donner la raison exacte de leurs décisions. Je pense donc qu'il est très important que toutes les politiques et les décisions futures concernant la façon dont les gouvernements vont réglementer les gens ou utiliser l'IA à des fins de réglementation à l'avenir soient axées sur des choses comme la Charte canadienne des droits et libertés, et que nous tenions compte du cadre mondial plus large des droits de la personne que le Canada s'est engagé à respecter, en plus d'essayer, de façon générale, de défendre ces droits à l'échelle internationale. Je pense aussi que toute forme d'IA utilisée par le gouvernement devrait être évaluée, non seulement pour déterminer les avantages potentiels, mais aussi pour cerner les violations potentielles des droits de la personne. Je pense que c'est vraiment difficile pour nous de penser à ça, si nous ne nous centralisons pas certaines des préoccupations, et pas seulement celles dont on parle beaucoup dans les médias, comme la vie privée ou la liberté d'expression. Je pense que ces préoccupations-là sont les plus évidentes. Je pense que nous devons commencer à réfléchir aux autres droits qui pourraient également être violés ou du moins touchés par l'utilisation de l'IA, par exemple les droits à l'égalité devant la loi et l'accès à l'aide sociale, et je dis ça parce que c'est déjà difficile. Dans certains cas, l'IA a été utilisée pour prendre des décisions concernant l'accès à l'aide sociale, par exemple aux Pays-Bas, où des erreurs ont récemment été commises à grande échelle et où des milliers ou des dizaines de milliers de personnes ont été touchées et pénalisées avant que les erreurs attribuables à l'IA soient corrigées. Comme il est question d'une incidence sur la vie des gens, nous devons y réfléchir du point de vue de la réglementation. En revanche, l'une des choses sur lesquelles j'ai vraiment insisté dans le cadre de mon travail est la connaissance insuffisante des données, et je dis cela pour presque tout le monde. Toute personne qui n'est pas un technologue ou un développeur de logiciels dont le travail porte sur l'IA va avoir du mal à bien connaître les données. Ce que je veux dire par là, c'est simplement : comprendre la base. Quel type de données sont recueillies? Comment ces données sont-elles utilisées? Quelles sont les répercussions pour les gouvernements qui possèdent nos données ou des données sur nous? Qu'est-ce que cela signifie pour nous à l'avenir? Je pense que si les gens ont le droit de connaître les données de la même manière que nous avons le droit de connaître les langues et les chiffres, nous pourrons commencer à avoir des débats plus informés. Je pense aussi que cela donnerait à plus de gens l'occasion de réfléchir à certaines des questions que nous abordons ici et à la manière d'exiger des gouvernements qu'ils nous rendent des comptes, y compris les conditions dans lesquelles les gouvernements devraient rendre leurs processus décisionnels plus transparents, si nous voulons aller de l'avant avec plus de processus décisionnels algorithmiques automatisés.

J'ai une question complémentaire pour vous, Wendy. Peter, libre à vous d'intervenir par la suite.

Vous avez soulevé de très bons points à propos des choses que nous devrions prendre en compte au moment de mettre en œuvre l'IA. Sachant que les efforts visant à réglementer l'IA en sont encore à leurs débuts, existe-t-il un conflit d'intérêts ou une perception de conflit d'intérêts, si les gouvernements commencent à utiliser les algorithmes avant que tous ces éléments de réglementation soient « coulés dans le béton »?

Je ne sais pas s'il s'agit d'un conflit d'intérêts. Je pense plutôt que nous risquons de créer des problèmes qui pourraient peut-être être évités. Je sais qu'il est parfois difficile de prévoir ce qui pourrait arriver si on fait telle ou telle chose, et donc parfois, on fait ça dans le processus de gouvernance; il faut faire des erreurs. D'un autre côté, je pense qu'à l'heure actuelle, nous en sommes à un point où un grand nombre de technologies sont disponibles, et certaines d'entre elles pourraient être utiles, notamment pour compléter les mesures incitatives et les besoins du gouvernement, mais nous ne savons pas exactement comment nous voulons que cela fonctionne. Comme vous le savez, nous avons ces technologies. Alors, ce qu'il faut déterminer, c'est : qu'est-ce qui est approprié? Quels sont les endroits où il est approprié qu'un algorithme basé sur l'apprentissage automatique traite les énormes quantités de données que nous avons sur les citoyens afin d'aider les gouvernements à prendre des décisions? Dans quelles circonstances cela n'est-il pas approprié? Quelles sont les mesures de protection et les barrières de sécurité que nous devons mettre en place? Je pense que cela nous ramène encore à ça : nous devons tenir compte des droits que nous avons déjà au moment de décider comment créer des politiques relatives à ces technologies, y compris celles que nous avons, celles qui sont en cours de développement et celles que nous n'avons pas encore.

Merci, Wendy. Peter?

Oui, comme Wendy l'a tout de suite remarqué, je pense que l'un des défis, ici, c'est que les citoyens n'ont pas une vision unique de la façon dont le gouvernement devrait faire les choses ni une vision unique de ce qu'est le « marchandage » pour tout. Laissez-moi vous donner un exemple. Une personne vit dans un quartier avec des enfants. Je pense qu'il y a beaucoup trop de vitesse au Canada. Les gens conduisent trop vite, tout le temps, et conformément au modèle d'application de la loi que nous avons mis en place pour les excès de vitesse, un faible taux d'amendes élevées sont infligées. Par exemple, si parmi les 5 000 voitures qui roulent à 140 km/h sur la 401, vous vous faites arrêter, on pourrait vous infliger une amende de 300 $, alors que tous les autres conducteurs poursuivraient leur chemin sans problème. Supposons maintenant qu'on adopte une autre approche : une petite amende est infligée à chaque personne qui dépasse la limite de vitesse. De cette façon, nous obtenons un taux élevé de petites amendes, et nous sommes actuellement dans le genre de monde où nous pourrions faire ça assez facilement. Nous avons toutes sortes de technologies de reconnaissance pour les plaques d'immatriculation. Nous savons à quelle vitesse les gens vont d'un point à un autre. Nous pourrions avoir un système de recherche en temps réel pour gérer les gens, mais cela pourrait en offusquer plus d'un; pas leur impression que la loi ne s'applique pas à eux en général, mais leur impression que la loi ne s'applique pas dans cette circonstance et qu'il y a un certain « marchandage » dans la façon dont les gens traitent avec le gouvernement dans ce cas. Les gens n'ont pas le même point de vue sur l'anarchie dans le contexte d'autres services gouvernementaux. Le point de vue des gens n'est pas que tout le monde devrait pouvoir tricher quand il est question du soutien au revenu fourni par le gouvernement, et qu'une personne sur mille devrait se faire prendre et faire de la prison pour ça. Le point de vue des gens est qu'il ne faut pas tricher quand il est question de la Prestation canadienne d'urgence (PCU) s'il n'est pas permis de le faire. Il y a différents marchandages pour différents types de politiques gouvernementales. Qui sait comment cela évolue? Donc, une partie du défi est que, lorsque vous commencez à entrer dans un véritable processus axé sur les données, où il est question d'une politique ou d'un programme gouvernemental répété à haute fréquence qui se prêterait bien à l'automatisation, vous devez déterminer quel est le point de vue des citoyens sur cette interaction particulière avec le gouvernement. Quel type de justifications souhaitent-ils obtenir? Quel type de règles souhaitent-ils voir mises en œuvre? Cela nous ramène aux données sur les citoyens. Supposons que vous allez chercher votre carte santé. Personne ne s'opposerait à ce que le gouvernement puise dans la base de données sur les permis de conduire pour obtenir de l'information sur votre adresse, n'est-ce pas? C'est quelque chose qui semble raisonnable dans une telle situation, mais les gens pourraient s'opposer à ce que le gouvernement tente d'obtenir un autre type de données, qui pourrait, par exemple, relier vos données de santé, ou plutôt vos informations de santé. Ce qui rend les choses plus complexes, c'est que nous avons de la difficulté à discuter des règles particulières ou générales qui s'appliqueront dans toutes les circonstances; ce dont nous parlons réellement, c'est de nos particularités. Je pense que ce qui rend les choses trois fois plus difficiles pour les personnes qui nous écoutent et qui sont chargées de mettre en œuvre les pratiques gouvernementales, c'est qu'il n'y a pas toujours une grande probabilité qu'un programme soit dénoncé ou fasse l'objet d'un audit par le vérificateur général, mais il y a toujours une petite probabilité. Qui veut être la personne qui s'est prononcée, qui a vraiment essayé quelque chose, mais qui risque ensuite d'attirer l'attention du public? Surtout advenant le cas où cela n'avait pas réellement à voir avec les principes fondamentaux de la façon dont la chose a été faite, ou si la chose était conforme à la loi et que cela a en quelque sorte offensé les sensibilités du public. C'est en quelque sorte une façon de dire que tout cela est très politique, ce qui fait en sorte qu'il est beaucoup plus difficile de déterminer comment appliquer des règles générales à toutes ces spécificités.

Absolument, et au sein du gouvernement, nous appelons ça le test du Globe and Mail. De quoi ça aurait l'air si...

Oui, oui.

Oui, c'est un test très raisonnable, parce qu'il tient réellement compte de ce qui vous intéresse. Le but n'est pas de déterminer si nous agissons conformément à la loi, mais de déterminer si nous agissons conformément à la loi et aux attentes raisonnables, mais en fait assez complexes ou contingentes, que les gens ont à l'égard de ce que nous pourrions faire en tant que gouvernement.

Absolument. Donc, Peter, je pense que vous nous avez amenés au cœur du sujet ici, et je vais vous poser ma prochaine question à vous, Wendy. Qu'est-ce que le consentement citoyen? Comment pouvons-nous le mesurer? Peut-il être implicite? Devrait-il être explicite? Je sais que je vous ai posé tout un tas de questions, mais pouvez-vous nous donner quelques notions de base sur le consentement des citoyens?

Oui, je peux parler de la question du consentement en général, parce que ce n'est pas un petit sujet, comme vous le savez. Lorsque nous pensons au consentement dans le contexte de l'algorithmique gouvernementale, nous parlons de deux questions. Premièrement, qu'est-ce que le consentement? Deuxièmement, comment obtenir ce consentement, une fois qu'on a déterminé ce que c'est? Dans le cadre de mon travail, je réfléchis beaucoup à la signification du consentement dans le contexte plus large de la démocratie à l'ère numérique. Comme Peter l'a dit dans sa présentation, le consentement est un travail important pour nous, pour la démocratie et pour les droits de la personne. Dans sa conférence, il a eu raison de souligner que le consentement est en quelque sorte la « sauce secrète » qui fait en sorte que les démocraties fonctionnent. Cela leur donne une légitimité, et cela leur donne aussi, en quelque sorte, les mesures de reddition de comptes sur les procédures qui peuvent être prises. Dans bien des cas, nous considérons cela comme un consentement implicite : vous êtes un citoyen de ce pays et vous acceptez, de manière générale, les règles qui régissent ce pays. Par contre, dans le contexte numérique, étant donné que nous passons d'un monde analogique à un monde numérique, ou plutôt complètement numérique, je pense que le consentement doit être beaucoup plus explicite. Je dirais même qu'il doit être significatif, clair et informé. Donc, en tenant compte de tout ça, qu'est-ce qui compte comme un consentement? Qu'est-ce qui fait en sorte qu'il soit significatif? Pensons aux modèles du secteur privé. À présent, nous pouvons cliquer pour accepter de longues listes de modalités ou pour accepter des témoins, et nous ne réfléchissons pas avant de procéder, parce que nous n'avons pas le temps ou les compétences requises pour comprendre le sens juridique de ces termes. Alors, s'agit-il d'un consentement significatif? Je suis convaincue qu'à des fins gouvernementales, ce n'est pas significatif, et je ne pense pas que ce soit approprié. C'est pourquoi nous devons réfléchir à ce que cela signifie, lorsqu'une personne donne son consentement. Pour en revenir à mon point sur la connaissance des données, je pense qu'un autre élément important est que le consentement doit être clair; les gens doivent savoir à quoi ils consentent et quels sont les avantages et les inconvénients d'un tel consentement. Quels sont les avantages d'un gouvernement fondé, du moins en partie, sur des algorithmes? Quels sont les pièges potentiels? Nous avons également besoin que le consentement soit éclairé. C'est l'idée que les gens doivent savoir ce à quoi ils consentent, en plus d'avoir au moins une compréhension générale de la façon dont les gouvernements vont utiliser ces technologies. Il s'agit en quelque sorte du cadre général que j'utiliserais pour réfléchir à ce qu'est le consentement. À partir de là, comment peut-on s'y prendre pour l'obtenir? Je pense que dans sa recherche, Peter a bien cerné les défis liés à l'obtention du consentement, parce que les gens ont toutes sortes d'idées quant aux raisons pour lesquelles ils sont ou ne sont pas en accord avec l'utilisation d'algorithmes par le gouvernement. Je pense que ce qui est important, dans une démocratie, c'est que dans bien des cas, une majorité simple ou une forte majorité peut être appropriée. Par contre, dans ce contexte-ci, je pense que nous devons réellement réfléchir à l'incidence de l'automatisation sur les différentes populations de ce pays. Nous devons nous demander : si nous automatisons certains secteurs du gouvernement, qu'arrivera-t-il aux groupes, aux groupes minoritaires, et aux groupes qui sont en quelque sorte sceptiques à cet égard ou qui s'opposent à ce genre d'activité? Nous ne pouvons pas simplement dire : oh, c'est juste une minorité de personnes qui sont contre ça. Même en pensant à seulement 10 % de la population, il s'agit d'un bon nombre de personnes qui pourraient être sceptiques ou mal à l'aise face à l'utilisation de l'IA par le gouvernement. Il faut également penser au fait que plusieurs des effets négatifs potentiels de l'automatisation pourraient avoir une incidence sur les personnes qui risquent déjà de subir des préjudices par l'entremise de l'algorithmique gouvernementale ou celles qui risquent déjà de voir leurs droits violés et qui sont peut-être moins en mesure de s'opposer aux décisions prises par le gouvernement en ce qui concerne la façon dont les algorithmes seront utilisés. Je pense que c'est une chose à laquelle nous devons réfléchir sérieusement, à savoir : qui sont les personnes qui pourraient accepter cela et quelle est leur position au sein de notre société? Quelles sont les personnes qui pourraient ne pas vouloir que cela se produise? Encore là, il faut déterminer quelle est la raison, et je pense que c'est lié au travail que Peter fait. C'est important de comprendre ça. S'il s'agit d'une multitude de raisons, nous devons (ou plutôt le gouvernement doit) traiter chacune d'entre elles séparément. Il n'y a pas qu'une seule [gloussement] explication qui va fonctionner. N'est-ce pas?

Peter, qu'en pensez-vous?

J'ai beaucoup de choses à dire à ce sujet. Laissez-moi vous parler de trois intuitions. Revenons en arrière, juste un peu. Je pense que tout ce que Wendy a dit est excellent. Ce que j'ajouterais, c'est qu'il faut se demander : pourquoi le test du Globe and Mail existe-t-il? Le gouvernement n'est-il pas censé agir dans le respect de la loi? Le test est là, parce que ce que vous faites n'a pas plus d'importance que la façon dont vous le faites, dans un certain sens, ou la façon dont vous faites les choses a autant d'importance que les choses que vous faites. Beaucoup de ces choses concernent le processus et la manière selon laquelle le gouvernement en arrive à une décision, mais c'est ce qui rend tout ça très difficile. Parce que la plupart de ce à quoi vous pensez en ce qui concerne le consentement, en raison de la façon dont le gouvernement procède, ça concerne réellement ce que le gouvernement fait et ce que les objectifs stratégiques sont, mais les préoccupations concernant l'IA sont en quelque sorte axées sur la façon selon laquelle les choses sont faites. Comment utilisez-vous mes données pour prendre des décisions? Cela met donc en lumière un ensemble de questions qui sont habituellement secondaires au sein du gouvernement. Ça, c'est la première chose. La deuxième, c'est que ces applications évoluent si rapidement, que les façons selon lesquelles elles sont appliquées sont souvent si nouvelles et qu'elles sont en fait franchement entrepreneuriales. Dan Ho et David Engstrom ont produit un excellent rapport sur l'utilisation de l'IA dans les gouvernements aux États-Unis, et l'une des choses qu'ils ont remarquées, c'est que la plupart du temps, lorsque l'IA est appliquée ou qu'une sorte d'apprentissage automatique est appliquée, c'est parce qu'une personne voit un problème et qu'elle crée une solution au sein de son unité. Cette solution-là peut se heurter à des lois très compliquées sur la protection des renseignements personnels, le stockage des données ou quelque chose du genre, mais il s'agit en fait d'une meilleure solution. Par conséquent, une partie du défi, ici, c'est que nous ne pouvons pas réellement prévoir, même en parlant aux citoyens, tous les types d'outils qui vont évoluer. Ce sont donc deux des défis à relever. Il s'agit vraiment de la façon dont vous faites les choses, et il est difficile de savoir où se trouve la frontière. L'autre défi, c'est que nos modèles d'établissement du consentement ne fonctionnent pas si bien que ça, parce que nous nous appuyons actuellement sur l'éthique des fonctionnaires ou l'éthique personnelle, sur certaines lignes directrices portant sur la façon dont les choses doivent être faites, ainsi que sur certaines lois régissant l'utilisation des données. Je pense qu'il y a un modèle où l'on peut imaginer la chose suivante : ce n'est pas logique, nonobstant mes propres intérêts professionnels, ce n'est tout simplement pas logique de juste pousser les gens à faire des choses. Ce dont nous avons besoin, c'est d'un public informé qui pense à ces choses. Une option possible est que les gouvernements pensent à mettre en place des jurys de citoyens efficaces; des citoyens ordinaires qui sont désintéressés du résultat d'une politique particulière, mais qui acquièrent une connaissance suffisante de l'utilisation des données et de l'IA pour que, lorsqu'un gouvernement veut utiliser une certaine forme d'IA ou d'apprentissage automatique qui dépasse potentiellement certaines limites, il puisse se présenter devant l'assemblée de citoyens et expliquer les raisons pour lesquelles il veut procéder ainsi. Ça pourrait aussi être les citoyens qui envoient un panel, ou d'autres façons de faire. Le gouvernement passerait donc par ce qui est un peu comme le comité d'éthique de la recherche d'une université, mais avec un peu de chance, beaucoup mieux et beaucoup plus efficace, où il devrait expliquer pourquoi il utilise quelque chose et pourquoi c'est conforme au cadre général, avant d'obtenir la permission de procéder. Ce serait une façon de faire les choses, pour en quelque sorte établir un groupe de citoyens qui diraient : oui, si j'étais dans cette situation et que j'apprenais que mes données sont utilisées de cette façon, je penserais que c'est approprié, alors le gouvernement peut aller de l'avant et utiliser ça. Cela donnerait lieu à une certaine reddition de comptes et à un certain processus, mais aussi, peut-être, à un peu plus de rapidité et de souplesse, au lieu d'essayer de faire les choses dans les limites de la loi, ce qui pourrait prendre un peu de temps à changer.

Merci, Peter. Nous sommes presque rendus à la période de questions du public, et je vois déjà que quelques bonnes questions ont été posées. Avant de procéder, je vais vous poser à tous les deux une dernière question à laquelle je vous demande de répondre en quelques mots seulement. Alors, la question à 10 millions de dollars : l'adoption généralisée de l'algorithmique gouvernementale est-elle inévitable? Wendy?

Non, ça ne l'est pas; c'est un choix, et je pense que ce que nous devons faire [gloussement], c'est de réfléchir. Je pense que le rôle du gouvernement n'est pas de convaincre les citoyens que l'algorithmique gouvernementale est la meilleure option ou la plus efficace. Je pense que le rôle du gouvernement est de donner aux gens de l'information pour qu'ils puissent exprimer leur opinion à ce sujet et aussi pour renforcer la confiance, et non la miner, au moyen de l'adoption rapide de la technologie. Donc, pour vous donner une réponse courte, non, ce n'est pas inévitable; c'est un choix, mais le gouvernement a un rôle à jouer, et pas nécessairement en tant que cheerleader, mais à titre d'évaluateur ou d'agent d'éducation, en aidant les citoyens à penser à ces technologies.

Et Wendy... oh désolée, Wendy est déjà partie. Peter?

Rien n'est inévitable, mais je pense que la pression exercée sur les gouvernements pour qu'ils se réconcilient avec le monde numérique et deviennent un chef de file de la conceptualisation de la manière dont on peut travailler et fonctionner en tant que citoyen plutôt qu'en tant que client dans un monde numérique, c'est un impératif pour les gouvernements. Participer activement à tout ça, au lieu de se tenir à l'écart, c'est probablement une façon de modéliser ça. Tout ça pour dire que ce n'est pas inévitable, mais il vaut mieux se jeter à l'eau et suivre le courant que rester sur le rivage.

Merci à vous deux. Nous allons maintenant passer à notre période de questions et réponses. Un certain nombre de questions ont déjà été posées; merci à tous ceux qui nous les ont envoyées, et n'hésitez pas à nous en envoyer d'autres. Je ne les aborderai peut-être pas toutes, étant donné que certaines ont peut-être déjà été répondues au cours de notre conversation, mais continuez de nous en envoyer. La première question que je vais poser est : que se passe-t-il si les individus ou les communautés refusent de donner leur consentement, parce qu'ils ont été la cible de mauvais traitements de la part du gouvernement, mauvais traitements qui ont été amplifiés par l'IA, surtout compte tenu du fait que la plupart des algorithmes sont basés sur des données de formation et qu'il est difficile, voire impossible, de les rendre exemptes de préjugés? L'utilisation de la technologie de reconnaissance faciale à des fins de police prédictive en est un exemple. Les citoyens peuvent-ils tracer une ligne afin qu'un algorithme ne puisse pas être déployé? Wendy, pouvez-vous commencer?

OK. Je pense que la question est de savoir comment la technologie est utilisée plutôt que de savoir si la technologie est intrinsèquement mauvaise.

Donc, une partie de la raison pour laquelle nos technologies actuelles, comme la reconnaissance faciale, ne fonctionnent pas bien, c'est précisément parce que leurs ensembles de formation sont biaisés, mais si nous avions des ensembles différents, je suis relativement certaine que nous pourrions écrire cela d'un point de vue technique. À présent, la question est de savoir si vous voulez ce genre de technologie. Je pense que c'est une autre série de questions. L'autre question qui a été soulevée, surtout dans le contexte de la reconnaissance faciale, puisqu'il s'agit d'un exemple concret, est de savoir comment la police utilise cette technologie. Est-elle utilisée en remplacement d'un bon travail de police? Il y a eu des situations anecdotiques aux États-Unis, où la police a intégré des portraits-robots aux algorithmes de reconnaissance faciale, ce qui n'est probablement pas une pratique exemplaire. Cela a probablement amplifié les biais existants. Je dirais donc que les groupes de citoyens ont raison de s'opposer à de telles pratiques ou activités erronées ou mal dirigées par des agents de police ou du gouvernement. Ces groupes devraient s'exprimer, et c'est conforme au point que j'ai soulevé plus tôt à propos des minorités ou plutôt des minorités numériques; il faut réellement prendre au sérieux leurs préoccupations, surtout dans les situations où il existe des griefs ou des mauvais traitements historiques. Nous devons être conscients de ça et ne pas amplifier ces mauvais traitements par l'entremise de l'utilisation de technologies qui peuvent rendre les processus plus difficiles à suivre. Je pense que c'est une chose vraiment importante; nous devrions nous arrêter et réfléchir à la façon dont les technologies peuvent être mieux utilisées et améliorées avant qu'elles soient utilisées plus largement au sein du gouvernement.

Merci, Wendy. Peter, je pense que je vais vous poser une autre question, juste pour m'assurer que nous avons le temps d'aborder quelques-unes des questions restantes. Alors, Peter, pensez-vous que la perception du public changera à mesure que nous nous approchons de la singularité de l'IA ou que cette stigmatisation va se poursuivre, même une fois que nous aurons atteint ce point?

Eh bien, nous voulions atteindre la singularité... ça ne se passera pas, alors je ne vais pas trop m'attarder là-dessus, mais non, je pense que ça va progresser par à-coups. Je pense qu'en ce moment, nous ne faisons que vaguement parler des choses dont nous allons parler au cours des 50 prochaines années, si nous allons réellement de l'avant avec tout ça. Je veux dire, même la question concernant les biais des algorithmes... c'est parce que nous sommes capables de voir qu'il y a un biais entre les groupes que nous pouvons le cerner... nous cherchons nos clés sous un projecteur. Qui sait comment d'autres algorithmes prennent des décisions de manière biaisée, sans que nous puissions facilement comprendre le biais en question, parce que nous ne savons pas à qui cela est appliqué de manière inégale? Par exemple, j'ai certains traits que Wendy n'a pas, alors elle obtient un prêt, mais moi non. Lorsque ce n'est pas lié à notre apparence, mais à un concept sous-jacent que nous ne pouvons pas voir, ce biais devient encore plus difficile à voir. Donc, ce sur quoi nous travaillons en ce moment, ce sont des problèmes difficiles à résoudre, mais la prochaine étape est encore plus complexe. Par exemple, que se passe-t-il lorsque nous commençons à évaluer l'efficacité d'une politique gouvernementale, non pas en fonction d'une quelconque mesure choisie par la personne qui conçoit le programme, mais en fonction d'une liste d'une centaine de mesures établie par un algorithme d'apprentissage automatique, puis une certaine moyenne de ces mesures avec un autre algorithme; cela dépasse largement notre capacité à comprendre ce qui se passe, mais il s'avère que la politique donne de meilleurs résultats pour toutes sortes de mesures. Il s'agit d'un tout autre monde, où les machines nous disent à quels résultats nous devrions aspirer et accorder de l'importance. Je pense que nous devons reconnaître que la conversation sur le consentement va devenir de plus en plus complexe au fur et à mesure que nous pensons à la nature... ou plutôt au fur et à mesure que l'algorithmique gouvernementale devient plus complexe. L'autre chose, pour ce que ça vaut, c'est que je ne pense pas que le méta-univers sera avec nous prochainement, mais il est vrai qu'au cours des 50 prochaines années, je pense que nous allons penser différemment, notamment par rapport aux points suivants : qui sont les humains et comment interagissent-ils avec les gouvernements? À qui d'autre devrions-nous penser? Quelles sont les autres choses auxquelles nous devrions penser au moment de prendre des décisions? Nous allons faire tout ça dans un contexte où il existe une grande incertitude à l'égard du climat, par exemple. Ces questions vont donc devenir de plus en plus complexes, à savoir : comment le gouvernement devrait-il prendre des décisions, que l'IA se développe ou non? À mesure que l'IA se développe, cela devient de plus en plus complexe, puisque l'autonomie et la prise de décisions prennent de l'ampleur. De dire que c'est la première conservation parmi tant d'autres serait une façon de voir les choses.

Absolument [rires]. Wendy, je vais vous poser la prochaine question du public. Alors, cette question : ce n'est pas toujours les algorithmes qui posent problème, mais les données sous-jacentes. Pouvez-vous nous parler des garanties qui existent en ce qui concerne la sécurité et la sûreté des données et la façon dont elles sont utilisées?

Hum, bonne question! Oui, c'est vrai. Il n'y a pas d'interaction entre l'algorithme et les données, mais ils se complètent, en quelque sorte, puisque sans les données, il n'y a pas d'algorithmes, mais les algorithmes produisent aussi des données. Il s'agit donc d'un lien itératif. Vous savez, nous n'avons pas beaucoup de bonnes garanties en ce qui concerne la sécurité des données. En fait, c'est un énorme problème et une grande préoccupation. Je pense que Peter devrait donner son opinion à ce sujet, puisqu'il a réalisé des sondages sur la perception du public à l'égard des algorithmes et de l'algorithmique gouvernementale, mais je pense que les gens commencent tout juste à prendre conscience de l'omniprésence de la collecte de données sur leurs activités, minute par minute, seconde par seconde, dont la plupart ne sont pas générées par le gouvernement, mais par le secteur privé. Je pense donc qu'une grande partie de la conversation porte sur la question suivante : pourquoi le gouvernement n'en fait-il pas plus pour nous aider à réfléchir à ça et pour réglementer la manière dont les acteurs du secteur privé collectent des données? Je pense que le Canada et l'Union européenne ont pris certaines mesures. Aux États-Unis, différents États prennent aussi des mesures. Plusieurs pays ont mis en place des politiques sur la protection des données, mais je pense que ces politiques doivent être mises à jour pour tenir compte du fait que les données sur les personnes et leurs activités sont fondamentalement différentes de la collecte de données telles que des adresses. Dans quelle mesure est-il question de mon historique de recherche sur Google, des sites Web que j'ai visités ou des endroits où je suis allée aujourd'hui avec mon iPhone? En quoi ces données sont-elles plus ou moins « personnelles » que quelque chose comme une adresse ou une date de naissance? J'essaie d'en arriver à ce que je pense que l'auteur de la question voulait savoir, c'est-à-dire : quel est le niveau des données qui sont recueillies et quels sont les mécanismes de protection en place? Et c'est exactement ça la question. Qu'est-ce qui constitue des données personnelles et que peut-on faire à ce sujet?

Peter, voulez-vous répondre à cette question vous aussi?

Oui, je veux bien. Je pense que les points soulevés par Wendy sont tous très bons. Quand on entend Wendy en parler davantage, ça devient encore plus fascinant, parce qu'il y a en quelque sorte votre « personne », mais aussi votre « personne numérique ». Il y a cette personne qui est constituée par toutes les choses que vous faites en ligne; qui possède les droits liés à cette personne? Il s'agit d'une question très intéressante, n'est-ce pas? Ce que j'espère, c'est que nous puissions commencer à relancer certaines conversations sur la façon dont nous utilisons les données et sur ce que le gouvernement fait. Parce que ce qui se passe actuellement, j'ai l'impression que dans un certain sens, c'est que nous parlons de la manière selon laquelle le gouvernement devrait être autorisé à utiliser les algorithmes, l'IA et l'apprentissage automatique dans le contexte de toutes sortes de restrictions arbitraires qui sont imposées par rapport au type de données auxquelles le gouvernement peut accéder. À mon avis, le meilleur exemple de ça est que nous avons créé l'application Alerte COVID qui, comme vous le savez, est pratiquement inutile et n'a pas vraiment fourni de données de santé publique sur les endroits où le virus se transmettait. Il aurait été vraiment, vraiment, vraiment très utile de savoir ça il y a 18 mois. Si nous avions eu des données permettant de déterminer avec précision où la transmission avait lieu, cela n'aurait-il pas pu faire une grande différence? Oui, ça aurait été possible, mais nous avons entamé la conversation avec une certaine vision de la manière dont le gouvernement devrait pouvoir utiliser les données, au lieu de dire : « Écoutez, recommençons la conversation; nous sommes en plein cœur d'une pandémie. Voici toutes les données que vous produisez chaque jour et qui sont capturées par Google et Facebook, puis revendues, et voici le minuscule ensemble de données que nous pensons que le gouvernement devrait pouvoir utiliser, ou plutôt utiliser davantage, pour obtenir tel ou tel avantage. » Mais nous ne pouvions même pas envisager d'avoir cette conversation. Ce n'est pas faute d'avoir parlé. Tout le monde était à la maison. Nous parlions, et nous écoutions les gens parler dans les nouvelles tout le temps, mais nous avons lancé la conversation en supposant que ce minuscule ensemble de données était tout ce que nous pouvions utiliser, et sachez que ce n'est pas hyperbolique de dire que des personnes sont probablement décédées à cause de ça et que nous avons été enfermés plus longtemps que nécessaire à cause de ça. Peut-être qu'il n'y avait pas de solution basée sur une application. Par contre, il aurait été bon de savoir beaucoup plus tôt que la grande partie de la transmission se produisait dans certains types de lieux dotés de certains types de systèmes de ventilation. Ainsi, nous l'aurions su, mais nous n'avons pas pu faire ça, parce que nous n'avions pas l'imagination de dire « recommençons ça », « repartons à zéro » ou quoi que ce soit d'autre qu'un consultant grassement payé dirait. « Oublions tout ça et recommençons à partir de la base. »

Merci, Peter. La prochaine question s'adresse également à vous, mais j'espère que vous pourrez y répondre plus rapidement. Les données de votre sondage sur le soutien à l'égard de l'IA sont-elles publiées ou disponibles dans un format quelconque? La personne qui a posé cette question aimerait aussi en savoir plus sur la relation entre le soutien envers l'IA et l'immigration.

Ce sont de bonnes questions. J'aimerais soulever quelques points à ce sujet. Premièrement, les données seront rendues publiques à un moment donné. Nous sommes encore en train de préparer les choses et de travailler là-dessus. La question de l'IA et de l'immigration en est une qui m'intéresse beaucoup, et j'ai justement fait des présentations sur ce sujet la semaine dernière. J'ai beaucoup réfléchi à la relation entre les préoccupations des gens concernant l'IA et l'automatisation, y compris les bouleversements qui peuvent en découler, et la façon dont cela correspond à leurs opinions politiques. Une autre façon de dire cela est que... si les partis sont à la recherche de votes, comment peuvent-ils utiliser ou exploiter les craintes des gens par rapport à l'IA, ou encore en tirer parti? Bien franchement, c'est un terrain de jeu entièrement ouvert sur le plan politique. Je pense donc que les partis qui seront capables de donner des réponses gouvernementales complètes et utiles par rapport aux bouleversements provoqués par l'IA et l'automatisation seront les partis qui s'en sortiront le mieux, et cela ne se limite pas aux partis de droite ou de gauche ni à ceux qui sont contre l'immigration ou en faveur de l'immigration, bien au contraire. Un document qui a été préparé à l'aide de PPF et publié il y a quelques années montre que des personnes sont préoccupées par l'IA et l'automatisation, y compris leurs effets sociétaux plus larges. Ces personnes veulent simplement que le gouvernement fasse quelque chose. Elles invitent en fait le gouvernement à préparer des réponses politiques, non seulement pour les questions intéressantes, mais relativement pointues, dont nous avons parlé ici, mais aussi pour l'ensemble des domaines dans lesquels l'IA aura une incidence sur nous tous. Ces personnes veulent que le gouvernement ait des réponses dans ces domaines, depuis les marchés du travail jusqu'aux données gouvernementales.

OK, je pense que nous avons le temps pour au moins une autre question, voire deux autres. Alors, celle-ci est pour vous deux, mais nous allons commencer par vous, Wendy. Y a-t-il une administration dont les citoyens se sont montrés très favorables à l'automatisation par l'entremise de l'IA?

Je ne connais pas de données précises sur ce sujet. Nous pourrions citer certaines des sociétés qui ont largement déployé l'IA, ou plutôt le numérique, au sein du gouvernement. Pensons à l'Estonie ou à des places comme Singapour, où plusieurs des services sociaux fournis par le gouvernement (voire la plupart d'entre eux) sont en ligne et numériques. Je dirais donc qu'en ce qui concerne l'opinion sur l'IA au sein du gouvernement et la question de savoir si les gens se sont montrés largement positifs... je ne sais pas. Je pense honnêtement que Peter est mieux placé pour répondre à cette question. Je pense qu'il faut notamment savoir quelles sont les parties du gouvernement qui utilisent réellement l'IA, et je ne sais pas si c'est quelque chose qui est nécessairement connu publiquement.

Merci. Peter?

Non, je voudrais compléter ce que Wendy a dit, à savoir si le gouvernement du Canada ressemble à d'autres gouvernements. L'IA et l'apprentissage automatique, ce sont deux choses différentes. Il est plus probable que l'apprentissage automatique soit utilisé que l'IA, mais où et quand ces choses sont utilisées n'est pas entièrement connu, parce qu'il y a des gens innovants qui essaient de nouvelles choses tout le temps, et il y a sûrement quelqu'un quelque part qui a établi un algorithme qui aide à passer en revue les demandes relatives à quelque chose plus rapidement, afin de pouvoir partir plus vite la fin de semaine. C'est un exemple d'apprentissage automatique, s'ils ont fait ça à un certain niveau, ou au moins un processus décisionnel algorithmique. Cela se produit donc à plus d'endroits que nous le pensons, et nous devrions trouver des moyens d'effectuer des audits sur une base régulière, non pas dans le but de nous assurer que les règles sont respectées, mais dans le but de comprendre et de cataloguer le tout.

Parfait. OK, je vais vous poser une dernière question à tous les deux. Connaissez-vous la Directive sur la prise de décisions automatisée ou les outils algorithmiques d'évaluation d'impact du Secrétariat du Conseil du Trésor? Si oui, qu'en pensez-vous?

Oui, et je les aime beaucoup. Ce que je veux dire, c'est que je pense qu'il s'agit de bonnes réponses préparées par une fonction publique qui essaie de comprendre comment utiliser les choses. Je pense que si j'étais responsable de ces dossiers, je répéterais sans cesse que ce sont des outils et des lignes directrices qui ont été créés pour un moment précis, et qu'ils font partie d'une conversation continue. Par exemple, en ce qui concerne les outils algorithmiques d'évaluation d'impact, souvenez-vous que lorsque vous pouvez cerner des biais dans quelque chose, que ce soit des biais ou des affectations injustes de fonds entre deux personnes, cela semble être un biais, puisque vous pouvez cerner les différences entre les personnes qui ont reçu des affectations de fonds différentes. Par contre, si cela diffère d'une manière que vous ne pouvez pas voir, mais qui est tout de même arbitraire, il y a quand même un biais que vous ne pouvez pas voir, n'est-ce pas? Ne vous faites pas avoir par la fausse certitude que les outils peuvent vous aider à voir la totalité des effets pernicieux de l'IA, puisque ce n'est pas le cas.

Oui.

Wendy, voulez-vous répondre à cette question vous aussi?

Oui, j'aimerais seulement compléter la réponse de Peter, parce que je pense qu'il a très bien expliqué les choses. Je voudrais seulement souligner le fait que, ce que nous appelons l'IA... en grande partie, nous faisons référence aux technologies d'apprentissage automatique. En raison de la façon dont elles fonctionnent et du fait qu'elles passent parfois par de multiples couches d'algorithmes, il est difficile de savoir exactement ce qui se passe, notamment ce qui concerne le résultat que la machine donne. Parfois, cela peut être très arbitraire. L'exemple que j'ai toujours en tête et qui explique pourquoi quelque chose comme un outil d'évaluation d'impact serait utile, mais ne permettrait pas nécessairement de cerner certaines des choses qui nous préoccupent, est le suivant : il y a un poisson... un poisson est donné comme prix, ou des gens ont un poisson et prennent une photo avec ce poisson, et un algorithme a été très efficace pour cerner ça, non pas parce qu'il a reconnu les caractéristiques du poisson, mais parce qu'il a reconnu qu'il y avait des mains humaines autour de ce poisson, alors il captait régulièrement des doigts. Ainsi, chaque fois qu'il y avait des doigts dans une photo avec un poisson, l'algorithme disait qu'il s'agissait de ce type de poisson, parce que c'est comme ça que le poisson apparaît la plupart du temps dans son ensemble de données de formation. Pour reprendre ce que Peter a dit, je voulais insister sur le fait qu'il est bon de juger les résultats. Étant donné que les processus peuvent être très « secrets », il est difficile d'utiliser ce genre d'outils d'évaluation pour bien mesurer ce qui se passe dans un algorithme.

C'est un très bon exemple, Wendy. Merci de nous l'avoir partagé. Alors, écoutez, ce fut une séance très complète. J'ai l'impression que nous avons abordé de nombreux points importants auxquels il est bon de réfléchir. J'espère donc que les membres de notre public ont apprécié cette conversation. Avant de mettre fin à la séance, si vous le voulez bien, j'aimerais vous demander de partager un message clé pour dire à nos apprenants ce que vous aimeriez qu'ils retiennent de cet événement. Wendy, pouvez-vous commencer?

Mon Dieu. OK, un message clé.

Juste un court message.

Je pense que... [rires] c'est la clé. Dans nos conversations visant à déterminer si nous utilisons ou non les algorithmes, et plus précisément l'apprentissage automatique, au sein du gouvernement, je pense que nous devons réfléchir aux inconvénients et aux avantages potentiels, y compris à ce qui arrive aux citoyens lorsque nous utilisons des machines pour prendre des décisions ou pour nous aider à prendre des décisions au sein du gouvernement.

Merci, Wendy. Peter?

Juste des messages totalement mélangés. Je suis tout à fait d'accord avec Wendy, et j'espère aussi que les gens au gouvernement vont commencer à réfléchir à tout le potentiel qui existe, compte tenu de la manière dont le gouvernement prend déjà ses décisions, pour essayer d'exploiter la puissance de l'apprentissage automatique, de l'intelligence artificielle et de l'informatique de haut niveau afin de mieux faire les choses au sein du gouvernement. Cela ne rend pas les choses plus faciles; c'est un réel défi et il y a beaucoup d'outils qui existent et qui peuvent nous aider à mieux faire les choses, notamment avec toutes les considérations importantes soulignées par Wendy.

Excellent. Encore merci à tous les deux. Cette discussion a été fabuleuse. Je m'adresse maintenant à vous tous, les apprenants qui ont assisté à cet événement aujourd'hui. Il s'agit d'un partenariat entre les secteurs d'activité des compétences transférables et de l'académie du numérique, ici, à l'École de la fonction publique du Canada. Ensemble, nous aimerions remercier sincèrement Wendy et Peter, ainsi que le partenaire de cette série, l'Institut Schwartz Reisman pour la technologie et la société, pour votre participation aujourd'hui; ça a vraiment été une excellente conversation. Ce sont des personnes talentueuses comme vous, qui partagent leur temps et leur expertise, qui nous permettent, à l'École de la fonction publique du Canada, de produire d'excellentes expériences d'apprentissage au profit des fonctionnaires de partout au pays. Encore une fois, merci, ça a vraiment été plaisant. Nous sommes également reconnaissants envers tous nos apprenants qui ont choisi de participer à cet événement. Merci à tous ceux qui nous ont écoutés. Vos commentaires sont très importants pour nous, et c'est ainsi que nous pouvons continuer à améliorer et à peaufiner nos événements. Je vous invite donc à remplir l'évaluation électronique que vous recevrez par courriel au cours des prochains jours, ce qui n'a pas encore été automatisé au moyen d'une forme quelconque d'IA, mais qui avec un peu de chance le sera bientôt.

Pour terminer, je voulais vous parler des prochaines étapes, ici, à l'École de la fonction publique du Canada. Nous nous réjouissons à l'idée de vous revoir la prochaine fois, et nous vous invitons à consulter notre site Web pour découvrir les possibilités de formation qui vous sont offertes. Nous avons des cours, des événements, des programmes et toutes sortes d'autres outils d'apprentissage pour vous aider dans vos carrières. Le prochain événement d'apprentissage de cette série, c'est-à-dire la série « L'intelligence artificielle est à nos portes », aura lieu le lundi 13 décembre et portera sur le thème suivant : Savoir quand et comment utiliser l'IA au gouvernement. Les modalités d'inscription seront affichées sur notre site Web très prochainement. Encore une fois, merci à Wendy, à Peter et à tous ceux qui se sont joints à nous aujourd'hui; ce fut merveilleux.

[Une petite bande de texte s'affiche en bas à gauche, où on peut lire : « canada.ca/school-ecole ».]

Merci beaucoup.

Merci beaucoup.

Au revoir.

[La discussion s'estompe et est remplacée par le logo de la webdiffusion. Le logo du Canada s'affiche à l'écran.]

Liens connexes


Date de modification :