Passer au contenu
Début du contenu

ETHI Réunion de comité

Les Avis de convocation contiennent des renseignements sur le sujet, la date, l’heure et l’endroit de la réunion, ainsi qu’une liste des témoins qui doivent comparaître devant le comité. Les Témoignages sont le compte rendu transcrit, révisé et corrigé de tout ce qui a été dit pendant la séance. Les Procès-verbaux sont le compte rendu officiel des séances.

Pour faire une recherche avancée, utilisez l’outil Rechercher dans les publications.

Si vous avez des questions ou commentaires concernant l'accessibilité à cette publication, veuillez communiquer avec nous à accessible@parl.gc.ca.

Publication du jour précédent Publication du jour prochain
Passer à la navigation dans le document Passer au contenu du document






Emblème de la Chambre des communes

Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique


NUMÉRO 157 
l
1re SESSION 
l
42e LÉGISLATURE 

TÉMOIGNAGES

Le jeudi 6 juin 2019

[Enregistrement électronique]

  (1545)  

[Traduction]

    Je déclare ouverte la 157e séance du Comité permanent de l’accès à l’information, de la protection des renseignements personnels et de l’éthique. Nous allons parler aujourd’hui des aspects éthiques de l’intelligence artificielle et des algorithmes.
    Nous accueillons, par téléconférence et à titre personnel, Brent Mittelstadt, chargé de recherche au Oxford Internet Institute de l'Université d’Oxford. De l’Association canadienne des radiologistes, nous entendrons Nicholas Neuheimer, chef de la direction; et An Tang, président du Groupe de travail sur l’intelligence artificielle. Enfin, de l’Association canadienne de la technologie de l’information, nous avons André Leduc, vice-président, Relations gouvernementales et politiques.
    Comme nous aurons quelques questions à régler en fin de séance, nous allons essayer de presser le pas. Nous vous accordons une heure complète. Nous venons tout juste de voter. Veuillez nous excuser pour tout cela, mais ce sont des choses qui échappent à notre contrôle.
    Nous allons commencer tout de suite par M. Mittelstadt. Vous avez 10 minutes, monsieur.
    Cela fait déjà près de cinq ans que je fais des recherches sur les défis éthiques que soulèvent les algorithmes et l’IA. Il m'apparaît désormais clair que la promesse de l’IA réside en grande partie dans son apparente capacité à remplacer ou à augmenter l'expertise humaine, dans tous ses champs d'application. Par sa nature ubiquiste, cette technologie touche inévitablement aux dimensions éthiques et politiques de l'emploi, des pratiques et des organisations qui l'utilisent. Comme les défis que soulève l’IA sont, à plus petite échelle, caractéristiques des défis politiques et éthiques auxquels nous sommes confrontés dans la société, il n’est certes pas facile de les reconnaître et de les résoudre.
    Je sais, d’après les témoignages que vous avez entendus lors des séances précédentes, qu'il a beaucoup été question des défis de l’intelligence artificielle, sur les plans de la responsabilisation, de la partialité, de la discrimination, de l’équité, de la transparence, de la protection de la vie privée pour n'en citer que quelques-uns. Ce sont là autant de défis extrêmement importants et complexes qui méritent votre attention et l’attention des décideurs du monde entier, mais dans les 10 minutes qui me sont accordées, je vais moins m'attarder sur la nature et l’étendue des défis éthiques de l’IA et davantage sur les stratégies et les outils que nous avons à notre disposition pour y faire face.
    Vous avez aussi beaucoup entendu parler des outils disponibles pour relever ces défis de nature éthique, comme les audits portant sur les algorithmes et les sciences sociales, la recherche multidisciplinaire, les partenariats public-privé et les processus participatifs de conception et de réglementation. Toutes ces solutions sont essentielles, mais je crains que nous n'appliquions la mauvaise stratégie ou du moins une stratégie incomplète pour assurer la gouvernance éthique et juridique de l’IA. Cela étant, nous nous attendons peut-être trop à ce que nos efforts actuels nous permettent d'assurer un développement et une utilisation éthiques de l’IA.
    Pour le reste de ma déclaration, je veux parler des lacunes importantes que je constate dans les tentatives actuelles visant à régir l’intelligence artificielle grâce, d'une part, aux lois sur la protection des données et de la vie privée et, d'autre part, à l’autogouvernance fondée sur certains principes. Je suis surtout préoccupé par le fait que, trop souvent, ces stratégies partent de l'idée que les défis éthiques de l’IA sont de nature individualiste, tandis qu'il s'agit plutôt de défis collectifs, exigeant des solutions collectives.
    Pour commencer par les lois sur la protection des données et de la vie privée, il incombe trop souvent aux particuliers d'assumer la responsabilité de protéger leurs intérêts vitaux, leur vie privée, leur autonomie, leur réputation et ce genre de choses. Trop souvent, les lois sur la protection des renseignements personnels finissent par protéger les données elles-mêmes plutôt que les personnes que ces données représentent. Cette lacune est visible dans plusieurs domaines du droit à l’échelle mondiale. Les concepts fondamentaux de la protection des renseignements personnels et de la vie privée — soit les données personnelles, les renseignements permettant d’identifier une personne et ainsi de suite — sont généralement définis en fonction d’une personne identifiable, ce qui veut dire que les données doivent pouvoir être associées à une personne afin de tomber sous le coup de la loi et donc d’être protégées.
    L’accent mis sur l’individu ne correspond vraiment pas aux capacités de l’IA. Nous sommes enthousiasmés par l’IA précisément parce qu'elle permet de concevoir des modèles restreints à partir de plusieurs individus, de les regrouper de façon exploitable, et de créer un corpus des connaissances généralisables à partir de données ou de dossiers individuels. Dans les analyses de données modernes qui sont à l’origine de tant de technologies que nous considérons comme étant de l’IA, l’individu n’a pas vraiment d’importance. L’intelligence artificielle ne s’intéresse pas à ce qui fait l'unicité d'une personne, mais plutôt à ce qui la rend semblable aux autres. L’intelligence artificielle a fait passer la protection de la vie privée du niveau de la préoccupation individuelle au niveau du défi collectif, mais les cadres juridiques existants accordent relativement peu d’attention aux aspects collectifs de la protection de la vie privée. Je pense que c’est quelque chose qu'il faut vraiment changer.
    Cette lacune s’étend aux types de protections juridiques caractéristiques des lois sur la protection des renseignements et de la vie privée. Ces protections continuent de reposer essentiellement sur l’idée que les gens peuvent prendre des décisions éclairées sur la façon de produire des données, sur la manière dont ces données sont recueillies et utilisées et sur les situations dans lesquelles elles ne devraient pas être utilisées. Il incombe vraiment aux personnes d’être bien informées et de faire un choix rationnel quant à la façon dont leurs données sont recueillies et utilisées.
    Comme l’indique son nom, le consentement éclairé ne fonctionne que si un choix rationnel et éclairé est réellement possible. Encore une fois, nous sommes enthousiasmés par l’IA précisément parce qu’elle peut traiter énormément de données à grande vitesse, parce qu’elle peut dégager des tendances nouvelles et non intuitives à partir d'une série de données, et parce qu’elle peut « fabriquer » des connaissances à partir de ces données. L'IA est emballante parce qu'elle repose sur un système d'analyse de données très puissant, rapide et dont le résultat n'est pas prévisible. Cependant, comme elle est d'un appétit vorace en données personnelles et qu’elle a la capacité de réutiliser à l’infini les données absorbées, il est normalement impossible, même pour une personne particulièrement motivée, de faire un choix éclairé quant à la façon dont ses données personnelles doivent être recueillies et utilisées. Dans ces conditions, le consentement n’offre plus aucune protection véritable et ne permet pas aux personnes de contrôler la façon dont leurs données sont recueillies et utilisées.

  (1550)  

    Pour ce qui est de la protection des renseignements personnels et de la vie privée dans l'avenir, nous allons devoir réfléchir davantage à la façon de transférer une part équitable de la responsabilité éthique aux entreprises, aux organismes publics et aux autres formes de collectifs. Une partie du fardeau éthique, qui est normalement imposé à la personne, devrait être transférée à ces entités qui devraient, par exemple, justifier la collecte et le traitement de données avant le fait, plutôt que de laisser aux particuliers le soin de protéger proactivement leurs propres intérêts.
    La deuxième stratégie gouvernementale dont je veux parler a suscité une mobilisation sans précédent à l’échelle mondiale. À ce jour, pas moins de 63 initiatives public-privé ont été lancées dans le but de déterminer comment composer avec les défis éthiques de l’IA. Il semble que toutes les grandes entreprises spécialisées en intelligence artificielle ont participé à une ou plusieurs de ces initiatives et ont noué des partenariats avec des universités, des organisations de la société civile, des organismes sans but lucratif et d’autres types d’organisations. Plus souvent qu’autrement, ces initiatives débouchent sur l'adoption d'un ensemble de principes, de valeurs ou de normes éthiques de haut niveau destinés à encadrer le développement et l’utilisation de l’IA.
    La stratégie semble être la suivante: les défis de nature éthique associés à l’IA sont mieux abordés suivant une approche du haut vers le bas, approche selon laquelle les principes de haut niveau sont traduits en exigences pratiques servant à guider les développeurs, les utilisateurs et les organismes de réglementation. Les défis éthiques de l’IA sont, plus souvent qu’autrement, présentés comme des problèmes à résoudre par des solutions techniques et des changements au processus de conception. Le raisonnement semble être qu’un manque d’éthique conduit à de mauvaises décisions de conception qui créent des systèmes nuisibles pour les particuliers et pour la société.
    Ces initiatives produisent essentiellement des cadres d’autoréglementation qui ne sont pas encore contraignants, dans quelque sens que ce soit. Il semble que le procès d'une intelligence artificielle contraire à l’éthique revienne à blâmer les particuliers, les développeurs et les chercheurs qui se seraient mal comportés, plutôt que de reconnaître une forme d’échec collectif des institutions, des entreprises ou d’autres types d’organisations qui stimulent le développement de l'IA.
    Cela dit, je ne comprends pas entièrement pourquoi nous présumons que les principes et les codes d’éthique imposés par le haut de la pyramide vont rendre plus éthiques ou dignes de confiance l’intelligence artificielle et les organisations qui créent et utilisent l'IA. Le recours aux principes et à l’éthique n’a rien de nouveau. Il existe beaucoup de professions bien établies, comme la médecine et le droit, qui appliquent des principes depuis très longtemps pour définir leurs valeurs et leurs responsabilités éthiques et pour régir le comportement des professionnels et des organisations qui les emploient.
    Il suffirait de considérer que le développement de l’IA est une profession pour se rendre très vite compte que plusieurs caractéristiques nécessaires font défaut afin qu’une approche fondée sur des principes fonctionne réellement dans la pratique.
    Premièrement, le développement de l’IA n'obéit pas à des objectifs communs ni à des devoirs fiduciaires envers les utilisateurs et les particuliers. Prenons la médecine pour une démonstration a contrario: le développement de l’IA ne sert pas l’intérêt public au premier chef, au même sens que le fait la médecine. Les promoteurs ne sont pas investis d’obligations fiduciaires envers les utilisateurs ou les personnes touchées par l’IA, parce que l’IA est le plus souvent mise au point dans un environnement commercial où la seule obligation fiduciaire est due aux actionnaires de l’entreprise. Cela étant, ces principes, dont l'objet est de protéger les intérêts des utilisateurs et du public, risquent d'entrer en conflit avec des intérêts commerciaux. On ne sait pas très bien comment ces problèmes seront réglés dans la pratique.
    Deuxièmement, l'histoire du développement de l’IA est relativement jeune et nous manquons de pratiques exemplaires bien établies et éprouvées. Il existe des ordres professionnels qui encadrent le génie informatique, de même que des codes de déontologie, mais comme il ne s’agit pas d’une profession légalement reconnue ou agréée, dans la pratique, les ordres professionnels ont très peu de pouvoir sur leurs membres. Leurs codes de déontologie sont plutôt généraux et relativement brefs par rapport à ceux d’autres professions.
    La troisième caractéristique qui semble faire défaut au développement de l’IA tient au manque de méthodes éprouvées pour traduire les principes de haut niveau en exigences pratiques. Les méthodes dont nous disposons existent ou ont été testées seulement dans des milieux universitaires et pas dans des environnements commerciaux. Passer de principes généraux à des exigences pratiques est un processus très difficile. Les résultats des initiatives d’éthique de l’IA que nous avons vus jusqu’à maintenant reposent presque tous sur des concepts vagues et contestés, comme l’équité, la dignité et la responsabilité. Très peu de conseils pratiques sont prodigués.
    Les désaccords entourant la signification de ces concepts ne surgissent que lorsque vient le temps de les appliquer. Nous avons vu que l’énorme quantité de travail nécessaire pour régler les questions d'éthique en IA suivant une approche du haut vers le bas n'a pas donné grand-chose sur le plan pratique. La plus grande partie du travail reste à faire.

  (1555)  

     Je conclurai en disant que l’éthique n’est pas censée être facile ou stéréotypée. À l’heure actuelle, nous pensons trop souvent et uniquement que les problèmes d’éthique en AI appellent des solutions techniques, des listes de contrôle ou des évaluations d’impact, alors que nous devrions en fait célébrer les désaccords normatifs parce qu’ils représentent fondamentalement le fait que l'on prend au sérieux les défis éthiques dans la pluralité d’opinions caractéristique des sociétés démocratiques.
    Le travail difficile qu’il nous reste à faire en matière d’éthique dans le cas de l’IA consiste à passer des principes de haut niveau aux exigences pratiques. C’est seulement ainsi, et en soutenant ce genre de travail que nous arriverons vraiment à comprendre les défis éthiques de l’IA dans la pratique.
    Merci. Je serai heureux de répondre à vos questions plus tard.
    Merci, monsieur Mittelstadt.
    Le prochain à parler sera M. Tang qui a 10 minutes.

[Français]

     Je remercie les membres du Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique de me donner l'occasion de leur parler de l'intelligence artificielle en radiologie et plus particulièrement des questions éthiques et juridiques liées à l'implantation de cette technologie dans le milieu de l'imagerie médicale.
    Je m'appelle An Tang. Je suis médecin radiologiste et clinicien-chercheur basé à l'Université de Montréal. Je suis également représentant de l'Association canadienne des radiologistes, ou CAR, et président de son groupe de travail sur l'intelligence artificielle .

[Traduction]

    Le Groupe de travail sur l’IA de la CAR compte plus de 50 membres qui s’intéressent de près aux progrès technologiques en radiologie attribuables à l’IA. Ce groupe de travail est diversifié, puisqu'on y trouve des radiologistes, des physiciens, des informaticiens et des chercheurs. Il comprend également un philosophe spécialisé dans l’éthique de l’IA et un professeur de droit.
    Le conseil d’administration de la CAR nous a confié pour tâche d’examiner la question de l’IA à l’échelle mondiale et son incidence sur la radiologie et les soins aux patients au Canada.
    Je crois m'exprimer au nom de la plupart de mes collègues en affirmant que tout cela est une bonne nouvelle et que l’intelligence artificielle peut avoir une incidence positive considérable sur l'exercice de la radiologie. Grâce à la collecte de données et aux simulations, à l’aide d’algorithmes, nous pouvons aider à réduire les temps d’attente et donc accélérer le diagnostic et influer positivement sur les résultats pour les patients.
    Les logiciels d’intelligence artificielle qui analysent les images médicales sont de plus en plus répandus. Contrairement aux premières générations de logiciels d’IA, qui s’appuyaient sur des connaissances spécialisées pour identifier les caractéristiques des images, les techniques d’apprentissage automatique permettent d'acquérir automatiquement la façon de reconnaître ces caractéristiques à l’aide d’ensembles de données d'apprentissage.
    L’IA intervient dans la détection des maladies, l'établissement de diagnostics et l'optimisation des choix de traitement. Toutefois, pour assurer la précision de ces fonctions, il faudra avoir accès à de grandes quantités de données médicales appartenant aux patients. Bien entendu, cela soulève la question de la protection de la vie privée. Comment recueillir ces données tout en garantissant que nous recueillons ces renseignements d’une manière éthique qui protège la vie privée de nos patients?
    Après le passage de l’imagerie cinématographique à l’imagerie numérique, qui s’est produit en radiologie il y a 20 ans, et de la disponibilité des dossiers numériques pour chaque examen d’imagerie, le domaine de la radiologie est bien placé pour diriger l’élaboration et la mise en œuvre de l’IA et pour gérer les défis éthiques et juridiques qui s'y rattachent.

  (1600)  

[Français]

    La CAR croit que les avantages de l'intelligence artificielle pourront surpasser ses risques si l'on implante de manière adéquate les protocoles institutionnels et les exigences techniques afin de s'assurer que les données ne permettent pas d'identifier les patients.

[Traduction]

    Les progrès technologiques sont si rapides qu’ils devancent les procédures radiologiques en place. Nous devons établir des règlements sur la collecte et la propriété des données pour nous assurer de protéger les patients et de ne pas enfreindre les lignes directrices en matière d’éthique ou de protection de la vie privée.
    La CAR préconise que le gouvernement fédéral joue un rôle de premier plan dans la mise en œuvre d’un cadre éthique et juridique pour l’IA au Canada. Bien que les soins de santé relèvent de la compétence provinciale, l’IA est un enjeu mondial. Nous estimons que le gouvernement fédéral est bien placé pour orienter les provinces en matière de réglementation relative à la mise en œuvre d’un tel cadre. On retiendra pour exemple de ce genre d'action, le leadership affiché par le gouvernement fédéral dans le cas du Fonds national pour l’équipement d’imagerie médicale, au début des années 2000.
    La CAR peut aider; d'ailleurs, le Groupe de travail sur l’IA, sous la direction du conseil d’administration de la CAR, a publié deux livres blancs sur l’intelligence artificielle, le premier en 2018 sur l’IA en radiologie, et un autre qui est un survol de l’apprentissage automatique et de son application à la radiologie. Ce deuxième document, publié en mai 2019, porte sur les questions éthiques et juridiques liées à l’IA en radiologie.
    Nous avons remis à chacun de vous des exemplaires des livres blancs, avec nos recommandations. Pour alimenter la discussion, j’aimerais mettre les principales recommandations en exergue pour ce qui est du rôle du gouvernement fédéral.
    La première concerne le lancement d’une campagne de sensibilisation publique sur les thèmes du consentement des patients à partager leurs données de santé anonymisées, ainsi que des stratégies de réduction des méfaits. Ces renseignements sont essentiels pour que les futures applications de l’IA puissent détecter les maladies et contribuer à leur traitement.
    Deuxièmement, il y a l’adoption générale d'un consentement large par défaut, avec droit de retrait.
    Troisièmement, il est recommandé d'élaborer un système pour assurer la sécurité des données en général et l’anonymisation des données radiologiques destinées à une utilisation secondaire, et de mettre en œuvre des normes systémiques pour garantir le respect de ce critère.
     Quatrièmement, il est recommandé de former des gardiens de données radiologiques et d'établir des lignes directrices claires quant à leur rôle dans la mise en œuvre d’accords de partage de données, dans le cas de scénarios communs liés à l’IA et à des tierces parties.
    La CAR doit collaborer avec le gouvernement fédéral et les ministères provinciaux de la Santé, ainsi qu'avec l’Association canadienne de protection médicale, ou ACPM, à l'élaboration de lignes directrices sur le déploiement approprié d’outils de soutien à l’intelligence artificielle dans les hôpitaux et les cliniques, tout en cherchant à réduire au minimum les préjudices et la responsabilité en cas de faute professionnelle due à une erreur liée à l’intelligence artificielle. Nous devons enseigner les limites de l'IA aux radiologistes et aux autres professionnels de la santé et rappeler la nécessité de bien utiliser cet outil pour accomplir le travail plutôt que de remplacer les radiologistes.
    L’intelligence artificielle ne disparaîtra pas. L’échange de données médicales est une question complexe qui renvoie dos à dos le droit individuel à la vie privée et les avantages collectifs pour la société. Étant donné que l’intelligence artificielle peut contribuer à améliorer les soins aux patients ainsi que les résultats obtenus sur le plan médical, je crois que nous allons assister à un changement de paradigme, avec le passage de la protection quasi absolue des droits des patients et des données les concernant au partage de données anonymisées, pour le plus grand bien de la société.

  (1605)  

[Français]

     Nous devons collaborer à la mise en oeuvre d'un cadre de travail afin de mettre en place ces technologies, tout en respectant l'anonymat et la vie privée des patients. L'intelligence artificielle sera utilisée dans le domaine de la santé tôt ou tard. Assurons-nous par conséquent que son implantation se fera de manière éthique.

[Traduction]

    Merci de votre temps. Je serai heureux de répondre à vos questions en français ou en anglais.
    Merci de votre témoignage.
    Nous passons maintenant à M. Leduc. Vous avez 10 minutes, monsieur.

[Français]

    C'est un privilège d'être ici aujourd'hui pour vous présenter le point de vue de l'industrie au nom de l'Association canadienne de la technologie de l'information. L'ACTI est le porte-parole national de l'industrie des technologies des télécommunications et de l'Internet. Nous avons plus de 300 membres, incluant plus de 200 petites et moyennes entreprises.

[Traduction]

     Comme les autres intervenants l'ont déjà souligné, l'intelligence artificielle est fort prometteuse pour tout ce qui a trait à la croissance économique et aux améliorations sociétales: ses possibilités semblent illimitées. De la mobilité humaine par l'automatisation des véhicules, en passant par les soins de santé de précision, bon nombre de solutions de l'avenir seront alimentées par l'intelligence artificielle.
    Pour profiter pleinement des avantages de l'intelligence artificielle, nous devrons créer des systèmes dignes de la confiance des gens. J'ai distribué dans les grandes lignes le plan du diaporama que je vais présenter aujourd'hui: les obligations de notre industrie et ce à quoi elle s'est déjà engagée; un appel à notre gouvernement pour qu'il établisse un dialogue continu au moyen d'un partenariat public-privé; les types de répercussions que tout cela aura sur notre main-d'œuvre, les besoins en matière de recyclage, de perfectionnement et de formation; des recommandations visant à renforcer la confiance dans l'intelligence artificielle.
    Le Canada est reconnu comme un chef de file mondial de la recherche-développement en matière d'intelligence artificielle. Il attire des personnalités de calibre mondial dans ses universités à la grandeur du pays pour qu'elles étudient dans ce domaine. Il bénéficie déjà des avantages de l'intelligence artificielle dans un certain nombre de domaines. Tant les entreprises en démarrage que les PME et les grandes entreprises technologiques actives mondialement s'en prévalent: elles ont toutes mis au point des systèmes d'intelligence artificielle pour tenter de résoudre certains des problèmes les plus pressants des entreprises ou de la société. D'autres utilisent l'IA pour optimiser l'efficacité de leur chaîne d'approvisionnement, améliorer les services publics et faire progresser la recherche de pointe. Les solutions qu'apporte l'IA — qui exploite de grands ensembles de données tout en tirant parti d'une capacité de traitement accrue et en faisant preuve d'une grande ingéniosité — peuvent s'appliquer à un certain nombre de problèmes sociaux ou commerciaux. L'analyse prévisionnelle en santé et les véhicules automatisés et connectés, qui améliorent la mobilité humaine et réduisent la circulation en sont quelques-uns qui ont un effet fulgurant sur notre environnement.
    Les systèmes d'IA nécessitent le traitement d'impressionnantes quantités de données. La disponibilité de données solides et représentatives, souvent anonymisées, est nécessaire à la conception et à l'amélioration des systèmes d'intelligence artificielle et d'apprentissage automatique. Nous ne saurions trop insister sur le fait que l'accès à de grandes quantités de données est essentiel à l'amélioration du potentiel de l'intelligence artificielle au Canada.
    Cela dit, l'écosystème de l'IA est mondial. Il est très concurrentiel et comporte de multiples facettes. Notre association favorise une approche multipartite à l'égard de l'intelligence artificielle: elle souhaite que le Canada soutienne la coopération mondiale quant aux politiques qui la régissent, afin que toutes les sociétés puissent se prévaloir de ses avantages potentiels pour prospérer.
    J'aimerais proposer au Comité six facteurs à prendre en considération.
    Premièrement, les industries traditionnelles sont déjà à l'avant-garde pour ce qui est de profiter des occasions que l'intelligence artificielle rend disponibles. Qu'il s'agisse du pétrole et du gaz, de l'exploitation minière, de la foresterie ou de l'agriculture, tous recourent désormais à cette technologie pour accroître leur efficacité et être concurrentiels à l'échelle mondiale. Ils conçoivent de nouveaux services et de nouveaux produits en fonction des résultats d'analyse de données par l'intelligence artificielle.
    Deuxièmement, l'IA est un processus en constante évolution. Elle continuera de progresser au cours des prochaines décennies.
    Troisièmement, toute transition économique vers le numérique s'accompagnera d'une transformation culturelle, et la désinformation sur le sujet peut détruire la confiance des consommateurs et des citoyens envers les nouvelles technologies et l'intelligence artificielle.
    Quatrièmement, la main-d’œuvre subira des perturbations, mais selon ce que l'histoire nous a appris, nous croyons que les nouvelles technologies, y compris l'IA, créeront plus de possibilités d'emploi qu'elles n'en élimineront.

  (1610)  

     Cinquièmement, nous avons besoin de partenariats pour la formation de la main-d’œuvre, notamment pour le recyclage et le perfectionnement des compétences des employés actuels, car leur rôle actuel sera appelé à se transformer.
    Sixièmement, il faut des politiques pour la prochaine génération, car ce sont des technologies de la prochaine génération. Il est temps de changer de paradigme.
    Lorsque je suis entré à la fonction publique en 1999, l'un de mes premiers emplois consistait à participer à l'élaboration de la LPRPDE. J'ai également été l'un des principaux architectes de la Loi canadienne anti-pourriel. Mon mémoire de maîtrise a porté sur les raisons pour lesquelles les PME avaient du mal à se conformer à la LCAP et à la LPRPDE, alors il y a 17 ou 18 ans que j'y travaille. Il est intéressant de noter que nous n'avons jamais prévu l'impact que les données auraient sur nos cadres législatifs actuels. Nous ne pouvions pas prévoir, alors que nous rédigions la LPRPDE ou la LCAP, l'avènement des entreprises axées sur les données que nous voyons aujourd'hui.
    Ensuite, je voudrais parler de l'obligation de l'industrie de promouvoir le développement et l'utilisation responsables de l'intelligence artificielle.
    Premièrement, nous reconnaissons notre responsabilité d'intégrer des principes et des valeurs dans la conception même des technologies de l'IA, au-delà des exigences législatives existantes. Bien que les avantages potentiels de l'IA pour la société soient formidables, les chercheurs, les experts et les intervenants dans le domaine devraient continuer de consacrer beaucoup de leur temps au travail de conception et de déploiement responsables des systèmes d'IA, notamment à l'aide de mécanismes de sécurité et de contrôlabilité et avec des données fiables et représentatives. Ceci faciliterait l'interprétation, car les solutions doivent être adaptées aux risques que présente le contexte particulier dans lequel un système est appelé à fonctionner.
    Deuxièmement, en ce qui concerne la sécurité, la contrôlabilité et la fiabilité, nous croyons que les technologues ont la responsabilité d'assurer la conception sécuritaire des systèmes d'IA. Les agents intelligents autonomes doivent considérer comme primordiale la sécurité des utilisateurs et des tiers, et la technologie de l'IA doit s'efforcer de réduire les risques pour les humains. En outre, les systèmes d'IA autonomes doivent être assortis de mesures de sécurité pour assurer leur contrôlabilité et leur adaptation au contexte particulier dans lequel ils sont appelés à fonctionner.
    Troisièmement, il faut des données fiables et représentatives, assorties d'un moyen d'atténuer l'effet des a priori. Afin de promouvoir l'utilisation responsable des données et d'assurer l'intégrité de celles-ci à chaque étape, l'industrie a la responsabilité de comprendre les paramètres et les caractéristiques des données, de reconnaître, preuves à l'appui, les tendances potentiellement préjudiciables et d'effectuer des tests dans le but de déceler des distorsions interprétatives potentielles avant et pendant la mise en route des systèmes d'IA.
    Les systèmes d'IA doivent exploiter de grands ensembles de données. La disponibilité de données fiables et représentatives dans le but de construire et d'améliorer les systèmes d'IA et d'apprentissage automatique est de la plus haute importance.
    Soit dit en passant, cela pourrait constituer un avantage concurrentiel important pour le Canada. Nous avons une population représentative à l'échelle mondiale, avec des communautés autochtones notamment. On pourrait très bien la cibler lors de tests médicaux et de tests utilisant l'intelligence artificielle dans le domaine médical.
    En ce qui concerne l'interprétation, nous devrions établir des partenariats public-privé pour trouver des façons de mieux atténuer les distorsions interprétatives, les inégalités et d'autres préjudices potentiels imputables à des systèmes automatisés de prise de décisions. On ne peut trouver de telles solutions qu'en adaptant un système particulier aux risques uniques présents dans un contexte.
    Enfin, l'utilisation de l'IA pour prendre des décisions importantes concernant des personnes de façon autonome — décisions qui sont informées par des humains, mais souvent prises en remplacement de ceux-ci —, a suscité des préoccupations quant à la responsabilité. En accord avec les lois et règlements actuellement en vigueur, notre industrie s'est engagée à établir des partenariats avec les intervenants pertinents afin de créer un cadre de responsabilisation sensé pour tous les intervenants, dans un contexte de systèmes automatisés.

  (1615)  

     Nous croyons que nous devrions créer un partenariat public-privé apte à accélérer la R-D sur l'IA, à démocratiser l'accès aux données, à garantir la diversité et l'inclusion en priorité et à préparer notre main-d’œuvre aux emplois de l'avenir. Les membres de l'ACTI croient également qu'il faut accorder la plus grande importance à l'instauration d'un cadre réglementaire efficace et équilibré sur la responsabilité, qui reposerait sur la participation continue de groupes d'experts multipartites. Seul un échange ouvert entre tous les intervenants en IA permettra d'arriver à la bonne solution.
    Si la valeur de l'IA ne profite qu'à certaines organisations, on risque d'exacerber les écarts salariaux et les écarts de richesse existants. Dans le scénario proposé, ce ne serait pas « nous contre eux » ou« privé contre public ». Ce serait juste « nous ». Il faudrait miser davantage sur les partenariats pour concevoir une économie numérique axée sur les données plus sûre et plus fiable.
    On craint que l'IA n'entraîne des changements sur le plan de l'emploi, comme des pertes d'emplois et des déplacements de travailleurs. Bien que ces préoccupations soient compréhensibles, il convient de souligner que la plupart des technologies d'IA émergentes sont conçues pour accomplir une tâche précise ou pour aider un être humain à augmenter sa capacité plutôt que de le remplacer. Ce type d'intelligence augmentée signifie qu'une partie — probablement pas la totalité — du travail d'un employé pourrait être remplacée ou facilitée par l'intelligence artificielle.
    Utiliser l'intelligence artificielle pour accomplir les tâches secondaires d'un employé est une façon d'accroître sa productivité et de lui donner du temps pour s'occuper du service à la clientèle ou de s'investir plus activement dans des fonctions à valeur ajoutée. Néanmoins, bien que l'on ne connaisse pas encore tous les effets de l'IA sur l'emploi, sur la création ou le déplacement de postes, il est essentiel de pouvoir s'adapter aux changements technologiques rapides. Il faut tirer parti des ressources traditionnelles axées sur les personnes et des modèles de formation professionnelle, et utiliser les nouvelles technologies de l'IA pour aider à former la main-d'œuvre actuelle et future, afin d'aider les Canadiens à effectuer les bonnes transitions de carrière.
    Monsieur Leduc, vous avez dépassé votre temps de deux minutes. Votre exposé devait durer 10 minutes.
    Je vais faire vite. Passons à la diapositive suivante, dans laquelle vous pouvez voir nos recommandations à l'écran: accorder la priorité à la compétitivité du Canada; promouvoir l'innovation et les pratiques éthiques en matière d'IA; adopter des normes mondiales; tirer parti des investissements dans la R-D sur l'IA; mobiliser une approche réglementaire équilibrée et souple. Je pense que cela nous donne l'occasion de joindre protection de la vie privée et cybersécurité.
    En résumé, un grand nombre, sinon la totalité des utilisations de l'IA vont nécessiter des données — des données personnelles, dans certains cas — et l'utilisation responsable de ces données est essentielle. Une réglementation trop lourde ou des exigences trop nombreuses en matière de rapports pourraient limiter les avancées innovatrices de l'IA. Il faut trouver un juste équilibre. L'industrie suivra les principes clés quant à l'utilisation responsable des données personnelles en IA. Nous croyons que ces principes sont repris dans la toute première charte numérique du Canada, que nous appuyons comme cadre de base pour le lancement d'une IA fiable, éthique et sécuritaire pour les Canadiens.
    Merci.
    Merci, monsieur Leduc. Je m'excuse d'avoir limité l'AI à 10 minutes. J'imagine que c'est tout un défi. Vous avez fait un bon travail.
    Quoi qu'il en soit, c'est maintenant au tour de M. Saini, pour sept minutes.
    Bonjour, messieurs. Merci beaucoup d'être venus aujourd'hui.
    Monsieur Tang, je vais commencer par vous, parce que nous avons très rarement la visite d'un médecin, et comme je suis pharmacien, j'ai pensé vous interroger en premier.
    Vous avez parlé du livre blanc que vous avez publié. Une chose que j'ai trouvée intéressante, et que je remarque également dans ma propre pratique, porte sur le volet de recherche translationnelle, que vous avez appelé la « vallée de la mort », à cause du manque criant de ressources qui y sont affectées.
    Comment surmonter ce problème? Nous pourrions créer un excellent appareil ou un excellent logiciel, mais le passage de la recherche à l'utilisation clinique est habituellement très difficile.
    Que proposez-vous, sur le plan médical, pour que nous puissions tirer parti de cette technologie prometteuse afin de trouver des applications utiles aux patients?
    Je vous remercie de me donner l'occasion de répondre.
    Par un heureux hasard, le gouvernement fédéral a récemment accordé une subvention du Fonds stratégique pour l'innovation à un consortium dirigé par Imagia Cybernetics, une jeune entreprise canadienne spécialisée dans l'intelligence artificielle en oncologie, ainsi qu'à la Fondation Terry Fox et aux départements de radiologie universitaire de tout le pays, en partenariat avec les quatre plus grands laboratoires de sciences informatiques spécialisés dans l'intelligence artificielle. L'objectif, sur une période de trois à cinq ans, est d'arriver à exploiter les données d'imagerie que nous avons et de créer de nouvelles applications qui pourront être utilisées dans les départements universitaires avant la commercialisation de ces produits.

  (1620)  

     Ma deuxième question s'adresse à M. Leduc.
    À voir l'avènement de l'intelligence artificielle ou l'avènement de la technologie, il est clair que le progrès humain vient de franchir une nouvelle étape. L'automatisation a été créée pour effectuer des tâches répétitives, des tâches pour lesquelles la capacité intellectuelle n'était pas nécessaire, justement à cause de leur nature répétitive. Nous entrons maintenant dans une autre phase, une phase de l'industrialisation ou de notre croissance économique — peu importe comment on veut l'appeler — où l'intelligence artificielle a désormais la capacité d'accomplir des tâches intellectuelles.
    Maintenant, à cause de l'automatisation des tâches répétitives, il est possible de créer des algorithmes et de l'intelligence artificielle par l'entremise de l'apprentissage automatique pour améliorer la prise de décisions.
    Comment composer avec le sous-emploi potentiel d'une catégorie de personnes instruites ou formées pour appliquer leur intelligence à n'importe quelle tâche?
    Plusieurs éléments sous-tendent cette question.
    Premièrement, je pense qu'il faudra être ouvert à l'apprentissage continu. Je pense que nous allons assister à l'automatisation d'un bon nombre de tâches simples et répétitives et de certaines décisions humaines. Il faut voir que — et si nous remontons le fil de l'histoire, nous voyons bien que ce n'est pas la première fois — lorsque l'automobile a été inventée, on n'a plus eu besoin de garçons ou d'écurie pour le cheval et la charrette. Dans notre propre secteur, nous avons remplacé les opérateurs qui marchaient devant des tableaux de distribution et allumaient des interrupteurs. Nous les avons remplacés par un routeur et un commutateur.
    Nous croyons que la possibilité qu'offrent ces technologies de créer plus d'emplois sera plus importante que les perturbations occasionnées. Cela dit, les gens qui ont des emplois où les tâches sont répétitives sont souvent les plus vulnérables, et je pense que nous devrons offrir des programmes de recyclage des compétences et de perfectionnement à l'intention des personnes qui seront déplacées en raison de ces nouvelles technologies.
    Il faut s'y attendre. C'est inévitable. Les entreprises vont s'efforcer de devenir plus efficaces, car elles se doivent d'être concurrentielles à l'échelle mondiale. Si elles peuvent tirer parti de l'IA pour accomplir certaines tâches au sein de l'entreprise, c'est ce qu'elles choisiront, par mesure d'économie.
    J'aimerais vous poser une autre question.
    Je suis sûr que vous connaissez tous le terme « singularité ». On peut voir la singularité comme un simple terme relevant de la science-fiction dans les cas où des machines finissent par devenir les maîtres d'êtres humains, qu'elles dominent. Toutefois, prenons un peu de recul par rapport à ceci.
     À la base, l'intelligence artificielle et l'apprentissage automatique ont pour but de surpasser l'intelligence et l'efficacité humaines. Au bout du compte, cependant, la composante humaine est encore nécessaire. Si nous prenons la technologie telle qu'elle est et que nous programmons les appareils selon certains paramètres, il y aura toujours un humain qui fera des calculs au besoin, au fur et à mesure. J'ai lu que l'on programmait les voitures autonomes pour qu'elles roulent à la vitesse permise, mais les humains, eux, ne respectent pas toujours la limite de vitesse. Comment pallier cela?
    Si nous considérons la singularité comme le but ultime, comment nous assurer que la dimension humaine demeurera présente? Nous voulons les avantages. Nous voulons les ressources que l'intelligence artificielle et l'apprentissage automatique peuvent offrir, mais comment nous assurer que l'apport humain demeure et que les décisions soient prises dans l'intérêt humain?
    C'est une question facile. Prenez 20 secondes.
    Des voix: Oh, oh!
    J'ai souligné dans notre exposé que toute intelligence artificielle nécessitait encore un contrôle humain. Elle doit fonctionner selon des directives humaines. Au bout du compte, l'inconnu suscite beaucoup de craintes, mais je pense qu'il sera important de permettre à l'industrie d'établir des normes et, en cas de défaillances du marché, de la laisser créer les cadres législatifs et réglementaires appropriés pour corriger ces défaillances.
    Ce que l'industrie souhaite, c'est un dialogue continu et une réglementation équilibrée. Nous ne prétendons pas que la réglementation n'a pas sa place. Nous comprenons que l'établissement de nos propres normes n'est pas toujours indiqué. Certaines défaillances du marché appelleront des mesures législatives ou réglementaires. Nous recommandons que cela se fasse par le dialogue et que les mesures soient équilibrées, de sorte qu'elles n'entravent pas nos possibilités d'innovation et notre capacité de faire de la R-D dans ce domaine.

  (1625)  

    Voici une dernière question. Vous pourrez répondre à l'autre question, mais je veux être certain de pouvoir la poser.
    Il y a eu des discussions philosophiques selon lesquelles — en raison de la course mondiale à l'intelligence artificielle et à l'apprentissage automatique, certains ont émis cette observation — nous devrions peut-être procéder étape par étape, parce que la recherche dépasse grandement toute capacité législative ou toute compréhension que les humains pourraient avoir des implications morales et éthiques de l'intelligence artificielle ou des façons de les gérer.
    Diriez-vous que nous devrions nous donner un cadre qui nous permettrait, à mesure que certaines étapes sont franchies dans l'évolution de l'IA, de réfléchir posément à la façon de gérer la prochaine phase de développement?
     Je vais revenir là-dessus.
    Le problème, c'est que tout le monde ne respectera pas les mêmes règles. C'est comme une course à l'espace mondiale. Nous sommes maintenant dans une course à l'intelligence artificielle. Notre pays a investi beaucoup de temps, d'argent et d'énergie pour être un chef de file en recherche-développement, en conception d'algorithmes et en intelligence artificielle. Nous devons pouvoir commercialiser cette R-D et promouvoir nos capacités en IA.
    Si nous faisions une pause et prenions le temps d'examiner la chose — et qu'il nous faille quelques années pour le faire —, nous érigerions essentiellement un obstacle que nos concurrents mondiaux dans le domaine n'auraient pas. C'est pourquoi nous disons qu'il faut maintenir le dialogue. Je pense que c'est merveilleux que vous ayez soulevé cette question pour étude, mais je pense que la question des données, de l'exploitation des données, de la protection des renseignements personnels, des cadres qui sont adaptés à la situation actuelle et des problèmes entourant le consentement... Nous en avons déjà fait le tour. Ce comité s'intéresse à cela et y a travaillé pendant une bonne partie des 20 dernières années. Consacrer plus de temps à des analyses nuira à notre compétitivité.
    Votre temps est écoulé depuis longtemps. Merci.
    Je dois donner la parole à M. Kent pour sept minutes.
    Merci, monsieur le président.
    Merci à tous d’avoir ajouté quelques nouvelles dimensions à notre étude sur le gouvernement numérique, les menaces numériques, la protection de la vie privée et ainsi de suite.
    J’aimerais d’abord m’adresser à M. Mittelstadt au sujet de la vulnérabilité d’énormes quantités de données hautement personnelles dans l'ensemble de la société — la médecine, la santé, etc., les affaires — ainsi que de la responsabilité et de la réglementation.
    J’aimerais que vous nous disiez en quoi l’adoption du Règlement général sur la protection des données (RGPD), le nouveau spectre de la réglementation en Europe, assorti de sanctions importantes en cas d’atteinte à la vie privée ou d’utilisation inappropriée de renseignements personnels, a modifié le développement de l’intelligence artificielle dans ses diverses applications, mais aussi les précautions qui ont été prises dans diverses industries, comme l’industrie de la santé ou les médias sociaux.
    Je peux dire certaines choses. En grande partie, l’impact du RGPD est encore incertain parce qu’il est tellement vague ou que les exigences qu’il impose ne sont pas tout à fait claires pour le moment. De nombreuses plaintes ont été déposées au niveau des États membres et sont toujours traitées par les autorités nationales de protection des données.
    Nous obtiendrons plus de précisions à ce sujet et aussi à mesure que les affaires seront portées devant les tribunaux nationaux et européens. Les amendes sont très élevées. Comme les autorités chargées de la protection des données commencent à les imposer, je pense que nous allons commencer à voir quelles seront les répercussions réelles au cours des deux ou trois prochaines années en particulier.
    Pour ce qui est de l’incidence réelle sur le développement de l’IA, je dirais que l’un des effets — même si l’on peut soutenir que la directive de 1995 sur la protection des données a également eu cet effet — a été d’encourager les développeurs à anonymiser ou à dépersonnaliser les données avant de faire quoi que ce soit d’intérêt avec celles-ci, parce que dès que cela se produit, essentiellement, le RGPD ne s’applique plus. Il s’applique au processus de désidentification, et si vous associez de nouveau les connaissances que vous créez aux personnes concernées, mais il ne s’applique à rien de ce que vous faites à l’étape intermédiaire.
    Je dirais que c’est un aspect négatif. Sur une note positive, je dirais que le RGPD a encouragé un plus grand nombre de développeurs à réfléchir à la façon dont les êtres humains peuvent être pris en compte dans la prise de décisions automatisées, parce qu’il y a plusieurs droits qui entrent en jeu pour les processus uniquement automatisés — soit, essentiellement, l’IA qui ne compte sur personne pour aider à prendre une décision ou pour intervenir dans une décision.

  (1630)  

    On peut supposer que l’élément prépondérant du consentement toucherait à tout cela.
    Assurément. Mes commentaires sur le consentement s’appliquent certes ici. Il y a des limites à la façon dont les données peuvent être réutilisées, mais encore une fois, elles ne s’appliquent qu’aux données identifiables, alors leur applicabilité est limitée.
    Monsieur Leduc, que pense l’Association canadienne de la technologie de l’information d’un règlement semblable au RGPD — pas nécessairement le même, mais une réglementation beaucoup plus rigoureuse que celle qui existe aujourd’hui au Canada?
     Nous suivons ce dossier de très près. Nous avons examiné les répercussions positives et négatives du RGPD dans le contexte européen. Ce qui est positif, c’est l’amélioration du droit à la vie privée des citoyens européens. Le côté négatif, comme mon collègue l’a souligné, c’est qu’il y a un manque de transparence et un manque de directives claires et simples sur la façon de se conformer.
    Cela n’a pas d’incidence particulière sur les plus grandes organisations, qui ont des équipes d’avocats pour scruter la loi et déterminer comment s’y conformer, même si c’est un fardeau financier pour eux. Par contre, il a une incidence particulière sur les petites et moyennes entreprises. Nous avons constaté un impact important dans l’Union européenne.
    Ce n’est pas que nous n’accueillerions pas favorablement l'intégration de principes de type RGPD à notre charte numérique, à la stratégie de données du Canada et aux améliorations apportées à la LPRPDE, mais je me garderais bien de reproduire intégralement le modèle du RGPD. Pour les multinationales, cela pourrait faciliter un peu la conformité, parce qu’elles sont déjà conformes au RGPD, mais pour les PME, faire le saut de ce qui est aujourd’hui la LPRPDE et passer à un cadre semblable au RGPD sans directives claires et simples sur la façon de se conformer à la loi aurait un impact négatif important sur les petites et moyennes entreprises.
    Voulez-vous dire que cela aurait un effet dissuasif sur la recherche et le développement?
    Je ne parle pas seulement de cela, mais aussi du coût de la conformité. Nous avons vu des rapports de l’Union européenne selon lesquels il en coûte en moyenne environ 100 000 $ américains pour se conformer au RGPD. Ce n’est pas beaucoup d’argent pour une très grande organisation, mais pour une petite entreprise de 10 personnes qui a potentiellement un million de dollars de revenus, la totalité de sa marge bénéficiaire de 10 % est ainsi grugée.
    C’est un aspect que j’ai étudié en profondeur pendant environ un an et demi. L’absence d’outils simples et de directives de conformité pour les PME nuit à leur capacité de se conformer aux lois sur la protection de la vie privée.
    Je vais maintenant passer à messieurs Tang et Neuheimer.
    J’ai lu avec grand intérêt votre page « Qui sont les radiologistes? » En ce qui concerne les pertes d’emploi et la transition à l’emploi découlant de l’apparition de l’IA dans votre domaine, la radiologie, il semble que vous ayez des préoccupations au sujet de la quatrième étape, lors de laquelle le radiologiste effectue une analyse aujourd’hui et renvoie cette analyse à un médecin.
    Si l’intelligence artificielle progresse au point où on nous dit qu’elle évoluera un jour, le travail du radiologiste pourrait — et vous me le confirmerez, mais il semble que ce soit le cas — être réduit à la première interaction avec le patient, lors de la prise de ces images, et vous seriez ensuite hors circuit parce que le médecin pourrait utiliser l’intelligence artificielle pour faire le diagnostic et recommander le traitement.
    Pour paraphraser Mark Twain, je dirais que les rumeurs de notre disparition sont grandement exagérées à ce stade-ci.
    À l'Association canadienne des radiologistes, l'ACR, nous avons abordé cette question de façon conceptuelle. Cette façon de faire permet aussi de répondre à la question précédente: quels sont les différents niveaux d’autonomie des logiciels? Nous faisons une analogie avec la voiture autonome et nous créons une échelle de zéro à cinq, dans laquelle zéro indique qu’il n’y a pas d’automatisation du tout, et où vient ensuite l'aide d'un médecin, l’automatisation partielle, l’automatisation élevée et, enfin, l’automatisation complète. Rien ne permet de croire pour l'instant que le travail accompli par les radiologistes sera remplacé.

  (1635)  

    Non.
    Nous voyons toutefois de nombreuses applications utiles pour des tâches précises qui sont répétitives et banales et qui nous libéreraient du temps pour accomplir des tâches plus importantes, comme la communication, l’explication des procédures aux patients ou même l’exécution de ces procédures et la participation à des comités des thérapies du cancer. Cela serait beaucoup plus productif.
    Merci, monsieur Kent. Le temps est écoulé depuis longtemps.
    Merci.
    Monsieur Boulerice, vous avez sept minutes.

[Français]

     Merci, monsieur le président.
    Je remercie tout le monde d'être ici aujourd'hui pour cette étude et les importantes questions qu'elle soulève. Nous vivons dans un monde où l'intelligence artificielle va prendre de plus en plus de place. On va lui confier davantage de responsabilités. Elle va prendre des décisions de plus en plus complexes parce que ses algorithmes seront capables de traiter une quantité incalculable de données à une vitesse supérieure à celle de n'importe quel cerveau humain.
    Je veux poser mes premières questions à MM. Leduc et Mittelstadt, en lien avec l'éthique en matière d'intelligence artificielle.
     Un algorithme ou un superordinateur est en soi incapable de faire montre de discrimination ou d'un parti pris. Par contre, l'être humain qui programme les algorithmes en est capable, lui, et ce, à différentes étapes: lors de la collecte des données, pendant leur traitement, ou encore lors de la préparation des questions auxquelles l'algorithme sera chargé de trouver une réponse.
    Selon vous, comment, lors de ces différentes étapes, peut-on éviter ces préjugés humains normaux, mais qui pourraient donner des résultats discriminatoires? Lequel de vous deux veut plonger dans cette question facile?

[Traduction]

    Peut-être que M. Mittelstadt pourrait commencer et je suivrai ensuite.

[Français]

     D'accord.
    Monsieur Mittelstadt, voulez-vous prendre la parole?

[Traduction]

     Je suis heureux de répondre à cette question.
    C’est une question très importante, à savoir comment nous identifions le biais à mesure qu’il est détecté par les algorithmes et comment nous l’atténuons une fois que nous savons qu’il existe. Je pense que la façon la plus simple d’expliquer le problème est que, comme nous vivons dans un monde biaisé et que nous formons des algorithmes et de l’IA au moyen de données sur le monde, il est inévitable que les algorithmes détectent ces préjugés et qu’ils finissent par les reproduire ou même en créer de nouveaux dont nous ne sommes pas conscients.
    Nous avons tendance à penser au biais en ce qui concerne les attributs protégés — des aspects comme l’origine ethnique, le sexe ou la religion, qui sont historiquement protégés pour de très bonnes raisons. Ce qui est intéressant à propos de l’IA, c’est qu’elle peut créer de tout nouveaux ensembles de préjugés qui ne correspondent pas à ces caractéristiques ou même à des caractéristiques qui sont humainement interprétables ou humainement compréhensibles. Il est très difficile de détecter ce genre de biais en particulier, et il faut essentiellement examiner l’ensemble des décisions ou des extrants d’un système algorithmique pour essayer de déterminer les cas où il y a des répercussions disparates sur des groupes particuliers, même s’ils ne sont pas protégés par la loi.
    En outre, il y a beaucoup de recherche, et des méthodes sont en cours d’élaboration pour déceler les lacunes dans la représentativité des données et aussi pour détecter les substituts des attributs protégés qui peuvent ou non être connus à l’étape de la formation. Par exemple, le code postal est un très bon indicateur de l’origine ethnique dans certains cas. Il s’agit de découvrir de nouvelles sortes d’approximations comme celle-là.
    Encore une fois, il y a de nombreux types de tests — méthodes automatisées, méthodes d'audit — qui consistent essentiellement à analyser les données de formation de l’algorithme pendant qu’il effectue le traitement et les séries de décisions qu’il produit.
    Il n’y a donc pas de solution simple, mais il y a des méthodes disponibles à toutes les étapes.

[Français]

    Merci.
    Monsieur Leduc, c'est à vous.
    Comme l'a dit M. Mittelstadt, en matière d'intelligence artificielle, les occasions sont fréquentes où des biais sont créés dans les données elles-mêmes et dans les codes générés relativement à l'intelligence artificielle. Nous suggérons que, dans l'industrie, il y ait une revue à chaque étape, qu'on soit en train de développer un algorithme, d'utiliser les bases de données ou de faire l'analyse des données. Le but est de s'assurer que les résultats émanant des processus d'intelligence artificielle ne comportent pas de biais.

  (1640)  

    J'ai une question complémentaire, qui va un peu dans le même sens. Tout le monde pourra y répondre.
    Les algorithmes de l'intelligence artificielle prendront des décisions qui auront un impact sur la vie des gens. Ils seront utilisés pour la reconnaissance faciale, l'identification, les enquêtes policières, probablement, et les enquêtes sur le crédit. Ils pourront orienter les décisions concernant l'octroi d'un prêt hypothécaire ou d'un prêt à une entreprise ou encore les décisions en matière d'embauche. On va demander à ces algorithmes de formuler des décisions pouvant être considérées justes et équitables.
    Puisque le principe même de ce qui est juste et équitable change selon l'histoire, la culture et l'idéologie, comment peut-on s'assurer d'obtenir des décisions justes et équitables?

[Traduction]

    Quelqu’un veut-il s'attaquer à cette question?

[Français]

     M. Mittelstadt voudrait peut-être répondre.

[Traduction]

    Oui, je serais heureux de répondre à cette question.
    Je pense, comme je l’ai mentionné à la fin de mon exposé, que ce qui sera jugé juste ou éthique dépendra énormément du contexte. Peut-être que le niveau le plus élevé que nous pourrions atteindre pour ce qui est d’appliquer des lignes directrices sur ce qui constitue une décision éthique ou équitable se situerait au niveau sectoriel, où une réglementation en vigueur impose certaines restrictions concernant ce qui est considéré comme permissible ou discriminatoire, parce que tout cela varie selon les secteurs.
    En réalité, c’est une question à laquelle on ne peut répondre qu'à un niveau contextuel. Je pense que nous avons peut-être une longueur d’avance dans le domaine de l’intelligence artificielle qui sera utilisée dans les professions, qui sont déjà autorisées ou légalement reconnues comme telles, où les gens ont des obligations fiduciaires envers leurs clients, parce qu’ils ont un très long historique de pratiques exemplaires, de lignes directrices, de principes et de normes de niveau inférieur, essentiellement, pour définir ce qui constitue un bon comportement et ce qui constitue une bonne décision.
    C’est une question difficile, mais je pense que c’est par là que nous devons commencer.

[Français]

     Merci.
    Monsieur Tang, est-ce que vous vouliez intervenir brièvement?
    Oui, je vais me hasarder à répondre à vos deux questions, car j'ai eu un peu de temps pour y réfléchir.
    Pour la question des biais, je dirais qu'une des stratégies pour les minimiser dans le domaine médical serait de recourir à une grande quantité de données de façon à refléter la population visée, notamment dans la proportion hommes-femmes, l'ethnie ou la tranche d'âge.
    Pour ce qui est de la discrimination, je pense que la meilleure façon de la minimiser est de maintenir l'élément humain dans l'équation et d'impliquer un médecin ou un autre membre du personnel soignant. En effet, au bout ducompte, les soins de santé sont très personnalisés et touchent profondément à l'intimité. Au-delà de la recommandation établie par l'algorithme sur la base d'un vaste échantillon démographique, il va rester la décision patient-médecin.

[Traduction]

     J'aimerais simplement expliquer que nous devions étudier les affaires du Comité dans environ cinq minutes, mais après avoir parlé aux vice-présidents et à tous les partis, nous avons décidé de reporter les travaux du Comité à mardi prochain, si vous pouvez rester jusqu’à 17 heures.
     Est-ce possible? D’accord. Nous avons donc jusqu'à 17 heures pour poser des questions.
    Nous allons passer à M. Erskine-Smith pour sept minutes.
    J’aimerais commencer par vous, monsieur Mittelstadt, et parler d’abord de l’intelligence artificielle, des évaluations des risques et de la transparence algorithmique. Au niveau gouvernemental, il y a maintenant des règles que le Conseil du Trésor a mises en place pour les organismes et les ministères. Il s’agit d’une évaluation des risques, et ensuite, selon les réponses aux 85 questions, les risques sont classés en quatre catégories. Selon l’endroit où ils se produisent, il faut alors prendre des mesures d’atténuation.
    Peut-être, pourriez-vous nous expliquer l’utilité de ce processus, si vous pensez que c’est utile, et les lacunes, si vous pensez qu’il y a des lacunes, et comment nous pouvons améliorer le tout, potentiellement, et les autres mesures qui pourraient être nécessaires.
    Comme j’ai tendance à dire qu’il n’y a pas de solution miracle pour assurer une gouvernance appropriée de ces systèmes, les évaluations des risques peuvent constituer un très bon point de départ.
     Elles sont très efficaces pour permettre de déceler les problèmes avant le déploiement ou avant l’approvisionnement. Par contre, comme leur efficacité dépend entièrement des gens ou des organisations qui les exécutent, elles doivent être assorties d’un certain niveau d’expertise et, potentiellement, de formation — essentiellement, les gens qui les exécutent doivent être conscients des problèmes d’éthique potentiels et les signaler pendant qu’ils remplissent le questionnaire.
    Nous l’avons constaté dans le cas d’autres types d’évaluations d’impact, comme les évaluations des facteurs relatifs à la vie privée, les évaluations d’impact sur l’environnement et, maintenant, les évaluations d’impact sur la protection des données en Europe. Il faut vraiment mettre davantage l’accent sur la formation ou l’expertise des gens qui vont remplir ces formulaires.
    Ces évaluations sont utiles avant le déploiement, mais comme je le disais tout à l’heure à propos des préjugés, des problèmes peuvent surgir après la conception d’un système. Nous pouvons tester un système à l’étape de la conception et à l’étape de la formation et dire qu’il semble équitable, non discriminatoire et impartial, mais cela ne veut pas dire que des problèmes ne surgiront pas lorsque le système sera essentiellement utilisé dans la réalité.
     À toute approche d’évaluation d’impact doit s'ajouter une surveillance interne et une évaluation post-traitement des décisions qui ont été prises, et des normes d'audit très claires quant aux renseignements à conserver et aux types de tests à effectuer après coup, encore une fois, pour éliminer tout risque de biais.

  (1645)  

    C’est utile. Il existe au moins un modèle d’évaluation algorithmique de l’impact qui semble quelque peu transférable, du moins au secteur privé, pour les grandes entreprises, à tout le moins.
    Nous avons recommandé qu’il y ait un pouvoir de réglementation pour effectuer des audits, non seulement par rapport à l’évaluation initiale, mais aussi des audits potentiellement continus. Est-ce le genre de choses...? Devrait-il y avoir un organisme de réglementation ayant le pouvoir de mener des audits des pratiques des entreprises qui utilisent des algorithmes? Est-ce l’idée préconisée?
    Il pourrait s’agir d’un organisme de réglementation. J’ai écouté le témoignage de Christian Sandvig devant le Comité. Il a souligné la différence entre les audits financiers et les audits sociaux, scientifiques et informatiques. Je pense plutôt à ces derniers dans le cas présent.
     Un organisme de réglementation pourrait s'en charger, mais encore une fois, cela pose le problème de savoir si l’organisme de réglementation possède l’expertise requise. Ces gens comprennent-ils le système utilisé? Ont-ils accès au système, aux données qu’il examine et à son utilité? Le fait de s’en remettre uniquement à un organisme de réglementation indépendant peut aussi entraîner certains problèmes.
    Ce que j’aimerais voir, c’est une plus grande volonté, surtout de la part des entreprises privées, de partager un peu plus non seulement les audits qu’elles font de leurs systèmes — en cours de traitement et après traitement —, mais aussi, de façon plus générale, l’impact que les principes éthiques ont eu sur le développement et le déploiement de ces systèmes. Autrement dit, j’aimerais en savoir beaucoup plus sur des cas précis où les entreprises ont fait marche arrière ou ont modifié la conception d'un système par suite d’une évaluation d’impact ou d’un audit.
     N’est-ce pas justement la leçon à retenir jusqu'ici, à savoir que les grandes entreprises qui recueillent de grandes quantités de données et qui utilisent ensuite des algorithmes ne mettent pas en œuvre des principes éthiques dès le départ, et qu’il faut donc leur imposer des règles?
    Je dirais que la mesure dans laquelle ces entreprises mettent en œuvre des principes éthiques n’est pas claire. Je sais que certaines entreprises appliquent des mécanismes de rétroaction, mais ceux-ci ont tendance à être davantage des mécanismes internes. Les entreprises signalent très volontiers les expériences positives, lorsque des considérations éthiques les ont amenées à modifier un système de façon positive ou à concevoir un nouveau type de système, mais pour ce qui est d'auto-évaluations très critiques qui seraient rendues publiques, nous n'en entendons pas beaucoup parler.
    Qu’est-ce qui les incite à faire cela sur le plan économique?
    Dans le premier cas, effectivement, on pourrait dire qu’il n’y a pas d’incitatif économique à le faire, parce que cela peut vous faire paraître pire que vos concurrents.
     En fait, je crains aussi que l’éthique se transforme en un aspect commercialisable au même titre que, disons, le fait d’apposer une étiquette biologique sur votre produit le rend plus éthique et plus précieux. Je ne sais pas... Je suis très cynique à ce sujet.
     Qu’on parle de transparence algorithmique ou d’explicabilité algorithmique, comme le fait le RGPD, lorsque certains d’entre nous sont allés au Royaume-Uni et ont posé des questions à la commissaire à l'information, Elizabeth Denham, elle a répondu que son rôle consistait à rendre l’algorithme le plus facile à expliquer possible, et qu'il revenait à d’autres organismes de réglementation — le commissaire aux droits de la personne, par exemple, ou l’autorité de la concurrence — de mieux l'évaluer, compte tenu de leur expertise.
    De même, des experts de l'aspect technique de l’intelligence artificielle qui ont comparu devant nous au début de cette étude nous ont dit qu'il est sensé d'appliquer des règles de transparence partout, et qu’il faut aussi des organismes de réglementation et des règles propres à chaque secteur, qui tiendraient simplement compte de l’intelligence artificielle. Vous êtes d'accord avec cela?

  (1650)  

    Encore une fois, si les organismes de réglementation sectoriels ont l’expertise requise, et s’ils disposent de ressources suffisantes, cela pourrait fonctionner. Je pense qu'il vaut la peine...
    N'est-ce pas justement la façon de faire? Prenons l’exemple de la réglementation dans le secteur de l’automobile. On utilise l’IA pour les véhicules autonomes. Y a-t-il un organisme de réglementation autonome, qu’il s’agisse du modèle du commissaire à l'information ou du modèle du commissaire à la protection de la vie privée, dont relève la responsabilité des algorithmes? Ou bien les organismes de réglementation et les règles qui s’appliquent au secteur de l’automobile doivent simplement renforcer leur capacité d’évaluation des algorithmes et en rendre compte?
    Le problème, c’est que je peux imaginer que les deux modèles fonctionnent si l’on est ouvert à la réforme des règles sectorielles que l’organisme de réglementation applique. Je ne vois pas pourquoi cela ne pourrait pas fonctionner — encore une fois, en supposant qu’il y ait suffisamment d’expertise et de ressources à la disposition de l'organisme en question.
    Parallèlement, il est tout à fait sensé d’avoir un organisme de réglementation général, du moins pour certains types de problèmes, comme le commissariat à l'information, par exemple, à titre d’organisme responsable de la protection des données. Bon nombre des problèmes liés à l’IA ont trait à la façon dont les données sont recueillies, redéfinies et utilisées. Pour ce genre de problèmes, il est effectivement logique que ces organismes relèvent des défis de l’intelligence artificielle, mais pour d’autres types de problèmes qui sont très étroitement liés à des types précis d’intelligence artificielle, je pense que la meilleure solution passe par un organisme de réglementation sectoriel.
     Merci beaucoup.
    Monsieur Gourde, vous avez cinq minutes.

[Français]

     Merci, monsieur le président.
    Il n'y a pas de doute que l'intelligence artificielle va occuper une place prépondérante dans l'économie mondiale. Or j'ai l'impression que le financement, qui provient majoritairement du secteur privé et, dans une moindre mesure, du secteur public, n'est pas nécessairement destiné à assurer le bien-être de l'humanité.
    Peut-on savoir quelle proportion des budgets en matière d'intelligence artificielle est accordée aux activités militaires et quelle proportion va à la santé?
    Je pense que, dans le domaine de la santé, cela va aider tout le monde. Par contre, dans le domaine militaire, on va créer des armes super puissantes en espérant ne jamais les utiliser. Ces fonds auraient peut-être été plus utiles à l'humanité s'ils avaient été investis dans la santé. Il est certain que les compagnies cherchent à faire du profit. Elles vont là où de l'argent est disponible et où il est facile d'obtenir des contrats. Sur le plan éthique, il va y avoir un problème à l'échelle mondiale.
    Qu'en pensez-vous, messieurs Leduc et Tang?
     En ce qui concerne les produits et les services fournis au ministère de la Défense du Canada ou ailleurs dans le monde, je ne crois pas que ce soit très différent de ce qu'on observe dans les secteurs traditionnels. En discutant de l'éthique liée à l'intelligence artificielle, nous cherchons à déterminer dans quels cas notre société va approuver l'utilisation de l'intelligence artificielle et dans quels autres cas l'intelligence artificielle risque d'être utilisée pour développer des produits destinés à des militaires dont le pays est en conflit avec le nôtre. Il y a toujours des risques.
     Pour ce qui est du financement, je ne connais pas la réponse. Je ne peux donc pas vous répondre. Le ministère de la Défense, lorsqu'il veut régler des problèmes auxquels il fait face, utilise souvent les outils qui peuvent lui être fournis. De plus en plus, nous voyons dans notre domaine que l'intelligence artificielle est intégrée à toutes les technologies. De façon implicite ou explicite, des décisions seront donc prises de plus en plus par l'intelligence artificielle, simplement pour que les produits et les services soient plus efficaces.

  (1655)  

    Historiquement, le Canada a vraiment été avant-gardiste en finançant la recherche fondamentale, notamment par l'entremise du CIFAR, l'Institut canadien de recherches avancées. Celui-ci a permis à des laboratoires de recherche canadiens de jouer un rôle de chef de file international, notamment dans le domaine de l'apprentissage profond, qui a généré l'intérêt récent pour l'intelligence artificielle.
     En outre, le gouvernement fédéral a financé des initiatives comme le Fonds d'excellence en recherche Apogée Canada, qui est un concours, notamment pour l'initiative Les données au service des Canadiens. Cette initiative a permis de transformer les connaissances fondamentales en application dans quatre secteurs particuliers: la santé, la logistique, le commerce en ligne et le secteur financier. Il y a des exemples concrets de financement d'activités utiles. De plus, le fait de soutenir des telles activités de recherche a comme effet d'attirer une masse critique d'industries qui vont investir dans le domaine.
    Monsieur Mittelstadt, voulez-vous ajouter quelque chose?

[Traduction]

     Je peux parler un peu, je suppose, pas précisément de la question du budget, même si je constate que, particulièrement dans la recherche sur l’explicabilité ou l’interprétabilité de l’intelligence artificielle, le département de la Défense des États-Unis y consacre énormément d’argent, et ce que nous avons vu, du moins dans le passé, c’est un croisement avec le secteur privé au titre des progrès de la technologie militaire. En outre, il se fait beaucoup de recherches universitaires et commerciales en dehors du contexte militaire.
     À part cela, je n'ai pas grand-chose à dire, surtout que je ne connais pas très bien le contexte canadien.

[Français]

    Merci.

[Traduction]

    Merci, monsieur Gourde.
    Le dernier intervenant pour cinq minutes est M. Picard.

[Français]

    Monsieur Tang, vous avez dit tout à l'heure que l'information pourrait être rendue anonyme, de façon à ce qu'on ne puisse pas établir de lien entre le patient et l'information.
    Cette pratique, qui est destinée à protéger l'individu, n'a-t-elle pas un effet pervers? En effet, une fois que l'information est anonyme, on n'a plus besoin de consentement pour réaliser les études que l'on veut avec les données que l'on a.
    Cela peut être abordé sous divers angles. Il faut savoir à quel endroit l'information est rendue anonyme. Si les données restent à l'intérieur d'un hôpital, par exemple, et que seuls les algorithmes en sortent, il n'y a aucun manquement à l'obligation de confidentialité. Dans ce cas, seuls les chercheurs et les médecins impliqués connaissent l'identité du patient. En outre, il y a un domaine de recherche qui permet de mettre en commun l'enseignement de plusieurs établissements, ce qui est extrêmement avantageux. On peut effectivement garder les données à l'intérieur des établissements, et seul le processus d'apprentissage est partagé par plusieurs hôpitaux.

[Traduction]

     Monsieur Mittelstadt, pouvez-vous revenir sur ce que vous avez dit au sujet de la protection des données, par opposition à celle des gens? Avez-vous dit que nous avons protégé les données, mais pas les gens, ou que nous devrions protéger les données et pas nécessairement les gens, parce que c’est l'idée directrice derrière l’intelligence artificielle?
    Pouvez-vous nous expliquer cela, s’il vous plaît?
    Oui. Je vous remercie de votre question.
    Je voulais dire par là que les lois sur la protection des données et sur la protection de la vie privée sont conçues pour protéger les gens — ou du moins c’était leur inspiration de départ — et pour protéger la vie privée sous toutes ses différentes formes.
    Toutefois, sur le plan fonctionnel ou procédural, elles finissent par protéger les données produites par les gens. Cela me ramène aux commentaires que j’ai faits au sujet du consentement éclairé et de la nécessité de pouvoir identifier les personnes pour que la loi puisse s’appliquer en premier lieu. Comme on l’a répété tout au long de la séance d’aujourd’hui, une fois les données dépersonnalisées ou anonymisées, on peut toujours faire des choses très intéressantes avec pour créer des connaissances très utiles sur des groupes de personnes, qui peuvent ensuite être appliquées à ces groupes. Dans le domaine de la recherche médicale, c’est très louable, mais dans d’autres secteurs, peut-être pas autant.
    Cela laisse entendre que nous devons alors trouver une façon légale de... Comme il n’est pas possible de séparer les données des personnes, lorsqu’il y a préjudice aux données, quelqu’un subit un préjudice, parce que les données concernent toujours quelqu’un. Vous pouvez protéger quelqu’un, mais vous ne pouvez pas poursuivre les données en justice, et les données sont au centre de l’attention.
    Y a-t-il quelque chose qui nous manque sur le plan juridique?

  (1700)  

    Je dirais qu'il manque quelque chose un peu partout sur le plan juridique. Il est extrêmement difficile de traiter des aspects collectifs de la protection de la vie privée et des données. Il n’y a pas vraiment de cadre juridique satisfaisant pour cela, sauf pour des formes particulières de préjudices comme la discrimination.
    On pourrait donc dire qu’il nous manque effectivement quelque chose sur le plan juridique.

[Français]

     Monsieur Leduc, vous m'avez surpris en disant que tout le monde avait été pris de court et que personne n'avait prévu l'importance que prendraient les données ni l'influence que l'information aurait sur notre quotidien.
    Or, on parle de l'information, de sa valeur ajoutée et de sa commercialisation depuis déjà un certain temps, si l'on se rappelle Le choc du futur d'Alvin Toffler et surtout son livre La troisième vague, publié en 1980. Ce n'est donc pas d'hier que l'on sait que l'information a une valeur extraordinaire et précieuse. Pourrait-on conclure que l'on a choisi de se fermer les yeux plutôt que dire que l'on n'avait rien vu venir?
    Ce n'est pas qu'on a fermé les yeux. On a plutôt mis la priorité sur le développement de projets de loi qui étaient neutres sur le plan technologique.
     Personne n'aurait pu prédire le volume de données et de transactions qu'un individu peut générer dans une journée parce que, par exemple, on n'avait pas encore inventé le téléphone intelligent. Comme consommateurs ou citoyens, nous utilisons notre téléphone plusieurs fois par jour et échangeons à chaque fois des données avec le fournisseur du service que nous sommes en train d'utiliser.
    Chaque année, nous produisons plus de données que nous n'en avions jusqu'ici généré dans toute l'histoire de l'humanité. Ainsi, en 2018, nous avons produit plus de données qu'il n'y en a eu dans toute l'histoire de l'humanité depuis les tout premiers registres jusqu'en 2017.
     On savait que les données avaient de la valeur, mais personne ne pouvait savoir à quel point la quantité de ces données liées aux interactions entre les consommateurs ou citoyens et les entreprises augmenterait, tout cela étant facilité par les technologies de télécommunications.
    Autrement dit, si j'interprète...

[Traduction]

    D’accord, monsieur Picard, votre temps est écoulé.
    J’en avais une bonne.
    Des voix: Oh, oh!
    Je suis désolé, tout le monde. Je sais que nous pourrions continuer longtemps ainsi. Je pense que la discussion d’aujourd’hui a aussi porté sur les aspects vraiment intéressants de la technologie et de l’évolution de la technologie, mais aussi sur les difficultés liées à la protection de la vie privée et à la sécurité dont M. Picard a parlé aujourd’hui. C’est à nous de relever le défi.
    Merci d’être venus, et j’espère que nous pourrons vous réinviter pour une discussion encore plus approfondie.
    La séance est levée.
Explorateur de la publication
Explorateur de la publication
ParlVU