Passer au contenu
Début du contenu

INDU Réunion de comité

Les Avis de convocation contiennent des renseignements sur le sujet, la date, l’heure et l’endroit de la réunion, ainsi qu’une liste des témoins qui doivent comparaître devant le comité. Les Témoignages sont le compte rendu transcrit, révisé et corrigé de tout ce qui a été dit pendant la séance. Les Procès-verbaux sont le compte rendu officiel des séances.

Pour faire une recherche avancée, utilisez l’outil Rechercher dans les publications.

Si vous avez des questions ou commentaires concernant l'accessibilité à cette publication, veuillez communiquer avec nous à accessible@parl.gc.ca.

Publication du jour précédent Publication du jour prochain
Passer à la navigation dans le document Passer au contenu du document






Emblème de la Chambre des communes

Comité permanent de l'industrie et de la technologie


NUMÉRO 102 
l
1re SESSION 
l
44e LÉGISLATURE 

TÉMOIGNAGES

Le jeudi 7 décembre 2023

[Enregistrement électronique]

  (1535)  

[Français]

    Chers collègues, je déclare la séance ouverte.
    Je vous souhaite la bienvenue à la 102e réunion du Comité permanent de l'industrie et de la technologie de la Chambre des communes. La réunion d'aujourd'hui se déroule sous forme hybride, conformément au Règlement.
    J'aimerais souhaiter la bienvenue, cet après-midi, à Mme Ana Brandusescu, chercheuse en gouvernance de l'intelligence artificielle à l'Université McGill.
    Bonjour, madame Brandusescu.
    J'aimerais aussi souhaiter la bienvenue à M. Alexandre Shee, expert de l'industrie et coprésident entrant, Groupe de travail sur l'avenir du travail, Partenariat mondial sur l'intelligence artificielle, qui se joint à nous par vidéoconférence.
    Bonjour, monsieur Shee.
    De Digital Public, nous recevons Mme Bianca Wylie.
    Je vous remercie d'être avec nous, madame Wylie.
    Finalement, de l'International Association of Privacy Professionnals, nous recevons Mme Ashley Casovan, directrice générale, Centre de gouvernance de l'IA.
    Je vous remercie également, madame Casovan.

[Traduction]

    Sans plus attendre, je vais céder la parole à Mme Brandusescu, qui dispose de cinq minutes. Allez-y.
    Je m'appelle Ana Brandusescu. Je suis chercheuse en gouvernance dans le domaine des technologies de l'intelligence artificielle au gouvernement.
    Dans mon mémoire, que j'ai rédigé en collaboration avec Renee Sieber — une experte du domaine de l'intelligence artificielle et de la participation du public —, nous faisons valoir que la Loi sur l’intelligence artificielle et les données est une occasion ratée de partager la prospérité. La prospérité partagée est un concept économique où les avantages de l'innovation sont répartis équitablement entre tous les segments de la société. L'innovation est retirée des mains d'une minorité — dans ce cas-ci, l'industrie de l'intelligence artificielle — et placée entre les mains de la majorité.
    Aujourd'hui, je vais vous présenter quatre problèmes et trois recommandations de notre mémoire.
    Le premier problème, c'est que la Loi sur l’intelligence artificielle et les données sous-entend une prospérité partagée, mais ne l'assure pas. Dans le préambule du projet de loi, on peut lire ceci: « Attendu que la confiance dans l’économie axée sur le numérique et les données est cruciale pour la croissance de cette économie et pour que le Canada soit plus inclusif et prospère ». Cependant, ce que nous voyons, c'est une concentration de la richesse dans l'industrie de l'intelligence artificielle, surtout pour les grandes entreprises de technologie, ce qui ne garantit pas que la prospérité se répercutera sur les Canadiens. Le fait d'être « axé sur les données » peut tout aussi facilement donner lieu à la surveillance de masse des données et à de nouvelles possibilités de les monétiser.
    Au Canada, on peut facilement associer la confiance à l'acceptation sociale de l'intelligence artificielle, en répétant que l'intelligence artificielle est invariablement bonne. Vous avez sûrement déjà entendu dire qu'il faut prêcher par l'exemple. Ce n'est pas en répétant que l'intelligence artificielle est bénéfique que l'on convaincra les personnes marginalisées qui subissent des préjudices liés à celle-ci, comme les fausses arrestations. Les méfaits de l'intelligence artificielle sont largement couverts par l'étude parlementaire canadienne intitulée La technologie de reconnaissance faciale et le pouvoir grandissant de l'intelligence artificielle.
    Le deuxième problème avec la Loi, c'est la centralisation des pouvoirs entre les mains d'Innovation, Sciences et Développement économique Canada et du ministre de l'Industrie. La structure actuelle est sujette à l'emprise réglementaire. Nous ne pouvons pas faire confiance au ministère de l'Industrie — un organisme qui est chargé à la fois de promouvoir et de réglementer l’intelligence artificielle, sans aucune surveillance indépendante de la Loi — pour assurer une prospérité partagée. Ces deux rôles et responsabilités sont souvent incompatibles et les organismes qui les assurent, comme les organismes de réglementation nucléaire, favorisent inévitablement les intérêts commerciaux au détriment de la responsabilité du développement de l’intelligence artificielle.
     Le troisième problème, c'est l'absence de consultations publiques. À ce jour, il n'y a pas eu de consultation publique démontrée sur la Loi sur l’intelligence artificielle et les données. L'experte du domaine des politiques technologiques Christelle Tessono et bien d'autres ont soulevé cette préoccupation dans leurs mémoires et articles. Jusqu'à maintenant, le processus de consultation sur la Loi a été sélectif. De nombreuses organisations de la société civile et organisations syndicales ont été largement exclues des consultations sur la rédaction de la Loi.
     Le quatrième problème, c'est que la Loi sur l’intelligence artificielle et les données n'inclut pas les droits des travailleurs. Les travailleurs du Canada et du monde entier ne peuvent pas profiter de la prospérité s'ils sont surveillés et souffrent de problèmes de santé mentale en raison des conditions associées au développement des systèmes d'intelligence artificielle. Les chercheurs ont abondamment documenté la nature abusive du travail en matière de développement de systèmes d'intelligence artificielle. La santé mentale des travailleurs en souffre énormément; certains peuvent même se rendre jusqu'au suicide.
    En 2018, Nanjira Sambuli, une experte en gouvernance numérique, m'a parlé de Sama, une entreprise de la Silicon Valley qui travaille pour de grandes entreprises technologiques et qui embauche des travailleurs des données partout dans le monde, y compris au Kenya. Les contrats que Sama a conclus avec Facebook/Meta et OpenAI ont traumatisé les travailleurs.
     Nous avons également vu de nombreux cas de vol de propriété intellectuelle chez les créateurs, comme l'a fait valoir Blair Attard-Frost, qui se spécialise dans la gouvernance de l'intelligence artificielle, dans son mémoire sur l’intelligence artificielle générative.
    Dans le but d'assurer le partage de la prospérité promis avec l'intelligence artificielle, nous proposons trois recommandations.
    Premièrement, il faut revoir la Loi sur l’intelligence artificielle et les données afin qu'elle ne relève pas du ministère de l'Industrie, dans le but d'assurer la reddition de comptes dans les secteurs public et privé. Les nombreux ministères et organismes qui participent déjà aux travaux sur l’intelligence artificielle responsable doivent corédiger la Loi pour le secteur privé et le secteur public et empêcher l’utilisation de technologies nuisibles. Cette version de la Loi obligerait les entreprises comme Palantir, ainsi que les organismes de sécurité nationale et d'application de la loi, à rendre des comptes.
    Deuxièmement, il faut que les lois en matière d'intelligence artificielle assurent les droits des travailleurs. La protection des travailleurs comprend la présence des syndicats, la possibilité de poursuites et des espaces sûrs pour les dénonciateurs. Les travailleurs kényans du secteur des données se sont syndiqués et ont poursuivi Meta en raison des conditions de travail abusives de la société. La Cour suprême leur a donné raison. Le Canada peut suivre l'exemple du gouvernement kényan et écouter ses travailleurs.
    De façon similaire, lors de la grève du syndicat des acteurs, les travailleurs américains ont empêché les sociétés de production de décider quand elles pouvaient utiliser ou ne pas utiliser l'intelligence artificielle, ce qui a démontré que les travailleurs pouvaient avoir une incidence sur la réglementation. Au-delà des syndicats et des grèves, les travailleurs ont besoin de voies sûres et confidentielles pour signaler les préjudices. C'est pourquoi la protection des dénonciateurs est essentielle pour les droits des travailleurs et l'intelligence artificielle responsable.
    Troisièmement, nous avons besoin de la participation significative de la population. Le gouvernement a la responsabilité de protéger sa population et d'assurer le partage de la prospérité. Un cadre législatif solide exige une participation significative du public. La participation stimulera l'innovation, parce que la population nous dira ce qui est bon pour le Canada.
    Merci.

  (1540)  

[Français]

     Merci beaucoup, madame Brandusescu.
    Je donne maintenant la parole à M. Shee pour cinq minutes.
    Monsieur Shee, nous vous écoutons.

[Traduction]

    Mesdames et messieurs les membres du Comité, je vous remercie de me donner l'occasion de témoigner devant vous aujourd'hui.
    Je m'appelle Alexandre Shee. Je suis le coprésident entrant du Groupe de travail sur l'avenir du travail du Partenariat mondial sur l'intelligence artificielle, dont le Canada est un État membre. Je suis directeur d'une société multinationale de l'intelligence artificielle, avocat en règle et investisseur et conseiller dans le domaine de l'intelligence artificielle, en plus d'être le fier papa de deux garçons.
    Aujourd'hui, je vais vous parler exclusivement de la partie 3 du projet de Loi, la Loi sur l'intelligence artificielle et les données, et des amendements récemment proposés.
    Je crois que nous devrions adopter la Loi. Cependant, il faut y apporter des modifications importantes qui vont au-delà de celles qui sont proposées actuellement. En fait, la Loi omet des éléments importants de la chaîne d'approvisionnement de l'intelligence artificielle —  la collecte de données, l'annotation et l'ingénierie — qui représentent 80 % de la du travail effectué dans le domaine de l'intelligence artificielle. Cette partie du travail est faite manuellement par des humains.
    Le défaut d'exiger la divulgation de renseignements sur la chaîne d'approvisionnement de l'intelligence artificielle donnera lieu à des distorsions, à des modèles d'intelligence artificielle de faible qualité et à des enjeux en matière de protection de la vie privée. Plus important encore, ce défaut entraînera la violation des droits de millions de personnes au quotidien.
    Des amendements récents ont remédié à certaines des lacunes de la Loi en intégrant certaines étapes dans la chaîne d'approvisionnement de l'intelligence artificielle et en exigeant la préservation des dossiers des données utilisées. Cependant, la Loi ne considère pas le processus de développement de l'intelligence artificielle comme une chaîne d’approvisionnement, alors que des millions de personnes participent à l'alimentation de ces systèmes. Aucun mécanisme de divulgation n'est mis en place pour veiller à ce que les Canadiens soient en mesure de prendre des décisions éclairées sur les systèmes d'intelligence artificielle qu'ils choisissent, de veiller à ce qu'ils soient justes et de grande qualité et à ce qu'ils respectent les droits de la personne.
    Il y a trois choses que j'aimerais que vous reteniez à ce sujet. La première, c'est que la Loi, dans sa forme actuelle, ne réglemente pas les éléments importants des systèmes d'intelligence artificielle: la collecte de données, l'annotation et l'ingénierie. La deuxième, c'est qu'en n'abordant pas ces éléments, elle omet de protéger les droits de millions de personnes, notamment les Canadiens vulnérables. Cela donne lieu à des systèmes d'intelligence artificielle de faible qualité. La troisième, c'est que la Loi peut aider à protéger ceux qui participent à la chaîne d'approvisionnement de l'intelligence artificielle et à habiliter les gens à choisir des solutions d'intelligence artificielle justes et de haute qualité si elle contient des exigences en matière de divulgation.
     Permettez-moi d'approfondir ces trois points et d'expliquer plus en détail pourquoi ces considérations sont pertinentes pour la future version de la Loi.
    L'autoréglementation de la chaîne d'approvisionnement de l'intelligence artificielle ne fonctionne pas. L’absence d’un cadre réglementaire et de la communication de renseignements sur la collecte de données, les annotations et les aspects techniques de la chaîne d'approvisionnement de l'intelligence artificielle a une incidence négative sur la vie de millions de gens. Ces gens se trouvent surtout dans le l'hémisphère Sud, mais ce sont aussi des Canadiens vulnérables.
    Il y a actuellement un nivellement par le bas, c'est-à-dire que l'on fait fi des droits fondamentaux de la personne pour diminuer les coûts. Dans un article d'enquête bien documenté publié dans le magazine Wired le 15 novembre 2023 et intitulé « Underage Workers Are Training AI », un jeune pakistanais de 15 ans explique qu'il effectue des tâches pour former des modèles d'intelligence artificielle qui lui rapportent aussi peu que 1 ¢. Même pour des emplois mieux rémunérés, il doit consacrer du temps à la recherche sans être rémunéré. Ainsi, il lui faut travailler entre cinq et six heures pour compléter une heure de travail en temps réel... Tout cela pour gagner deux dollars. Selon lui, ce travail représente de l'esclavage numérique. Cette situation est relatée dans des articles semblables et des études approfondies de la chaîne d'approvisionnement de l'intelligence artificielle réalisées par des universitaires de partout dans le monde et des organisations internationales comme le Partenariat mondial sur l'intelligence artificielle.
    Cependant, même si ces abus sont bien documentés, ils font actuellement partie de la fin du processus de développement de l'intelligence artificielle et les entreprises, les consommateurs et les gouvernements canadiens qui interagissent avec les systèmes d'intelligence artificielle n'ont pas accès à un mécanisme leur permettant de faire des choix éclairés au sujet des systèmes exempts d'abus. En exigeant la divulgation — et en interdisant certaines pratiques —, on pourra éviter ce nivellement par le bas de l'industrie de l'enrichissement et de la validation des données, et permettre aux Canadiens d'avoir recours à des systèmes d'intelligence artificielle de meilleure qualité, plus sécuritaires et qui ne contreviennent pas aux droits de la personne.
    Le projet de loi S-211 récemment adopté, ou la « loi canadienne sur l'esclavage moderne », établit des obligations en matière de divulgation, permet de créer des chaînes d'approvisionnement plus résilientes et offre aux Canadiens des produits qui ne sont pas le fruit du travail forcé ou du travail des enfants.
    Les chaînes d'approvisionnement transparentes et responsables ont a contribué au respect des droits de la personne dans d'innombrables secteurs, notamment ceux du vêtement, du diamant et de l'agriculture, pour n'en nommer que quelques-uns. Les exigences de la Loi en matière d'information pourraient inclure des renseignements sur l'enrichissement des données et la façon dont les données sont recueillies ou étiquetées, une description générale des instructions en matière d'étiquetage et des renseignements sur le caractère identifiable des employés ou des entrepreneurs, les pratiques d’approvisionnement associées à des normes en matière de droits de la personne et la confirmation des mesures prises pour qu’il n'y ait aucun recours au travail des enfants ou au travail forcé dans le cadre du processus.
    Les entreprises préparent déjà des directives relatives à toutes les composantes de la chaîne d'approvisionnement de l'intelligence artificielle. La divulgation officialiserait ce qui est déjà une pratique courante. De plus, il est possible de créer des emplois de qualité qui respectent les droits de la personne au sein de la chaîne d'approvisionnement de l'intelligence artificielle. Le gouvernement canadien devrait immédiatement exiger la divulgation de ces renseignements dans le cadre de ses propres processus d'approvisionnement des systèmes d'intelligence artificielle.

  (1545)  

     Le fait d'avoir un mécanisme de divulgation serait également un complément au pouvoir de vérification conféré au ministre en vertu de la Loi. La création d'obligations de déclaration équivalentes pour la chaîne d'approvisionnement de l'intelligence artificielle renforcerait la loi actuelle et garantirait que la qualité, la transparence et le respect des droits de la personne font partie du développement de l'intelligence artificielle. Cela permettrait aux Canadiens de bénéficier de solutions novatrices qui sont de meilleure qualité, plus sécuritaires et conformes à nos valeurs.
    J'espère que vous tiendrez compte de la proposition d'aujourd'hui. Vous pouvez avoir une incidence positive sur des millions de vies.
    Merci.
    Merci, monsieur Shee.
    Nous allons maintenant entendre Mme Wylie, qui dispose de cinq minutes. Allez-y.
    Je m'appelle Bianca Wylie. Je travaille dans le domaine de la gouvernance numérique d'intérêt public en tant qu'associée chez Digital Public. J'ai travaillé à la fois pour une jeune entreprise technologique et pour une multinationale. J'ai également travaillé à la conception, à l'élaboration et au soutien de consultations publiques pour les gouvernements et les organismes gouvernementaux.
    Je vous remercie de me donner l'occasion de vous parler aujourd'hui de La Loi sur l'intelligence artificielle et les données. Pour ce qui est des amendements, je propose de supprimer complètement La Loi sur l'intelligence artificielle et les données du projet de loi C-27. Ne minimisons ni la faisabilité de cet amendement ni les arguments convaincants dont nous disposons pour le faire. Je suis ici pour tenir le Comité responsable de la fausse impression qu'il vaut mieux avoir quelque chose que rien du tout dans ce dossier. Ce n'est pas le cas, et c'est vous qui faites le pont entre la population canadienne et la légitimisation de cette initiative, qui tourne en dérision la démocratie et le processus législatif.
    La Loi sur l'intelligence artificielle et les données est un cliquet de complexité. C'est un concept absurde qui n'a rien à voir avec la réalité. Il construit des châteaux législatifs de plus en plus complexes dans le ciel. Il conçoit l'intelligence artificielle comme étant détachée des opérations, du déploiement et du contexte. Les travaux du ministère de l'Industrie sur La Loi sur l'intelligence artificielle et les données montrent à quel point il est possible de détourner nos normes démocratiques lorsqu'il est question d'innovation et de technologie.
    Comme l'a écrit Lucy Suchman, l'intelligence artificielle utilise un flou stratégique qui sert les intérêts de ses promoteurs, car ceux qui sont incertains au sujet de ses référents — les commentateurs des médias populaires, les décideurs et le public— doivent présumer que les autres savent de quoi il s'agit. J'espère que vous refuserez de continuer une mascarade qui a eu des répercussions spectaculaires à la Chambre des communes, et qui mise sur ce phénomène sociopsychologique qui consiste à présumer que quelqu'un d'autre sait ce qui se passe.
    Le Comité a continué à appuyer un ministre qui, en gros, légifère à la volée. Comment rédigeons-nous des lois comme celle-ci? Quel est le contrôle de la qualité au ministère de la Justice? Est-ce que nous allons simplement rédiger les lois à la volée lorsqu'il est question de technologie, comme s'il s'agissait d'une approche réfléchie et adaptative à la loi? Non. Le processus de La Loi sur l'intelligence artificielle et les données est l'exemple parfait d'une loi qui n'est rien de plus qu'un accessoire politique.
    Si l'on veut mettre la Loi en attente et la rediriger vers un nouveau processus, il faut commencer par le commencement. Si nous voulons réglementer l'intelligence artificielle, nous devons nous demander pourquoi, et être cohérents. Le gouvernement ne nous a jamais donné de raison cohérente pour justifier La Loi sur l'intelligence artificielle et les données. En tant que membres du Comité, avez-vous reçu des renseignements adéquats sur La Loi sur l'intelligence artificielle et les données, sur le plan de la procédure? Qui a créé cette urgence? Comment Loi a-t-elle été rédigée, et selon quel point de vue? Quel travail a été fait au sein du gouvernement pour réfléchir à cette question dans le cadre des mandats gouvernementaux existants?
     Si nous devions soumettre ce projet de loi au grand public pour une discussion réfléchie — un processus que le ministère de l'Industrie a activement évité de réaliser —, il ne serait pas accepté. Il faut tenir compte de l’utilisation de l’intelligence dans un contexte médical par opposition à l’utilisation dans le cadre de la fabrication, de l’utilisation dans un contexte éducatif ou de l’utilisation dans un restaurant, de l’utilisation pour planifier les itinéraires d’autobus, de l’utilisation pour déterminer la pollution de l’eau par opposition à l’utilisation dans une garderie... Je pourrais continuer longtemps. Tous ces éléments peuvent entraîner des préjudices et des avantages réels. Au lieu de tenir ces conversations, nous nous berçons d'illusions en pensant que nous pouvons contrôler et catégoriser la façon dont une chose aussi générique que les statistiques informatiques avancées — ce qu'est l'intelligence artificielle — sera utilisée dans la réalité, dans le cadre du déploiement et dans divers contextes. Ceux qui peuvent nous aider à tenir de telles conversations ne se trouvent pas dans la salle, et ne s'y sont jamais trouvés.
    La Loi sur l'intelligence artificielle et les données a été créée par un très petit cercle de personnes. Lorsqu'il n'y a pas de frictions de haut niveau dans le cadre des conversations sur les politiques, les gens se parlent à eux-mêmes. Un engagement public à l'égard de l'intelligence artificielle forcerait la rigueur. En s'en tenant impunément à ce discours d'urgence, le ministère de l'Industrie nous détourne tous de la pensée contextuelle et réaliste qui a également été omise dans la réflexion sur la protection de la vie privée et sur la protection des données. Cette façon de penser, comme on le voit encore une fois dans la Loi sur l'intelligence artificielle et les données, continue d'accentuer les asymétries du pouvoir. Nous faisons trois fois la même erreur.
    Le projet de loi vise à faire exactement la même chose, mais plus rapidement. Si ce projet de loi était adopté demain, rien de substantiel ne se produirait, et c'est exactement là où je veux en venir. C'est une pièce de théâtre abstraite, déconnectée de la situation économique et géopolitique du Canada et de l'exubérance irrationnelle de la communauté du capital de risque et de l'investissement. Cette loi s’appuie sur l’enthousiasme des investisseurs à l’égard d’une industrie qui n’a même pas encore fait ses preuves. De plus, c'est une industrie qui dépend grandement des infrastructures privées d'une poignée d'entreprises américaines.

  (1550)  

    Merci.

[Français]

     Merci beaucoup.
    Je cède maintenant la parole à Mme Ashley Casovan pour cinq minutes.

[Traduction]

    Merci de m'avoir invitée ici pour participer à cette importante étude, en particulier pour discuter de la loi sur l'intelligence artificielle et les données, ou LIAD, un élément de la loi sur la mise en œuvre de la charte du numérique.
    Je suis ici aujourd'hui en qualité de directrice générale du Centre de gouvernance de l'IA de l'International Association of Privacy Professionals, ou IAPP. L'IAPP est une organisation apolitique mondiale sans but lucratif qui se consacre à la professionnalisation de la main-d'œuvre chargée de la gouvernance de l'IA. Pour situer le contexte, nous avons 82 000 membres dans 150 pays et plus de 300 employés. Notre statut apolitique repose sur l'idée que peu importe les règles en place, nous avons besoin de personnes pour faire le travail nécessaire à leur mise en pratique. C'est la raison pour laquelle nous avons une seule exception à notre neutralité: nous préconisons la professionnalisation de notre domaine.
    Pour remplir mes fonctions à l'IAPP, je m'appuie sur presque 10 années d'efforts déployés pour établir une politique et des normes responsables et significatives en matière de données et d'intelligence artificielle. J'ai auparavant été directrice générale au Responsible Artificial Intelligence Institute. Avant cela, j'ai travaillé au Secrétariat du Conseil du Trésor, où j'ai dirigé l'élaboration de la première version de la directive sur les systèmes de prise de décisions automatisés, et je me réjouis maintenant de voir qu'elle fait partie des amendements au projet de loi. J'ai également agi à titre de coprésidente du collectif de normalisation en matière d'IA du Conseil canadien des normes, et j'ai contribué à différents efforts nationaux et internationaux en matière de gouvernance de l'IA. C'est pourquoi je serai heureuse de répondre à titre personnel aux questions que vous pourriez avoir sur la LIAD.
    Même si j'ai toujours eu intérêt à ce que les technologies soient conçues et gérées de manière avantageuse pour la société, sur une note personnelle, je mentionne que je suis maintenant mère de deux enfants de sept mois. Cette expérience m'a amené à me poser de nouvelles questions à propos des enfants qui grandissent dans une société dotée d'intelligence artificielle. Leur sécurité sera‑t‑elle compromise si nous publions des photos d'eux sur les réseaux sociaux? Les technologies de surveillance couramment utilisées dans les garderies représentent-elles une menace?
    Je crois donc qu'il nous incombe plus que jamais de mettre en place de mesures de protection pour l'intelligence artificielle. Selon une récente étude du marché, la contribution de l'intelligence artificielle a presque doublé depuis 2021 et devrait passer d'environ 2 milliards de dollars à presque mille milliards en 2030. Cela montre non seulement les répercussions possibles de l'intelligence artificielle sur la société, mais aussi la vitesse à laquelle elle prend de l'expansion.
    Votre comité a entendu différents experts parler des défis liés à l'utilisation accrue de l'intelligence artificielle et, par conséquent, des améliorations qui pourraient être apportées à la LIAD. Les amendements déposés récemment répondent à certaines de ces préoccupations, mais la réalité est que l'adoption généralisée de l'intelligence artificielle est encore nouvelle et que ces technologies sont utilisées de façon différente et innovante dans presque tous les secteurs. La création d'une loi parfaite qui va tenir compte de tous les effets potentiels de l'intelligence artificielle dans un projet de loi est difficile. Même si elle reflète fidèlement la situation actuelle du développement de l'intelligence artificielle, il est difficile de créer un seul cadre durable qui demeurera pertinent à mesure que ces technologies continuent de changer rapidement.
    L'établissement de normes est une façon de préserver la pertinence de la législation lorsqu'on gère des technologies complexes. L'ajout de normes approuvées et de mécanismes de contrôle semble probable à l'avenir, d'après mon expérience, pour aider la LIAD à demeurer souple à mesure que l'intelligence artificielle évolue. Pour compléter ce concept, une autre mesure de protection envisagée dans des discussions stratégiques similaires partout dans le monde est la création d'un poste d'agent de l'intelligence artificielle ou de responsable désignée de la gouvernance en la matière. Nous estimons que l'ajout d'un tel poste pourrait améliorer la LIAD et contribuer à la mise en œuvre de ses objectifs, compte tenu de la nature dynamique de cette technologie. En veillant à ce que ces personnes soient adéquatement formées et possèdent les compétences requises, on pourrait répondre à certaines des préoccupations soulevées dans le présent processus d'examen, surtout à propos de la forme à donner au mécanisme de surveillance puisque l'intelligence artificielle est utilisée dans différents contextes et que ses répercussions diffèrent.
    Ce concept est conforme aux tendances et aux exigences internationales dans d'autres secteurs, comme en protection des renseignements personnels et en cybersécurité. En Colombie-Britannique et au Québec, la loi sur la protection des renseignements personnels comprend la création du poste d'agent de protection de la vie privée pour assurer une supervision efficace de la mise en œuvre de la politique en la matière. De plus, nous observons une reconnaissance de ce rôle important dans le récent décret sur l'intelligence artificielle aux États-Unis. Chaque agence est tenue de nommer un chef de l'intelligence artificielle, qui est le principal responsable de la gestion de l'utilisation de l'intelligence artificielle dans son agence. On a proposé une approche similaire dans un récent projet de loi d'initiative parlementaire au Royaume-Uni sur la réglementation de l'intelligence artificielle. En vertu de cette approche, chaque entreprise qui mettrait au point, déploierait ou utiliserait ce genre de technologie serait tenue de nommer un agent de l'intelligence artificielle pour en assurer une utilisation sécuritaire, éthique, impartiale et non discriminatoire au sein de l'organisation.

  (1555)  

    L'histoire montre que lorsque la professionnalisation n'occupe pas une place suffisamment prioritaire, une énorme lacune en matière d'expertise peut survenir. À titre d'exemple, je vais citer l'étude sur la cybermain-d'œuvre publiée en 2022 par ISC2. Elle porte sur le manque croissant de cybertravailleurs. Selon ce rapport, il y a 4,7 millions de professionnels de la cybersécurité dans le monde, mais il en manque encore 3,4 millions pour répondre aux besoins des entreprises. Nous croyons que sans effort concerté pour perfectionner les compétences de professionnels dans des domaines parallèles, nous ferons face à une pénurie similaire en gouvernance de l'intelligence artificielle et à un manque de professionnels pour mettre en œuvre l'intelligence artificielle de manière responsable et conformément au projet de loi C‑27 et à d'autres objectifs législatifs.
    Enfin, dans un récent sondage sur la gouvernance de l'intelligence artificielle que nous avons fait à l'IAPP, 74 % des répondants disent qu'ils utilisent actuellement la technologie ou qu'ils ont l'intention de s'en servir au cours de la prochaine année. Cependant, 33 % des répondants ont mentionné un manque de formation et de certification professionnelles en gouvernance de l'intelligence artificielle et 31 % ont cité une pénurie de professionnels de la gouvernance de l'intelligence artificielle comme étant les principaux obstacles à la mise en œuvre et au fonctionnement efficaces de programmes de gouvernance en la matière.
    Une reconnaissance législative de la nécessité d'avoir des professionnels compétents et la prise de mesures incitatives à cet égard contribueraient à ce que les organisations affectent des ressources adéquates aux programmes de gouvernance de l'intelligence artificielle pour faire le travail.
    En somme, nous croyons que des règles sur l'intelligence artificielle verront le jour. Ce qui est peut-être plus important encore, ce sont les professionnels dont nous avons besoin pour mettre ces règles en pratique. L'histoire nous montre que les investissements précoces dans une main-d'œuvre professionnelle rapportent plus tard. À cette fin, dans notre mémoire, nous allons vous soumettre un texte législatif qui pourrait être inséré dans la LIAD.
    Merci de votre temps. Je serai heureuse de répondre à vos questions.

  (1600)  

    Merci beaucoup.
    Pour commencer la discussion, je vais donner la parole à M. Perkins, pour six minutes.
    Merci, monsieur le président.
    Madame Wylie, le ministre a parlé d'environ 300 consultations menées après, pas avant, le dépôt du projet de loi. Lorsque je regarde la liste qu'il nous a fournie à notre demande, je vois que 28 négociations étaient auprès d'universitaires et 216 étaient essentiellement auprès de grandes entreprises. On n'a pas vraiment consulté les personnes touchées, et c'était un peu comme prêcher à des convertis.
    Si possible, j'aimerais que vous expliquiez un peu plus pourquoi vous pensez qu'une consultation en bonne et due forme, après avoir rejeté le projet de loi et en avoir présenté une nouvelle mouture, donnerait un meilleur résultat.
    Certainement. Merci.
    Je pense que, même dans le cas des universitaires, on ne travaille pas dans un contexte d'utilisation. La raison pour laquelle j'ai donné des exemples, c'est que je pense que l'intelligence artificielle commence à être sensée lorsque nous en parlons dans un contexte précis — comme je l'ai mentionné, dans le secteur manufacturier, en santé, dans les cabinets dentaires. Nous pourrions faire le tour de la société ici. Nous devons parler aux personnes qui travaillent dans ces milieux, pas aux spécialistes généraux.
    C'est ce que je veux dire. Même les détracteurs de la technologie ont intérêt à se plonger entièrement dans la complexité de la question plutôt que de prendre du recul et se demander pourquoi nous faisons cela. Qu'essayons-nous d'accomplir? Les réponses à ces questions seront très différentes d'un secteur à l'autre. Ce qui paraît bénéfique et nuisible varie énormément selon le secteur.
    Je pense que c'est la raison pour laquelle nous devons ravoir la discussion en commençant par ce que nous essayons de faire ici, et nous pourrons ensuite parler de la façon de procéder. On ne peut pas parler de la façon de faire avant de savoir clairement pourquoi nous voulons le faire.
    Ce que ce projet de loi propose — et c'est venu s'ajouter après un projet de loi de protection de la vie privée avorté —, c'est une tentative d'imitation de ce qui se fait en Europe, mais il dit essentiellement que nous allons légiférer sur les effets néfastes, sur le plus haut degré d'effets néfastes de l'intelligence artificielle. Pourtant, on a déjà échoué au moment de la définir, car le ministre a dû revoir la définition.
    Les risques les plus élevés ou les pires effets néfastes sont-ils les seuls effets néfastes possibles, et quels sont tous les niveaux à prendre en considération? Au‑delà des effets les plus néfastes, d'autres niveaux d'intelligence artificielle peuvent causer des préjudices aux gens.
    Tout à fait.
    Il y a deux choses à dire à ce sujet. Tout d'abord, les préjudices sont toujours contextuels. Quelque chose peut sembler tout à fait sécuritaire, par exemple la collecte de données par un médecin, mais quelqu'un d'autre pourrait entrer en possession de ces données. C'est dangereux. Il faut toujours tenir compte du contexte et de l'utilisation, toujours, et je soutiens donc que cette catégorisation structurelle est incorrecte.
    La raison pour laquelle nous nous tournons toujours vers l'Europe et nous demandons ce que les Européens font... Je sais qu'il est tentant de dire que ce qu'ils font là‑bas est judicieux, mais sur le plan géopolitique, d'un point de vue économique, ils veulent leurs propres Google, Amazon et Microsoft. Lorsqu'on génère toute cette complexité, on protège son industrie nationale. C'est une façon de permettre à l'économie de croître, en fonction de règles nationales.
    Il y a ensuite ce que vous entendez à propos d'uniformisation à grande échelle. À quel point est‑ce que cela a bien fonctionné mondialement au moyen de lois sur la protection des données? Cela ne fonctionne pas. Cela ne fonctionne pas plus pour ce qui est de la protection des données personnelles.
    C'était les deux éléments de ma réponse à cette question.
    Nous n'avons pas beaucoup discuté ici des deux premières parties du projet de loi, à propos de savoir si la protection de la vie privée est un droit de la personne fondamental ou si ce projet de loi, malgré la volte-face de dernière minute du ministre pour le reconnaître, contient encore beaucoup d'exceptions qui accordent un pouvoir prépondérant aux entreprises pour faire fi de ce droit fondamental.
    Dans le projet de loi sur la LIAD, on ne fait pas mention des droits de la personne, de la protection de la vie privée ou de quoi que ce soit d'autre, mais on parle de la création d'un superministère aux pouvoirs non définis et d'un règlement non défini à Innovation, Sciences et Développement économique Canada pour tout décider. Quelle est la solution de rechange à un grand superorganisme unique d'Ottawa qui pense qu'il peut dominer tout le monde de l'intelligence artificielle au Canada? Quelle est l'autre option?

  (1605)  

    Il y en a au moins une, et c'est la raison pour laquelle je reviens sans cesse... Le travail préparatoire n'a pas été fait pour ce projet de loi. Avant même de s'être adressé à la population, on s'est tourné vers le gouvernement et on a demandé si c'était le problème observé dans le secteur bancaire, dans le système de santé et dans l'industrie automobile. C'est là que nous avons commencé, et nous nous demandons ensuite ce que nous pouvons faire pour nous adapter.
    Nous ne réinventons pas le monde au nom de l'intelligence artificielle. C'est irrespectueux compte tenu de la place qu'occupent actuellement le gouvernement, la démocratie et la reddition de comptes. Je pense qu'il faut au moins commencer là. Lorsque les choses ne tombent pas en place, allons alors droit au bout et réglementons. Allons droit au but et parlons de reddition de comptes. Nous ne devrions pas commencer ici à construire le monde autour de l'intelligence artificielle et ignorer tout ce qui est venu avant.
    La législation à venir devrait-elle décrire les différents niveaux d'utilisation, comme nous les connaissons, de l'intelligence artificielle, des tâches répétitives exécutées dans une entreprise à l'efficacité informatique?
    Je ne pense sincèrement pas que ce soit la bonne approche d'un point de vue structurel, car l'intelligence artificielle, une fois décortiquée, repose sur la mise en correspondance de critères et des statistiques avancées. Nous n'avons pas réglementé les mathématiques, les statistiques, les bases de données ou les logiciels d'utilisation générale. Je ne pense pas que l'industrie du logiciel ait mal agi sans réglementation d'ordre général.
    Tout cela pour dire que...
    Cela me rappelle une question que je voulais poser, mais que je n'ai pas encore pu poser à qui que ce soit.
    Nous n'avons pas encore réglementé le moindre pouvoir informatique dans le monde, mais nous essayons ici. Pourquoi?
    C'est l'industrie. On cherche toujours le prochain endroit où transférer des capitaux. Je le dis seulement parce que le modèle d'affaires n'a même pas fait ses preuves encore. Savez-vous quelles entreprises savent qu'elles font de l'argent? C'est Google, Microsoft et Amazon. Parlons de ce qu'il adviendra d'ici deux ans de toutes les autres entreprises qui retirent des avantages de ces trois sociétés. Nous légiférons pour ce contexte, un contexte nouveau dans lequel nous ne sommes pas encore, et c'est l'élément moteur ici. Il faut mettre de la logique dans tout cela.
    Je sais que...
    Merci beaucoup, monsieur Perkins.
    Je donne maintenant la parole à M. Van Bynen, pour six minutes.
    Merci beaucoup, monsieur le président.
    L'une des choses que j'aime beaucoup au Comité, ce sont les points de vue divergents que nous entendons, le niveau d'engagement ainsi que le niveau d'intelligence que nous observons en abordant la question.
    La réalité est que le génie est sorti de la bouteille. Ce qui me préoccupe, c'est que nous n'allons pas revenir où nous en étions avant.
    Ma première question est pour Mme Casovan.
    En avril 2023, vous avez cosigné avec 75 autres chercheurs une lettre qui demandait au gouvernement de donner suite à la loi sur l'intelligence artificielle et les données et qui disait qu'un nouveau report de la loi se traduirait par un décalage compte tenu du rythme auquel la technologie évolue. Avez-vous changé d'avis depuis le jour où vous avez cosigné cette lettre?
    Je souligne que j'occupais alors mon ancien poste de directrice générale du Responsible Artificial Intelligence Institute. Je siège encore à son conseil d'administration, et je vais donc dire ce qui suit en cette qualité, compte tenu de la neutralité politique associée à mes fonctions actuelles.
    Cela dit, oui, c'est sans aucun doute ce que je pense. Comme vous l'avez mentionné, le génie est sorti de la bouteille. J'ai beaucoup de respect pour Mme Wylie et son point de vue. Je veux notamment mettre l'accent sur le rôle que... Mme Brandusescu a parlé des préjudices et des problèmes attribuables aux systèmes en place. Je pense toutefois qu'il y a un écart fondamental entre les technologies de l'intelligence artificielle et d'autres types d'approches que nous avons suivies pour réglementer certains secteurs dans le passé. Je conviens que nous devons renforcer ou examiner la législation existante et comprendre comment l'intelligence artificielle touche ces industries. Plutôt que d'avoir une mesure législative qui porte précisément sur l'intelligence artificielle, il faut trouver comment nous pouvons renforcer cela et comprendre comment c'est complémentaire à ce travail. On se retrouve autrement avec beaucoup de systèmes et différents types de contextes qui demeurent sans solutions à la suite du processus.
    Merci.
    J'arrive maintenant à M. Shee.
    Selon son site Web, le Partenariat mondial sur l'intelligence artificielle est « une initiative de plusieurs intervenants qui a pour but de combler l'écart entre la théorie et la pratique dans le domaine de l'intelligence artificielle en soutenant la recherche de pointe et les activités appliquées liées aux priorités en la matière. » Cela regroupe 29 pays.
    De quelle façon le groupe de travail du Partenariat mondial sur l'intelligence artificielle procure‑t‑il un cadre de mise en œuvre des lois qui vont régir l'intelligence artificielle, comme la loi sur l'intelligence artificielle et les données?

  (1610)  

    C'est une excellente question.
    L'objectif du groupe est de rassembler des experts et des décideurs de renommée mondiale pour réfléchir aux applications pratiques de l'intelligence artificielle.
    Dans les documents récents du groupe sur l'avenir du marché du travail se trouvent 10 recommandations sur les aspects inconnus que nous avons cernés avec l'Organisation internationale du travail, à savoir l'idée que l'intelligence artificielle aura des répercussions inconnues à l'avenir pour 8 % de la population active, et il est possible d'agir.
    C'est une organisation formidable qui rassemble des intervenants de partout dans le monde. Nous discutons, de manière très concrète, de la façon d'appliquer la législation. L'organisation serait ravie d'être encore consultée dans le cadre de ce processus, et elle peut donner des exemples concrets de la façon dont l'intelligence artificielle peut être développée de manière responsable et profiter à l'humanité.
    C'est intéressant. Certaines de mes notes portent sur l'« esclavage numérique » et vos préoccupations à cet égard.
    Comment pensez-vous que les répercussions de l'intelligence artificielle sur le travail devraient être réglementées au Canada?
    Il faut tenir compte de deux aspects.
    Le premier est l'incidence sur le travail aujourd'hui au Canada et dans le monde. C'est le premier aspect. Le deuxième est l'incidence sur la société et les lieux de travail de demain.
    Aujourd'hui, des millions de gens travaillent en coulisse sur les systèmes d'IA pour qu'ils fonctionnent de façon efficace. Cette loi — ou toute autre mesure législative sur l'IA qui est présentée — ne les protège pas. C'est la raison pour laquelle il est possible d'inscrire la chaîne d'approvisionnement de l'IA dans la loi pour ce qu'elle est: une chaîne d'approvisionnement qui comprend des millions de travailleurs.
    Pour ce qui est du deuxième aspect — l'incidence sur les travailleurs à l'avenir —, nous connaissons peu de choses sur l'incidence qu'aura l'intelligence artificielle sur les travailleurs et leur travail.
    L'un des avantages du Partenariat mondial sur l'intelligence artificielle est qu'il est composé de représentants d'universités, de l'industrie, de syndicats et de gouvernements. La déclaration qui a été publiée disait que nous devons mener des études sur les répercussions de l'intelligence artificielle sur le travail de demain. Nous devons investir dans le recyclage professionnel. Nous devons effectuer des investissements pour assurer la transition dans certains postes. Nous devons être conscients — surtout maintenant avec l'avènement de l'intelligence artificielle générative — que les travailleurs peu spécialisés ressentent déjà des répercussions économiques. Ils devront se recycler et obtenir d'autres occasions.
    Ces mesures sont nécessaires pour l'avenir du travail, et le Partenariat mondial sur l'intelligence artificielle a un document d'information à ce sujet en ligne.
    Je pense qu'il me reste environ 15 secondes.
    Vous offrez un aperçu des initiatives régionales et nationales. Quels pays ont les approches les plus robustes? Devrions-nous apporter des amendements à la loi sur l'intelligence artificielle dont nous sommes saisis?
    Je vous recommanderais d'abord d'inclure un mécanisme de divulgation sur la chaîne d'approvisionnement pour avoir la garantie que nous choisissions un système d'IA qui soit éthique et qui n'a pas recours au travail forcé ou au travail des enfants. En ce moment, l'Union européenne est un chef de file en la matière. Nous savons que les entreprises avec lesquelles nous travaillons respectent des normes plus élevées qu'ailleurs dans le monde. Les entreprises privées sont obligées de se doter de mécanismes de divulgation.
    Nous devrions nous concentrer là‑dessus pour l'instant. Nous devrions examiner ce qui se fait dans l'Union européenne.
    Merci, monsieur le président.

[Français]

     Merci, monsieur Van Bynen.
    Monsieur Lemire, vous avez la parole.
    Merci, monsieur le président.
    Je remercie l'ensemble des témoins.
    Je vais commencer par m'adresser à Mme Casovan.
    Madame Casovan, pendant votre travail au gouvernement du Canada, vous avez dirigé l'élaboration de la toute première politique sur l'intelligence artificielle, à savoir la Directive sur la prise de décisions automatisée. Cette directive impose un certain nombre d'exigences sur l'utilisation par le gouvernement fédéral des technologies qui assistent ou remplacent le jugement d'un décideur humain, y compris par l'utilisation d'apprentissages automatiques et d'analyse prédictive. Parmi ces exigences, il y a la nécessité de fournir un avis lorsque le système de prise de décisions automatisée est utilisé ainsi que l'existence de méthodes de recours pour ceux qui souhaitent contester les décisions administratives.
    À votre avis, faut-il prévoir ce type de disposition d'avis ou de recours dans la Loi sur l'intelligence artificielle et les données?

  (1615)  

[Traduction]

    Je pense que ce genre d'avis est nécessaire.
    Dans cette Directive sur la prise de décisions automatisée, nous avons reconnu, entre autres, que ces systèmes sont utilisés dans une multitude de contextes différents et qu'ils comportent différentes formes de préjudices. Si vous y faites référence dans la mesure législative comme nous le faisons à l'annexe C de la Directive, vous constaterez qu'il existe différentes exigences pour ces différentes formes de préjudices.
    L'une des difficultés que nous avons eues lors de la mise en œuvre de cette Directive était que les gens se demandaient quelles étaient les normes acceptables ou quel était le seuil auquel ils devaient se conformer. Malheureusement, ces éléments n'ont pas été précisés. Il faut le faire pour répondre aux préoccupations que vous avez soulevées. Il doit y avoir des avis et des exigences en matière de documentation. Ces éléments complémentaires sont nécessaires. Vous devriez prendre des règlements supplémentaires qui soutiennent le cadre plus large de la LIAD, et ensuite examiner ce qui est requis dans ces contextes selon les différents niveaux et catégories de risque.

[Français]

     Dans le cas d'un recours, à qui le consommateur devrait-il s'adresser s'il veut contester une prise de décisions automatisée ou apporter des précisions?

[Traduction]

    Lorsque les consommateurs veulent contester une décision, ils ont non seulement besoin d'un avis pour savoir qu'on a effectivement utilisé un système d'intelligence artificielle, mais ils doivent aussi disposer d'un recours convenable qui leur permettra de contester la décision. Je le répète, il s'agit de différentes mesures d'atténuation — selon des règlements qui devraient être pris — qui seront propres au contexte et qui devraient être incluses en fonction du système.

[Français]

    Si j'ai bien compris, la directive requiert une évaluation de l'incidence algorithmique pour chaque système de prise de décisions automatisée. En se basant sur différents critères précis, cette évaluation conduira à une classification allant du niveau 1, qui est l'incidence la plus faible, au niveau 4, qui est l'incidence la plus forte. Les résultats de cette évaluation doivent être rendus publics et mis à jour en cas de modification des fonctionnalités ou de la portée du système.
    Pourquoi est-il important que les systèmes de prise de décisions automatisée fassent l'objet d'une évaluation de l'incidence algorithmique?

[Traduction]

    L'essentiel, c'est qu'il ne faut pas réglementer à outrance ou créer plus de contrôles que ce qui est requis. Pour ce qui est de l'utilisation de ces systèmes, nous voulons qu'il y ait un équilibre entre l'innovation et la protection des utilisateurs. Nous avons examiné tous les éléments de la question et reconnu que les différents types de systèmes comportent une variété de problèmes et de préjudices. Voilà pourquoi il est nécessaire de veiller à ce que des mesures d'atténuation adéquates soient mises en place.

[Français]

    Pouvez-vous nous donner des exemples de certains critères utilisés pour déterminer le niveau d'incidence de chaque système? Serait-il judicieux d'ajouter ce type d'exigences au projet de loi C‑27?

[Traduction]

    J'aimerais beaucoup que ce soit le cas. Je pense que ces différentes catégories se trouvent dans les amendements. Il y a sept catégories d'incidence possible. Je pense qu'on le reconnaît. Ces catégories peuvent comporter divers niveaux de préjudice. Je recommanderais certainement d'ajouter quelque chose qui ressemblerait à une matrice. On y indiquerait les différents niveaux d'incidence dans les domaines de l'embauche ou de la santé, les différentes formes de préjudices qui pourraient survenir, et les mesures d'atténuation qui seraient requises. Il faut surtout que ces données correspondent aux normes élaborées par l'industrie.
    Mme Wylie — comme d'autres témoins d'ailleurs — a dit qu'il est important d'assurer une participation accrue du public dans ce processus. Les processus d'élaboration des normes le permettent. C'est pourquoi je pense que c'est vraiment important.
    Là encore, nous devons reconnaître que nous ne pourrons pas tout inscrire noir sur blanc dans une mesure législative. C'est la raison pour laquelle il faut nommer un responsable, un dirigeant principal de l'intelligence artificielle, qui sera formé pour comprendre ces préjudices, les trouver et les atténuer.

[Français]

    L'un des critères de l'évaluation de l'incidence algorithmique concerne le niveau d'incidence sur les droits non seulement des individus, mais aussi des communautés. Nous avons entendu l'appel des communautés marginalisées selon lequel le projet de loi C‑27 doit aller au-delà des préjudices individualisés et inclure les préjudices qui affectent de manière disproportionnée certains groupes.
    Pouvez-vous nous expliquer pourquoi on doit modifier certains langages individualisés et s'assurer que la directive du gouvernement sera le plus précise et le plus inclusive possible?

  (1620)  

[Traduction]

    Les différentes mesures d'atténuation, comme vous le mentionnez, dépendent de l'utilisation du système. La technologie et le contexte dans lequel un système est utilisé changeront. Les préjudices varieront, selon qu'il s'agit d'une personne, d'un groupe ou d'un organisme. Par conséquent, il s'agit avant tout de reconnaître les préjudices.
    Dans mes recherches au Responsible AI Institute, je me suis vraiment inspirée du travail que j'ai accompli au Conseil du Trésor sur la portée des systèmes et des marques de certification qu'il fallait y apposer, comme un symbole de bon entretien ou une certification LEED. Ce genre de reconnaissance nécessiterait que vous soyez en mesure de déterminer les préjudices, avant tout, et de déterminer les différents critères ou contrôles qui sont requis pour les atténuer pour une personne, un groupe ou un organisme.

[Français]

     Merci beaucoup.
    Je vous en prie.
    Merci, monsieur Lemire.
    Monsieur Masse, la parole est à vous.

[Traduction]

    Merci, monsieur le président.
    Je vais commencer avec M. Shee, car il est en ligne.
    Certains ont suggéré — dans ce groupe, comme dans d'autres — qu'il nous fallait abandonner ce projet de loi et repartir à zéro. Je me demande ce que vous pensez du contenu relatif au commissaire à la protection de la vie privée. Si nous séparions les deux principaux éléments du projet de loi, seriez-vous favorable à ce que nous poursuivions notre examen de la protection de la vie privée? Faudrait‑il également étudier cette question?
    Je poserai ensuite des questions aux témoins qui sont dans la salle.
    Je dirais que la Loi sur l'intelligence artificielle en soi est extrêmement importante. Comme d'autres témoins l'ont dit aujourd'hui, les systèmes d'IA ont déjà une incidence dans la vie des gens, et ces systèmes se développent de plus en plus rapidement. Je serais très favorable à une mesure législative qui établirait au moins un cadre de base. À partir de là, nous pourrons aller de l'avant.
    À l'heure actuelle, le projet de loi est incomplet. Il doit être amélioré et il faut y apporter d'autres amendements pour qu'il englobe l'ensemble de la chaîne d'approvisionnement de l'IA et protège les gens tout au long de cette chaîne, autant à l'étape de la création qu'à l'étape du déploiement.
    Je vais passer à Mme Casovan, puis aux témoins de l'autre côté de la table.
    Voilà ce que j'aimerais savoir: si nous ne parvenons pas à apporter suffisamment d'améliorations à la partie qui porte sur l'intelligence artificielle, et qu'il faut tout recommencer ou que notre étude est retardée, devrions-nous poursuivre notre examen de la protection de la vie privée et des modifications possibles qui sont proposées dans ce domaine?
    J'aime beaucoup que ce projet de loi ait... Je sais que certains ont dit aujourd'hui qu'il s'agissait d'une partie qu'on avait ajoutée, mais je pense qu'il s'agit d'un ajout important. Si vous ne poursuivez pas vos travaux sur la LIAD, l'utilisation de l'intelligence artificielle aura des répercussions sur la protection de la vie privée et des consommateurs.
    J'aimerais au moins que ces deux éléments soient renforcés.
    Merci.
    Je m'adresse au prochain témoin.
    Je ne peux répondre à cette question, car je n'ai pas les connaissances requises pour formuler des commentaires sur les éléments du projet de loi qui ont trait à la protection de la vie privée.
    D'accord.
    Je m'adresse au dernier témoin.
    Je pense que la LIAD devrait être traitée séparément.
    En ce qui concerne la protection de la vie privée, ce n'est pas mon domaine non plus. Je maintiens ce que j'ai dit au sujet de la LIAD. Il faut la retirer du projet de loi, et poursuivre l'étude des deux autres mesures législatives. Quelqu'un d'autre pourrait vous dire si d'autres amendements seraient nécessaires.
    C'est intéressant.
    Je voudrais poser une question sur la protection du droit du travail. Quelle serait la meilleure façon d'assurer cette protection? Serait‑ce par l'intermédiaire d'un commissaire ou d'une section spéciale au ministère du Travail? Je ne fais que poser la question. Quels sont les mécanismes dont nous disposons en la matière que vous aimeriez modifier?
    Je vous remercie de la question.
    Comme l'a dit Mme Wylie, je pourrais vous donner une foule d'exemples de préjudices et de répercussions dans le monde réel et vous parler de tout ce qui ne cesse de changer. Cependant, j'aimerais revenir en arrière et parler de la raison pour laquelle il est important d'examiner la question du travail.
    Avant de vous dire qui peut le faire, il me semble paradoxal de vouloir que des technologies si complexes soient agiles. Nous ne les comprenons pas. La plupart des gens ne les comprennent pas. Ces technologies sont mystérieuses. Les ingénieurs ne les comprennent toujours pas. Les travailleurs en subissent continuellement les effets. Quand je dis « effets », je parle de répercussions négatives et de préjudices. Mme Renee Sieber et moi avons soumis un mémoire à votre comité dans lequel nous en discutons longuement. Vous devez examiner de nombreuses études d'années différentes. Cela fait maintenant cinq ans que je suis les travaux de l'entreprise Sama qui se targue d'être une entreprise d'« IA éthique ». Nous devrions nous poser des questions à propos des acteurs qui se disent éthiques. Nous devrions nous interroger sur ce que l'on entend par « éthique ».
    Pendant mes cinq premières minutes, j'ai dit qu'on veut nous faire avaler que l'IA est un avantage pour la société. En effet, on nous dit: « Nous devons renforcer la littératie numérique. Nous devons apprendre à utiliser l'IA. Nous savons que c'est bien et qu'elle est là pour de bon. » Je suis ici pour rejeter cette idée. Nous devrions être en mesure d'interdire l'IA lorsque cela s'impose. Nous devrions pouvoir écouter les travailleurs pour savoir ce qu'ils veulent et ce qu'ils pensent. À quoi ressemble leur travail au quotidien? Ont-ils suffisamment de pauses? Regardez ce que fait Amazon. Elle gère la vie de ses employés à la milliseconde près. Les travailleurs d'usine vivent dans l'incertitude. En fait, ils ne vivent pas dans l'incertitude, ils vivent un calvaire.
    Comment éviter cette situation? Pourquoi ne pas s'adresser aux ministères du Travail qui connaissent ces avantages? C'est la raison pour laquelle ISED n'est pas en mesure de faire ce travail seul. Tout à l'heure, on m'a demandé quelle autre agence pourrait le faire. Il ne peut pas y en avoir qu'une seule. Il faut qu'il y en ait plusieurs, car c'est un travail d'équipe. Cela nous ramène à la démocratie. Il faut ralentir un peu et écouter ce que les gens ont à dire. Nous ne savons pas ce que veut la population, parce qu'elle n'a pas participé au processus. Nous devons écouter les organisations syndicales, les représentants des ministères qui se concentrent sur la question du travail partout au pays, et les travailleurs eux-mêmes. C'est pourquoi nous ne pouvons pas nous contenter d'avoir des gens dans ces salles. Nous ne pouvons pas nous contenter d'un débat télévisé. Il faut que les gens viennent à vous. Vous devez aller à la rencontre des gens. Nous devons organiser des assemblées publiques. Nous devons envisager des façons de faire dans d'autres contextes. Nous devons donner une tribune à la population à des moments et dans des endroits différents, parce que nous vivons dans un monde numérique.
    Vous dites que nous devons tout changer pour l'IA. Non. Comme l'a dit Mme Wylie, l'IA doit changer pour nous.

  (1625)  

    Merci.

[Français]

     Merci beaucoup.
    Monsieur Vis, vous avez la parole.

[Traduction]

    Je remercie tous les témoins de leur présence aujourd'hui.
    Ce projet de loi défaillant me préoccupe beaucoup. En tant que législateurs, nous, autour de cette table, comprenons ce qui est en jeu ici, et c'est très inquiétant. C'est la deuxième fois, depuis que nous avons commencé à examiner ce projet de loi, que le ministre nous envoie des documents d'information volumineux qui viennent complètement modifier le projet de loi dont nous sommes saisis. Je me demande comment le ministre a pu rater son coup de la sorte et où était le ministère pendant toutes ces années. Où était‑il?
    Lors de la dernière réunion, j'ai demandé à un certain nombre d'experts si Industrie Canada ou le gouvernement du Canada avaient la capacité de relever ce défi. C'est l'une des premières questions que j'ai soulevées au Parlement après avoir été élu. Je faisais partie du Comité HUMA qui était chargé d'examiner les systèmes de données du ministère des Ressources humaines, qui utilisait encore une méthode de code binaire datant des années 1970. Je pense que cette méthode est toujours utilisée. Le gouvernement du Canada a prouvé, de manière générale, qu'il se trompe sur beaucoup de choses et qu'il n'est pas au diapason du 21e siècle. Je suis très inquiet à l'idée de donner à ce ministère plus de pouvoir dans un domaine à propos duquel la plupart des experts se demandent toujours comment bien faire les choses.
    Cela dit, je pense que, malgré l'incompétence du ministre dans ce domaine, son cœur est peut-être en partie à la bonne place. Il essaie de proposer des amendements et de faire quelque chose pour réparer son gâchis. Cependant, il est très effrayant de constater qu'il est si incompétent qu'il ne fait que nous envoyer ces renseignements.
    Je m'excuse pour cette diatribe, mais une partie de moi se dit en ce moment...
    Dites-nous ce que vous pensez vraiment.
    Monsieur Van Bynen, nous appartenons tous les deux à la communauté néerlandaise, et dans notre culture, nous ne tournons pas autour du pot. Je sais que vous le comprenez. Merci, cher collègue.
    C'est vrai. Les Néerlandais sont francs. M. Van Bynen est même né en Hollande.
    Nous avons beaucoup parlé de l'inscription d'un droit fondamental à la vie privée pour les enfants dans la première partie du projet de loi. Le ministre a souligné sept domaines dans lesquels il ne pense pas que l'intelligence artificielle devrait être utilisée pour le moment. Je n'y vois rien qui concerne les enfants. C'est assez inquiétant.
    L'un d'entre vous a‑t‑il suivi les débats que nous avons eus jusqu'à présent sur le droit fondamental à la vie privée pour les enfants?
    Madame Casovan, vous faites signe que oui.

  (1630)  

    J'ai entendu les débats, oui.
    En ce moment, les membres libéraux du Comité pourraient décider d'un commun accord avec le Bloc Québécois d'appuyer cette partie du projet de loi. Je ne sais pas où cela va aboutir. Nous tenons ouvertement un débat pour déterminer si ce texte doit être adopté. Nous avons procédé en toute bonne foi.
    Cela dit, si le texte est adopté, les membres du Comité devraient-ils examiner les amendements que nous allons présenter afin d'ajouter des mesures de protection pour les enfants à la première partie du projet de loi?
    J'ai à cœur la protection des innocents. J'ai une fille de 10 mois, un fils de 4 ans et un fils de 8 ans. Je suis très préoccupé par la manipulation dont ils pourraient être victimes. Le projet de loi, je l'admets, tient compte des préjudices psychologiques, mais je ne pense pas qu'une ou deux dispositions suffisent à prévenir les torts causés par une économie axée sur les données qui, à notre époque, a des répercussions sur les personnes de leur naissance à leur mort.
    Pourriez-vous parler un peu de cet aspect?
    Bien sûr. J'ai évoqué tout à l'heure un pan de ma vie personnelle en réaction aux questions que vous aviez posées. C'est préoccupant. Je ne parle pas habituellement de ce genre de choses, mais je me suis surprise à réfléchir pour la première fois à l'évolution des différents types de technologies et à l'incidence de ces dernières sur la société, moi qui travaille dans ce domaine depuis presque une décennie — ce qui fait un peu peur.
     J'ai aussi hoché la tête lorsque vous avez mentionné les difficultés qui existent dans les ministères. Je les ai vues et connues de près lorsque je travaillais au gouvernement. Là‑bas comme dans toutes les organisations, l'utilisation de vieilles technologies pour régler des problèmes modernes cause des inquiétudes. En fait, tout prend énormément de temps.
    Quant aux enfants, depuis que je suis devenue maman récemment, je m'intéresse beaucoup plus aux dommages causés par les technologies. Ces choses sont devenues beaucoup plus réelles et viscérales que j'aurais pu l'imaginer. Tout cela était abstrait auparavant.
    Étant donné les amendements proposant la possibilité d'ajouter à la loi de nouvelles catégories de systèmes d'intelligence artificielle à incidence élevée, ce serait bien que le projet de loi tienne compte non seulement de ces préjudices, mais aussi de la protection de la jeunesse, à l'instar de ce qui a été instauré aux États-Unis.
    D'accord.
    M. Shee a mentionné dans ses commentaires la relation entre les modèles d'intelligence artificielle générative et le travail des enfants.
     Quelles seraient les répercussions si nous ajoutions, à la partie du projet de loi qui traite de l'intelligence artificielle, une disposition qui exclurait toute donnée produite par des enfants dans les pays en développement?
    Ce changement aurait...
    Ma question s'adressait à Mme Casovan.
    Je pense que ce serait une bonne idée.
     Par contre, le problème avec ces systèmes, c'est qu'ils fonctionnent au moyen de données. Je ne vais pas ressasser ce dont le Comité a déjà beaucoup parlé, mais il faut noter que trop souvent, la chaîne d'approvisionnement manque de transparence. Il est passablement fastidieux de déterminer la provenance des données. Pour savoir si les données viennent d'enfants ou ont été recueillies par des enfants, il faut résoudre le problème fondamental du manque de transparence à l'étape de la collecte de données de la chaîne d'approvisionnement. Voilà un autre aspect qui devrait être traité plus sérieusement dans le projet de loi.
    Monsieur le président, me reste‑t‑il du temps?
    Merci, monsieur Vis. Votre temps est écoulé.
    Monsieur Shee, je vais vous accorder du temps si vous souhaitez ajouter quelque chose.
    Oui. J'ajouterais que d'établir des instructions détaillées sur la collecte de données et sur l'annotation des données est une pratique courante dans le domaine du développement de l'intelligence artificielle. Le fait d'inscrire dans la loi le travail des enfants ou le travail forcé contribuerait grandement à éradiquer ces pratiques étant donné que ces éléments seraient alors inclus dans les instructions fournies aux entreprises qui mènent des activités un peu partout dans le monde.

  (1635)  

     Merci.
    Monsieur Sorbara, vous avez la parole.
    Merci, monsieur le président.
    Bienvenue à tous.
    Merci de vos témoignages sur l'intelligence artificielle. Ce sujet est à la fois fascinant et très complexe. Comme nous ne sommes pas pour la plupart des spécialistes du domaine, cela nous fait beaucoup de matière à digérer.
    Ma question s'adresse à M. Shee, qui participe par vidéoconférence.
    Vous avez parlé à quelques reprises du continuum de l'intelligence artificielle de même que de la collecte, de l'ingénierie et de l'annotation des données dans la chaîne d'approvisionnement de l'IA. Pourriez-vous en dire plus à ce sujet? Vous aviez aussi affirmé que nous devrions adopter le projet de loi. Ce serait formidable que vous reveniez plus en détail sur ces deux points.
    Grosso modo, le développement de systèmes d'intelligence artificielle nécessite plusieurs étapes.
    La première est la collecte des données qui seront versées dans le système d'IA. La deuxième est l'annotation de ces données. Par exemple, une image montrant des yeux et un nez est annotée par quelqu'un. Ensuite, un mécanisme de rétroaction permet d'enrichir les données, qui passent par une application logicielle dont les résultats sont par la suite revalidés par un être humain. La solution est alors présentée sous forme de prototype appelé preuve de concept, qui est souvent lancé avant de devenir un produit utilisé par les consommateurs ou les entreprises. Voilà l'ensemble de la chaîne d'approvisionnement.
    Dans sa version actuelle, le projet de loi ne porte que sur les produits. Il ne tient pas compte de tout le travail de développement des systèmes d'IA, qui est accompli par des êtres humains. Il faut donc adopter une loi qui permettra de réglementer autant la chaîne d'approvisionnement que les produits.
    Ma recommandation [Difficultés techniques]
    Je pense que tout le système est figé. Ce n'est pas seulement du côté de M. Shee.
    Monsieur Shee, je vous demanderais de retourner une minute en arrière. Le système a figé.
    En résumé, des lois doivent être mises en place, car il faut commencer à protéger les citoyens qui interagissent avec les systèmes d'IA.
    Il faut aussi tenir les entreprises qui mettent au point les systèmes d'IA responsables de leurs actions et nous assurer qu'elles ne recourent pas à des pratiques contraires aux valeurs canadiennes dans la chaîne d'approvisionnement.
    Vous avez dit quelque chose que j'ai trouvé fascinant. Vous avez établi un lien entre la chaîne d'approvisionnement de l'IA et les droits de la personne. Vous avez aussi mentionné le nivellement par le bas concernant les droits des travailleurs dans la chaîne d'approvisionnement. J'aimerais approfondir la discussion, mais je vais m'adresser à un autre témoin.
    Madame Casovan, vous avez évoqué la conformité dans un monde régi par l'IA. Pourriez-vous nous en dire davantage? Dans tous les types d'organisations, la gouvernance est très importante, tout comme le sont les services ou les produits. J'essaie de me faire une idée de ce que serait la conformité dans un monde régi par l'IA. En quoi consistera la conformité et à quoi devrait‑elle ressembler?
    Vous n'êtes pas le seul à vous poser la question, qui est passablement compliquée.
     Une note qui accompagnait les amendements portait sur la fonction de vérification du commissaire à l'intelligence artificielle. Une des choses qui seraient souhaitables est le recours spontané aux vérifications de la conformité plutôt que l'imposition de vérifications par le commissaire lorsque des problèmes graves émergent. Il faudrait instaurer des vérifications proactives, comme le sont les vérifications financières, qui sont réalisées systématiquement chaque année par les entreprises.
     Dans ce cas‑ci, nous devons approfondir notre compréhension de la portée du système d'IA, ce qui nous permettra de saisir la nature des préjudices possibles et les moyens d'assurer la conformité. À quoi ressembleraient les pratiques des entreprises qui se conforment? Des vérifications publiques devraient alors être réalisées par des tiers, à l'instar des vérificateurs professionnels des services financiers.

  (1640)  

     J'ai travaillé dans les services financiers au Canada et à l'étranger pendant de nombreuses années. Je sais que nous avons besoin d'états financiers vérifiés pour faire notre travail. Heureusement, ils sont exacts 99 fois sur 100.
    Est‑ce un monde comme cela qui nous attend?
    Si j'avais mon mot à dire, c'est ce que je souhaiterais.
    J'aimerais toutefois ajouter quelque chose. Comme vous le savez, les vérifications financières ont la réputation d'être longues et coûteuses. Or, de nombreux outils existent qui permettraient d'accélérer l'évaluation des systèmes d'IA. Étant donné que ces systèmes changent très rapidement, il faut à tout prix tirer profit de ces outils pour favoriser la rapidité d'exécution et l'exactitude des vérifications au moment où elles sont menées et dans l'optique d'une surveillance continue.
    Vous avez dépassé votre temps, monsieur Sorbara.
    Je vais m'accorder un peu de temps pour poser une question complémentaire à M. Shee.
    J'essaie de comprendre quelle est l'ampleur du problème dont vous voulez saisir le Parlement concernant l'exploitation des travailleurs dans la chaîne d'approvisionnement de l'IA.
    Je pense tout haut. Aujourd'hui, j'ai regardé le prototype Gemini DeepMind de Google qui vient de sortir. J'ai l'impression qu'il est peut-être trop tard et que l'IA est déjà rendue au stade où sa mise au point ne nécessite plus autant de travail.
    J'essaie de saisir l'ampleur du problème.
    C'est une excellente question.
    D'abord, les systèmes d'IA sont très impressionnants. Il faut toutefois que des millions de personnes travaillent en coulisse quotidiennement pour faire fonctionner ces systèmes qui permettent de faire une foule d'activités allant des interactions dans les médias sociaux aux prises de décisions automatisées.
    Ce que je demande est très simple. En inscrivant dans la loi un mécanisme de divulgation qui exigerait des entreprises qu'elles transmettent des informations sur les données qu'elles ont recueilles et sur leurs méthodes de collecte, nous protégerions contre les processus d'exploitation les millions de personnes dans le monde qui annotent les données quotidiennement et qui interagissent avec les systèmes d'IA en arrière-scène.
    En ce moment, aucune loi n'est en place nulle part dans le monencore de. C'est la jungle. Personne ne protège ces travailleurs. Ce sont des jeunes au P etkistan, des femmes a, mais aussi des Canadiens vulnérables qui occupent un deuxième emploi pour arrondir les fins de mois. Rien n'est en place pour les protéger.
    Merci.

[Français]

     Monsieur Lemire, vous avez la parole.
    Merci, monsieur le président.
    Monsieur Shee, j'aimerais poursuivre avec vous.
    Hier, Radio‑Canada a présenté un reportage sur l'intelligence artificielle au service de la guerre. Il faisait référence à l'utilisation de l'intelligence artificielle et du logiciel Gospel par l'armée israélienne pour mieux cibler les installations attribuées au Hamas. Cependant, cette technologie augmente le nombre de victimes civiles, selon les experts, parce qu'il y a moins d'interactions humaines derrière chaque décision prise avant de passer à l'offensive.
    Dans ce cas, y a-t-il là un certain dérapage de l'intelligence artificielle? Comment peut-on encadrer ces pratiques pour sauver des vies humaines?
    C'est une excellente question.
    Je n'ai aucune expérience de l'intelligence artificielle dans des situations de guerre ou de défense. Je peux simplement commenter cela en tant que citoyen averti.
    Je pense qu'il faut un encadrement extrêmement clair qui prend en considération les règles de guerre déjà établies. Malheureusement, les systèmes d'intelligence artificielle sont utilisés dans des situations de guerre et ils font énormément de victimes. Il faut être conscient du risque et prendre des mesures pour l'encadrer.
    Très humblement, c'est un peu hors de mon champ d'expertise. Cependant, je pense que vous soulevez un point important. En effet, l'intelligence artificielle sera utilisée dans des situations de guerre et des systèmes [difficultés techniques].
    Le système nous cause encore des problèmes. On dirait que le son a cessé de fonctionner.
    Messieurs Shee et Masse, nous entendez-vous?

  (1645)  

     Oui, je vous entends.
    D'accord.

[Traduction]

     Le son est revenu.
    Oui. Le son fonctionne de nouveau.

[Français]

    D'accord.
    Monsieur Lemire, vous pouvez continuer.
    Selon votre expertise et votre implication auprès du groupe de travail sur le Partenariat mondial sur l'intelligence artificielle, je pense que vous allez pouvoir nous aider à démystifier tous les écueils engendrés par l'intelligence artificielle, notamment.
    J'aimerais que vous nous donniez un autre type d'exemple pour ce qui est de la protection de nos institutions démocratiques. Par exemple, cette semaine, 19 600 amendements ont été proposés en très peu de temps au Comité permanent des ressources naturelles par le Parti conservateur, pour ne pas le nommer. Puisque les amendements ont été faits en très peu de temps, je me dis qu'ils ont nécessairement été générés par l'intelligence artificielle. Ainsi, on veut embourber des institutions à l'aide de l'intelligence artificielle.
    Dans ce cas, y a-t-il aussi un risque de dérapage? Comment peut-on agir pour protéger nos institutions démocratiques de ces tentatives qu'on pourrait qualifier de « trumpistes »?
    Sans commenter spécifiquement ce qui est ressorti, je peux mentionner que l'intelligence artificielle générative, qui prend de plus en plus de place dans la conversation actuelle, peut générer des textes aussi plausibles que ceux qu'écriraient des êtres humains. C'est certainement un risque pour notre démocratie et cela met aussi à risque les interactions qu'ont les gens avec différents systèmes. En effet, les gens pourront-ils être assurés qu'il s'agit d'un humain? La réponse est non.
    Vous soulevez une question extrêmement importante. Il faut avoir un marqueur pour déterminer si quelque chose est produit par un système d'intelligence artificielle ainsi qu'une manière, pour le consommateur ou la personne qui interagit avec le système, de savoir qu'il parle avec un système basé sur l'intelligence artificielle et non avec un être humain.
    Ce sont des éléments essentiels à la protection de notre démocratie contre la mésinformation qui peut en ressortir et qui grandira de façon exponentielle avec de nouveaux systèmes. Nous n'en sommes qu'aux balbutiements en matière d'intelligence artificielle. Il faut absolument avoir des manières d'identifier les systèmes d'intelligence artificielle et de déterminer si on est en train d'interagir avec un système ou une personne.
    Merci beaucoup.
    Merci, monsieur Lemire.
    Monsieur Masse, vous avez la parole.

[Traduction]

    Merci, monsieur le président.
    Madame Wylie, je vais vous poser une question, puisque vous n'avez pas eu la chance de participer à la discussion. Si la fonction de commissaire à l'intelligence artificielle ou de commissaire aux données, peu importe le nom que nous lui donnerions, était établie, le serait-elle selon un modèle indépendant comme celui du commissaire à la protection de la vie privée?
    Ensuite, peut-être avez-vous des suggestions, mais comment assurons-nous l'indépendance et la reddition de comptes de cette fonction tout en lui donnant des moyens d'agir?
    Je vais revenir à ce que je disais tout à l'heure sur le fait de commettre la même erreur pour la troisième fois. Nous avons commis cette erreur avec la protection de la vie privée et des données en traitant ces sujets comme des objets coupés de la réalité. Ce raisonnement erroné s'est soldé par un échec. Nous parlons beaucoup de protection de la vie privée, mais nous avons affaire à un espace très privatisé dont les infrastructures — particulièrement l'IA, peu importe les données et les logiciels — sont contrôlées par des intérêts privés.
    Si nous pensons aux échecs en matière d'accès à la justice pour des choses comme la protection de la vie privée et la protection des données, et que nous pensons aux failles de ce type de modèle, la question n'est pas de déterminer si nous devons résoudre les problèmes d'accès, mais plutôt de déterminer comment les résoudre. Si nous voulons prendre le virage vers un monde différent où nous aurions le contrôle des technologies, il faut examiner les choses en contexte.
    À mon avis, il faut revenir à la base. Qui est le ministre responsable de tel ou tel secteur? Qui est responsable de la gestion des forêts, de la protection de l'environnement ou encore du transport automobile? Nous devons toujours revenir à cela. Nous avons beau continuer à échafauder des processus complexes et à empiler les mécanismes de conformité jusqu'à l'infini, nous ne réglerons pas le problème fondamental d'accès à la justice au pays. Combien de Canadiens ont le temps et l'énergie de déposer une plainte auprès du commissaire à la protection de la vie privée? Quel est le profil des personnes qui déposent ce genre de plaintes? À quel segment de la population appartiennent ces personnes?
    De la même manière, nous ne pouvons même pas savoir aujourd'hui si nous avons subi des préjudices causés par l'intelligence artificielle. J'ai entendu récemment quelqu'un faire une comparaison avec l'amiante. Puisque ce minéral peut se trouver dans la matière sans que nous le sachions, qui pouvons-nous tenir responsable? Il existe des processus clairs pour ceux qui se font frapper par une voiture. Pourquoi bâtir quelque chose d'entièrement nouveau alors que nous avons déjà des éléments palpables et un ensemble parfaitement fonctionnel de normes de gouvernance? Il existe des pouvoirs publics à cet effet. Les seuls qui vont profiter de cet échafaudage de complexités additionnelles, ce sont les détenteurs d'intérêts privés. Dans les démocraties — les préjudices causés par les technologies existent depuis 30 ans —, ce sont les pouvoirs publics qui doivent être renforcés.
    Est‑ce que je souhaite la création d'une fonction de commissaire à l'intelligence artificielle? Non. Il ne faut pas instaurer un nouveau régime pour l'IA.

  (1650)  

     Vous voulez travailler avec ce qui existe déjà dans les ministères. Est‑ce exact?
    C'est exact. Je vous laisse deviner ce qui va se passer. Les préjudices dont nous parlons se transformeront en abstractions.
    Je suis désolée, mais je ne peux pas croire que nous continuons dans cette voie. Le monde ne fonctionne pas de cette façon. Nous devons analyser les faits. C'est comme cela que le droit fonctionne. Il faut déterminer ce qui s'est passé, quand et où, ainsi que les personnes impliquées. La justice n'est pas un univers abstrait.
    Je suis désolée de marteler ce point, mais pourquoi ne travaillons-nous pas à partir de ce qui fonctionne déjà? Les organismes gouvernementaux sont en place. Travaillons à partir de là.
    Merci.

[Français]

     Merci beaucoup.
    Monsieur Généreux, vous avez la parole.
    Je remercie tous les témoins.
    Comme on le dit en québécois, je suis « sur le cul ».

[Traduction]

    Je ne sais pas si vous comprenez cette expression. En anglais, on dirait littéralement « I'm on my ass ».

[Français]

    Je ne sais pas si cela se traduit comme cela.
    Je m'excuse auprès des interprètes.
    Madame Wylie, vous êtes en train de nous donner une leçon particulièrement intéressante.
    Le projet de loi C‑27 est sur la table depuis près de deux ans. Il a été évalué. Il a été créé par des fonctionnaires, de toute évidence, à Ottawa. Certains politiciens ont fait du travail pour essayer de mettre en place une loi qui viendrait encadrer un problème que vous ne voyez pas réellement. En effet, vous dites que toutes les lois dont on a besoin existent déjà. Il faut simplement procéder par secteur pour corriger les éléments qui auront un lien avec l'intelligence artificielle.
    Au Comité, nous avons accueilli des gens. Au cours des dernières années, nous avons mené des études sur les chaînes de bloc, sur l'industrie automobile, sur le droit à la réparation, etc.
    Aujourd'hui, vous nous dites que ce que nous sommes en train de faire ne donne absolument rien. Vous nous dites de reprendre les études que nous avons menées et les lois existantes et de corriger ce qui va toucher l'intelligence artificielle, car celle-ci se trouve déjà dans tous ces secteurs, qu'on se le dise.
    Je m'adresse toujours à vous, madame Wylie, mais j'aimerais aussi savoir ce que Mmes Brandusescu et Casovan pensent de votre position.

[Traduction]

    Je tiens à être très claire: il n'y a rien de mal à soutenir le secteur de l'intelligence artificielle. Toutefois, je trouve tout à fait trompeur d'évoquer la peur, la sécurité, la réduction des préjudices, la protection des droits de la personne et plus encore pour justifier le projet de loi. C'est la raison pour laquelle j'ai demandé ce que le projet de loi accomplissait réellement.
    Si nous repartions de zéro, nous pourrions demander: « Quels préjudices constate‑t‑on dans différents secteurs? Comment les a‑t‑on réparés dans les secteurs des logiciels et des banques? ». Aucun secteur ne part de rien. Tous ont eu à prendre des mesures à l'égard des données, de la protection de la vie privée, des logiciels. Les logiciels causent énormément de préjudices, mais on ne fait rien à ce sujet. La mesure ne cadre même pas avec la réalité des 30 dernières années de préjudices entraînés par la technologie.
    Ce que je dis, c'est qu'il faut consulter la population. Je le répète, les seules personnes avec qui il faudrait s'entretenir n'ont pas été incluses dans le processus. Ce sont elles qui pourraient vous parler des problèmes, parce qu'à l'heure actuelle, tout le monde s'exprime en termes généraux.

[Français]

    Je suis d'accord avec vous. D'ailleurs, on nous a annoncé mardi que la troisième guerre mondiale sera technologique.
    Pour éviter d'éventuels dérapages, devrait-on avoir quand même quelque chose comme ce qui s'apprête à être mis en place en Europe et un peu partout au monde?

  (1655)  

[Traduction]

    Merci.
    Pour ajouter à ce que Mme Wylie a dit, à mon avis, il faut réglementer l'intelligence artificielle. Il faut ralentir. Il ne faut pas tout casser en réglementant rapidement. Je le répète, l'intelligence artificielle est déjà réglementée, mais par le secteur privé. C'est de l'autoréglementation, et cela ne fonctionne pas. M. Shee l'a déjà dit durant sa déclaration préliminaire.
    Il faut des mesures différentes. Comme au sein de l'Union européenne, la réglementation doit être élaborée et par le secteur public et par le secteur privé. De plus, elle ne doit pas être centralisée. J'insiste sur ce fait, car les enjeux sont trop importants pour donner tout le pouvoir à un seul organisme. J'ajouterais qu'il ne faut pas s'en remettre uniquement au Commissariat à la protection de la vie privée parce que l'intelligence artificielle ne concerne pas uniquement la protection de la vie privée. Elle concerne également la privatisation.
    Aujourd'hui, on court un risque de capture de la réglementation, car chaque fois que les grands gouvernements, dont le nôtre, se réunissent en sommet, comme à Bletchley Park, au Royaume-Uni, ils annoncent une nouvelle collaboration avec une grande entreprise. Il y a les suspects habituels — Amazon, Google et Microsoft —, ainsi que les nouveaux joueurs. On ne peut pas fonctionner ainsi.
    Je le répète, ce n'est pas du tout une question de perfection. Le problème, c'est que pendant le processus d'un an et demi qui nous a menés jusqu'ici, il n'y a eu presque aucune consultation publique, aucune demande de participation et aucun échange de connaissances, malgré le fait, comme Mme Wylie l'a souligné, qu'il existe de nombreux exemples précis de préjudices. Oui, il faut réglementer l'intelligence artificielle. Nous pouvons faire appel à notre imagination pour élaborer des mesures législatives en ce sens.
    Vous disposez de 30 secondes, madame Casovan.
    Je pense que j'ai répété à plusieurs reprises qu'à mes yeux, l'intelligence artificielle n'est pas un bloc monolithique. Selon moi, elle exige une réglementation proprement sectorielle.
    D'après moi, la LIAD fournit un cadre pour la mise en place subséquente d'autre réglementation proprement sectorielle. Le processus suivi pose indubitablement problème. D'autres consultations publiques sont nécessaires. J'ai été ravie de constater qu'au moins les amendements tiennent compte des réactions et tentent d'y répondre.
    Je ne vais pas m'attarder sur cette question, car c'est à vous de débattre du processus. Cela dit, c'est très important de réglementer les systèmes d'intelligence artificielle. Je travaille beaucoup auprès d'organisations de la société civile; j'ai vu les préjudices causés par l'intelligence artificielle. Je ne crois pas qu'on puisse compter sur les entreprises pour fixer elles-mêmes les règles qu'elles doivent suivre. Je ne crois pas non plus que se fier à leur parole lorsqu'elles disent qu'elles font de leur mieux les incitera à bien se comporter. Les législateurs doivent intervenir.
    Il faut aussi imposer les devoirs. On ne peut pas dire aux entreprises de préparer leurs propres épreuves et de les évaluer elles-mêmes. Je trouve très important que ce soit les organisations de la société civile, en collaboration avec les intervenants du secteur, les gouvernements et les chercheurs universitaires, qui imposent les épreuves, les normes dont je parle, et que ces normes soient ensuite utilisées pour évaluer les pratiques du secteur.
    Merci beaucoup.

[Français]

     Merci beaucoup, monsieur Généreux.

[Traduction]

    Monsieur Turnbull, la parole est à vous.
    Merci, monsieur le président.
    Je remercie tous les témoins de leur présence. Nous avons un bel échantillon de points de vue. Depuis le début de notre étude, nous recueillons les opinions de témoins d'horizons divers.
    Je pense que tous s'entendent sur le fait que nous avons affaire à une mesure législative importante, volumineuse, complexe et ardue, tant pour les législateurs que pour... Je ne crois pas qu'un seul intervenant ait une vue globale de la manière de procéder. Je trouve très bien d'avoir des discussions mouvementées comme celles‑ci. Je comprends que les défis sont nombreux.
    Tout d'abord, je tiens à mentionner que le projet de loi a été élaboré pour donner suite aux recommandations du comité consultatif en matière d'intelligence artificielle du ministre, qui était formé d'experts du domaine. La dénonciatrice de Facebook fait aussi partie des éléments qui ont déclenché ce travail.
    J'ajouterais aussi qu'à ma connaissance, plus de 300 intervenants ont été consultés, dont des universités, des instituts, des entreprises, des regroupements sectoriels, des associations, des spécialistes de la protection de la vie privée et des groupes de protection des consommateurs. Je pense qu'il y a aussi d'autres catégories d'intervenants, mais ce sont celles que je peux voir. J'ai la liste sous les yeux. Elle a été rendue publique, et les membres du Comité l'ont reçue.
    De plus, pour parler des usages parlementaires, habituellement, les amendements ne sont pas fournis à l'avance pendant une étude à laquelle participent des témoins. Cette fois‑ci, le gouvernement a fourni les amendements à l'avance, en plus de convoquer des témoins.
    Il y a divers points de vue sur le processus à suivre. Certains témoins nous ont dit que déposer un projet de loi-cadre est un bon moyen d'inscrire une mesure au Feuilleton, pour ensuite mener de vastes consultations, puis proposer des amendements. Aux yeux de certains, cette méthode convient parfaitement.
    Je tenais d'abord à présenter ces observations.
    Madame Casovan, d'autres témoins nous ont parlé comme vous de l'équilibre entre innovation et protection. Ce que j'ai compris, c'est que la mise en place de garde-fous raisonnables permettra aux gens de profiter de l'intelligence artificielle, tout en les protégeant. Je sais que c'est un objectif difficile à atteindre. Tout projet de loi implique une recherche d'un juste milieu.
    D'après vous, comment saurons-nous si nous avons trouvé un juste milieu?

  (1700)  

    Vous le saurez si personne ne subit de préjudices.
    C'est très difficile, mais il faut essayer. Il faut reconnaître que si l'on s'en remet au marché libre, on n'obtiendra probablement pas les résultats voulus.
    Je ne sais pas si vous connaissez la base de données des incidents d'IA. C'est une excellente ressource. Elle fait le suivi de différentes formes de préjudices. Ce serait formidable que les incidents soient compilés; ainsi, on les comprendrait mieux et l'on pourrait les expliquer de manière plus générale.
    C'est difficile de répondre à la question sans ces informations. Je trouve important de confier à un commissariat la responsabilité de collecter des données sur les incidents qui lui sont signalés.
    Madame Casovan, selon vous, allons-nous trop vite? La mesure législative est-elle précipitée?
    Au début de la semaine, plusieurs témoins nous ont dit que nous tirions de l'arrière et que nous devions avancer plus vite. C'est ce que j'ai entendu de la part de nombreux intervenants, mais tous ne sont peut-être pas du même avis.
    Qu'en pensez-vous?
    Sauf le respect que je dois aux autres témoins, quant à moi, nous avançons beaucoup trop lentement.
    Je comprends la gravité des enjeux. Les risques de préjudices sont nombreux et divers, et c'est difficile de les comprendre sans les contextualiser. Mme Wylie l'a très bien expliqué. J'ai entendu ses arguments, qui semblent plaider pour une approche décentralisée. Pour notre part, nous sommes plutôt enclins à opter pour une mesure législative centralisée qui réglementera plus ou moins l'ensemble des activités. Évidemment, il faudra la modifier et l'actualiser. L'intelligence artificielle évolue à une vitesse telle qu'il est difficile de suivre le rythme.
    Quel est votre point de vue? C'est une question difficile.
    Je pense qu'il y a deux éléments importants à souligner.
    D'abord, il doit absolument y avoir un centre de responsabilité. Étant donné l'interopérabilité entre les différents systèmes d'intelligence artificielle, pour savoir exactement... Par exemple, il va peut-être de soi que les véhicules automatiques sont du ressort du ministère des Transports, mais pour les systèmes de soins de santé, les enjeux peuvent toucher à la fois la protection des consommateurs et la santé et la sécurité. La détermination est difficile à faire. D'après moi, le projet de loi oblige la collaboration entre les différents organismes de réglementation, ainsi que l'harmonisation de la réglementation.
    Ensuite, il y a aussi des écarts à combler.
    En troisième lieu, je répéterais peut-être ce que j'ai dit durant ma déclaration préliminaire: il faut professionnaliser le milieu pour rendre des personnes responsables de la gouvernance des systèmes. Cela favorisera l'harmonisation de la réglementation.

  (1705)  

    Ce que vous dites est intéressant. De nos jours, on parle souvent des dossiers primordiaux et de la volonté d'adopter une approche englobant l'ensemble du gouvernement, de l'économie ou de la société. Je pense que la majorité des gens comprennent que les gouvernements doivent harmoniser les mesures prises par les différents ministères et que les ministères doivent s'attaquer aux problèmes ensemble. La lutte contre les changements climatiques en est un bon exemple.
    Pourtant, nombre de mesures législatives demeurent sous la responsabilité d'un ministère en particulier et relèvent du mandat d'un ministre donné. Je pense qu'il arrive souvent qu'une loi centrale soit du ressort d'un ministère donné, mais qu'elle ait une incidence sur les travaux de l'ensemble des ministères. D'après moi, c'est ce qui pourrait arriver dans ce cas‑ci.
    Est‑ce le résultat que vous espérez?
    L'harmonisation entre les différents ministères est très importante, selon moi; l'harmonisation au sein du Canada aussi, c'est‑à‑dire entre les provinces, entre les gouvernements provinciaux et national, ainsi qu'à l'échelle des municipalités.
    En outre, le projet de loi, avec les amendements proposés, aborde la question de l'harmonisation à l'échelle internationale. Le Canada joue un rôle crucial auprès de l'Union européenne. Il en a beaucoup été question aujourd'hui. Toutefois, nous n'avons pas parlé du décret américain sur l'intelligence artificielle et de ce qu'il implique.
    Monsieur le président, je pense que mon temps de parole est écoulé. Je vous remercie pour votre indulgence.

[Français]

    Merci beaucoup.
    Je cède maintenant la parole à M. Williams pour cinq minutes.

[Traduction]

    Merci beaucoup, monsieur le président.
    Madame Casovan, j'aimerais vous poser quelques questions complémentaires.
    La discussion d'aujourd'hui est fort intéressante, soit dit en passant, surtout en ce qui concerne la LIAD.
    On parle de la valeur des données publiques et privées, surtout dans le contexte de la LIAD, et des exemptions que prévoit le projet de loi. Aux termes actuels du projet de loi, la LIAD ne s'applique pas au MDN, au SCRS, au CST et à tout autre ministère ou organisme fédéral ou provincial désigné par règlement. Autrement dit, la loi ne s'applique pas à l'ensemble du gouvernement fédéral et des sociétés d'État.
    À votre avis, est‑il juste d'exempter l'ensemble du gouvernement fédéral de la LIAD?
    C'est la raison pour laquelle le Secrétariat du Conseil du Trésor a émis une directive sur la prise de décisions automatisée. Les systèmes de gestion sont du ressort du Conseil du Trésor. Faudrait‑il faire de cette directive une loi régissant le fonctionnement des services du secteur public, à l'instar de la Loi sur la protection des renseignements personnels et les documents électroniques et de la Loi sur la protection de la vie privée? Oui.
    Une chose que j'espère voir, c'est l'harmonisation des exigences de la LIAD et de la directive, ou une politique subséquente dans laquelle le SCT reconnaît que les systèmes de prise de décisions automatisée ne sont pas la seule forme d'intelligence artificielle.
    Un sujet qui n'est pas abordé dans le projet de loi ou qui est hors de sa portée, ce sont les systèmes de sécurité nationale, comme vous l'avez mentionné. D'après moi, il faudrait ajouter des dispositions à ce propos.
    Le principe... Pour les gens qui nous écoutent, je précise que la première partie du projet de loi C‑27 ne s'applique pas au secteur public, mais comme vous l'avez souligné, nous avons la Loi sur la protection de la vie privée. On pourrait soutenir qu'il aurait fallu examiner cette loi en même temps. Ce que je veux dire, c'est qu'aucune mesure, surtout pas la LIAD, ne comprend des dispositions régissant l'intelligence artificielle dans le secteur public. C'est un sujet dont nous avons beaucoup parlé.
    J'essaie de mieux comprendre votre recommandation. La LIAD devrait-elle inclure des dispositions à ce sujet? Aurait‑il fallu intégrer une mesure distincte au projet de loi?
    En fait, la directive sur la prise de décisions automatisée régit l'utilisation des systèmes d'intelligence artificielle au sein du gouvernement.
    Je soulignerais aussi l'importance d'harmoniser la LIAD et la directive puisque la majorité des ministères ne conçoivent pas leurs propres systèmes d'intelligence artificielle; ils les achètent. Je trouve très important d'assurer la cohérence entre les règles d'approvisionnement et les dispositions de la LIAD.
    Cela dit, une mesure législative portant sur la protection de la vie privée, les données liées à l'intelligence artificielle et l'intelligence artificielle dans son ensemble comprendrait certainement des dispositions à ce sujet. Pour l'approvisionnement, on tiendrait seulement compte d'autres mesures, comme la Loi sur Investissement Canada ou d'autres lois.
    Je trouve cette omission intéressante. C'est une lacune flagrante que j'ai seulement remarquée aujourd'hui.
    Je vais me tourner maintenant vers Mme Wylie ou Mme Brandusescu.
    Je porte beaucoup d'attention aux obstacles à la concurrence. Nous examinons les géants conglomérats autoritaires qui règnent sur le système.
    Madame Wylie, vous avez fait une observation intéressante. Vous avez dit que le secteur est le seul qui semble avancer parce que le capital cherche un endroit où aller. Les exemples que vous avez donnés d'entreprises qui génèrent des profits sont Amazon, Microsoft et Google. Ce sont de géants conglomérats autoritaires, des sociétés énormes qui ne cherchent qu'à prendre de l'expansion et, bien sûr, à engranger des profits.
    Nous sommes le comité de l'industrie. Nous tenons à ce que les jeunes compétiteurs et les petites entreprises puissent entrer sur le marché et soutenir la concurrence.
    J'appuie vos arguments sur l'état actuel de la LIAD. Disons que nous reprenions du début. Comment pourrions-nous favoriser la concurrence? Par où faudrait‑il commencer pour faire en sorte que tous les intervenants participent aux discussions, pas seulement les plus grands, mais aussi les plus petits?

  (1710)  

    Je n'ai que deux commentaires à faire là‑dessus.
    Premièrement, c'est en partie la raison pour laquelle, si nous avions un engagement public adéquat et que nous reprenions du début, il faudrait recenser les biens infrastructurels qui composent l'intelligence artificielle. Il n'y a pas d'intelligence artificielle sans les géants de la technologie, un point c'est tout. Vous ne pouvez pas la créer dans votre garage. Vous ne pouvez pas créer votre petite entreprise de logiciels parce que le code est à votre disposition. Ce n'est pas ainsi que fonctionne cette industrie. C'est ce que je veux dire. Je suis préoccupée du manque de travail préparatoire réalisé pour nous assurer de partir d'une réalité matérielle, physique, infrastructurale, et pour savoir la façon dont c'est lié à cette industrie. C'est une chose.
    La deuxième chose que je veux dire est liée à la conversation que nous avons eue au sujet de la centralisation ou de la décentralisation. Non seulement le gouvernement canadien n'a pas beaucoup d'influence pour dire ce que cette infrastructure peut faire ou non... Lorsque nous songeons à la législation sur la protection des renseignements personnels, si nous commençons ici avec un parapluie appelé « protection de la vie privée », puis que nous examinons comment les choses se passent dans différents secteurs, nous pourrions savoir à quoi nous en tenir à l'échelle sectorielle. Si notre parapluie s'appelle « intelligence artificielle », qu'est‑ce que c'est? Que tentons-nous de faire exactement dans ce cas? Essayons-nous de l'utiliser partout?
    Je veux simplement nous rappeler que nous avons une conversation dans un cadre qui ne tient compte ni de la réalité, dans la façon dont cette industrie est structurée, ni de la façon dont notre législation préexistante est établie.
    Je veux simplement dire à quel point les entreprises pourraient être peu nombreuses à aller de l'avant. Les entreprises en démarrage espèrent que personne ne posera de questions sur leurs revenus après deux ou trois ans. Tout ce qu'elles ont à faire, c'est de montrer leur échelle. C'est ainsi que fonctionne le secteur du capital de risque. Vous n'avez qu'à montrer que votre entreprise prend de l'expansion; vous n'avez pas à montrer qu'elle fait de l'argent. C'est à ce point semblable à un casino.
    C'est pourquoi le fait que nous intégrions ce secteur sans examiner les conséquences sur le reste de notre économie est aussi une grave erreur, selon moi.
    Pour compléter ce qu'a dit Mme Wylie, j'aimerais revenir quatre ans en arrière, lorsque le public et le privé ont investi massivement dans la société Element AI. C'est un dossier dont on ne parle plus au Canada et au Québec. Cela revient à ce que disait Mme Wylie au sujet de la propriété de l'infrastructure et du centre de données par rapport aux ensembles de données. Encore une fois, sans les géants de la technologie, il n'y aurait peut-être pas d'intelligence artificielle. Je dirais toutefois que sans l'armée, il n'y aurait pas d'intelligence artificielle, parce que c'est de là qu'elle vient, comme la plupart des technologies.
    Element AI était l'enfant chéri du Canada. En fin de compte, la place que nous occupions dans le cadre réglementaire de la concurrence ne lui a pas permis de survivre. Que s'est‑il passé? La société a été acquise par ServiceNow, une entreprise de la Silicon Valley qui, franchement, assure la surveillance des travailleurs.
    Lorsque nous passerons à cette nouvelle idée, j'aimerais savoir exactement à quoi ressemblera une plus grande prospérité commune dans la concurrence entre les PME et les grandes entreprises. J’aimerais réfléchir aux échecs de l’IA au Canada dans l’espace industriel. Où avons-nous fait fausse route? Qu’est‑il advenu des sommes colossales de financement et de dépenses gouvernementales qui ont été versées pour soutenir notre industrie, compte tenu de toute l’expertise en recherche sur l’IA que nous avons et de tous les centres d’excellence? Nous devrions y songer avant même de réfléchir à la forme que devrait prendre la concurrence. Nous devrions réfléchir à ce qui s'est passé, surtout avec la société Element AI.

  (1715)  

    Votre temps est écoulé, monsieur Williams.
    Avant de céder la parole à M. Gaheer, je vais poser une petite question.
    Madame Brandusescu, vous venez de mentionner quelque chose que nous n'avons jamais entendu jusqu'à présent au Comité. Vous avez dit qu'il n'y aurait pas d'IA sans l'armée. Pourriez-vous nous expliquer cette affirmation?
    Je le peux certainement. J'ai entendu à maintes reprises des témoins parler d'échelle, mais pas de violence à grande échelle. C'est ce que nous voyons — c'est ainsi que l'intelligence artificielle est employée dans l'armée. Nous devons revenir à une chose dont j'ai parlé lorsque le Parlement réalisait une étude sur la technologie de reconnaissance faciale: des entrepreneurs du secteur de la défense sont maintenant des entreprises d'IA et d'analyse des données. L'entreprise Palantir en est un exemple connu. Vous la connaissez peut-être.
    Palantir est une entreprise intéressante, parce qu'elle a commencé dans le domaine de la défense, mais qu'elle est maintenant partout. Le National Health Service du Royaume-Uni vient de lui accorder un contrat de plusieurs millions de dollars, malgré toute l'opposition qu'elle suscite. Palantir a promis que le gouvernement du Royaume-Uni serait responsable des données des gens, mais au bout du compte, ce n'est pas vrai. Nous avons des exemples de violations des droits de la personne commises par Palantir dans le passé. Mettons les choses en perspective. Par exemple, une étude réalisée par Amnesty États-Unis a montré que là‑bas, le gouvernement a planifié les arrestations massives de près de 700 personnes et « la séparation des enfants de leurs parents [...] causant des dommages irréparables. »
    Je vais revenir à l'armée. Qu'est‑ce que cela signifie? L'armée est le principal bailleur de fonds de l'IA. Nous assistons à des tueries rapides et exacerbées à grande échelle. Lorsque nous nous précipitons pour favoriser l’intelligence artificielle, la rendre plus rapide et créer une réglementation plus vite simplement pour nous justifier de l’utiliser, nous ne réfléchissons pas à ce qui devrait être interdit, à ce qui devrait être mis hors service...
    Je vous remercie, madame Brandusescu. Je dois vous interrompre ici. Je voulais simplement en savoir plus à ce sujet. À ma connaissance, la plupart des grands joueurs de l’IA sont dans le secteur privé, mais je vous remercie des exemples que vous avez donnés.
    La sonnerie se fait entendre, chers collègues, ce qui signifie que nous avons besoin du consentement unanime des membres du Comité pour continuer. Je regarde dans la salle pour voir si nous l'avons, étant donné que nous aurons environ 35 heures de vote, grâce à nos amis à ma gauche, mais certainement à ma droite aussi, sur le plan politique.
    Ai‑je le consentement unanime du Comité pour continuer encore 10 minutes?
    Des députés: D'accord.
    Le président: Je cède maintenant la parole au député Gaheer.
    Je vous remercie, monsieur le président, ainsi que tous les témoins de leur témoignage devant le Comité.
    Ma première question s'adresse à Mme Casovan.
    Nous savons que le ministre a récemment présenté au Comité des amendements visant à clarifier la définition et la portée des « systèmes à incidence élevée » en décrivant sept catégories distinctes de tels systèmes. Pensez-vous que c'est une bonne façon de procéder? Est‑ce que c'est assez clair, ou pensez-vous qu'il y aurait un meilleur modèle?
    Comme nous en avons beaucoup discuté aujourd'hui, je pense qu'il est bon de commencer à comprendre que l'intelligence artificielle n'est pas une seule chose. Il est important de ventiler la technologie en différents types de contextes et d'utilisations.
    Je trouve toutefois que la liste est limitée. Je comprends que l'idée est de continuer à y ajouter des éléments et d'avoir un processus en place. Je pense qu'il pourrait être difficile de tenir un inventaire de ces catégories, comme je l'ai mentionné plus tôt, étant donné qu'elles pourraient comporter différents risques. Il faudrait essayer de trouver une façon... un peu comme ce que nous avons fait avec la directive de ventiler les données, compte tenu de ce que nous essayons réellement d'accomplir avec chacune des mesures d'atténuation pour ces catégories de systèmes.
    Avez-vous un meilleur système à proposer?
    Comme je l'ai dit, je pense qu'il pourrait s'agir d'une combinaison des deux contextes employés. Il faudrait aussi reconnaître en quoi consiste une évaluation normale d'un risque élevé.
    Encore une fois, j'attire votre attention à l'annexe C de la Directive sur la prise de décisions automatisée. Elle est divisée en quatre niveaux d'incidence, comme nous les appelons, mais qui nécessitent différentes exigences de conformité.
    Je pense aussi que le mot clé est « norme » d'évaluation de l'incidence, et vise à comprendre ce que serait réellement le risque.

  (1720)  

    Je suis désolé, je ne voulais pas vous mettre sur la sellette.
    Non, non. J'ai beaucoup d'opinions à ce sujet.
    Ma prochaine question s'adresse à tout le monde, et peut-être que M. Shee pourra y répondre. Nous savons également que les amendements à la LIAD proposés par le gouvernement comprennent une série de tâches à accomplir avant qu'un système d'IA à usage général ou à incidence élevée puisse être mis sur le marché, y compris une évaluation des effets négatifs et un test de l'efficacité des mesures visant à atténuer le risque de préjudice ou de résultats biaisés.
    Que pensez-vous de ces nouvelles obligations que le gouvernement souhaite imposer aux gens qui veulent rendre disponibles les systèmes d'IA?
    Je vais peut-être répondre très rapidement.
    Allez‑y.
    Je pense que ce qui est vraiment important, c'est qu'un processus de gouvernance soit mis en place avant l'élaboration de ces systèmes. Comme je l'ai mentionné, cela fait partie de cette fonction d'assurance ou de vérification qui existerait.
    Je pense également, comme je l'ai mentionné dans ma déclaration préliminaire, que le fait d'avoir une personne responsable, quelque chose comme un dirigeant principal de l'IA, aiderait à faire avancer ce processus de façon cohérente et, par conséquent, significative.
    Monsieur Shee, voulez-vous ajouter quelque chose?
    J'ajouterais simplement que je pense que c'est un bon point de départ. Or, à l'alinéa proposé 11(1)a) concernant l'utilisation des données, je pense qu'il y aurait des avantages à inclure un mécanisme de divulgation pour pouvoir comprendre comment les données ont été étiquetées et utilisées. Je pense que cette mesure aurait une incidence incroyablement positive, tant sur la création des modèles que sur leur mise en œuvre.
    Je pense que c'est un bon point de départ, mais j'inclurais, précisément dans ce paragraphe, les amendements qui ont été proposés avec une exigence de divulgation précise concernant l'étiquetage et l'annotation des données.
    Nous ne pouvons pas savoir comment ces choses seront utilisées. Nous pouvons passer la journée à écrire des systèmes dans lesquels nous disons: « C'est là où nous pensons que ce sera utilisé. Voici ce que nous pensons que les risques et les préjudices pourraient être. » C'est un outil. Vous ne pouvez pas dire à qui que ce soit comment l'utiliser. Si les gens s'en servent d'une façon qui ne fait pas partie de vos catégories, vous avez un problème.
    Pour moi, ce modèle... Je vais continuer à nous ramener au déploiement. Nous pouvons rédiger des lois magnifiques et complexes à longueur de journée, mais nous ne pouvons pas contrôler l'utilisation de ces produits lors des opérations et du déploiement. Je ne veux pas que nous parlions comme si la chose la plus importante était la façon dont nous devrions l'organiser. Le plus important, c'est ce qui va se passer en réalité.
    Madame Casovan, pensez-vous qu'il devrait y avoir une vérification de la conformité avant que les systèmes d'IA soient mis sur le marché?
    Oui, je le crois, et je pense aussi qu'il doit y avoir certaines spécifications. C'est pourquoi une norme serait bénéfique. Faisons l'analogie avec le symbole du commerce équitable ou la certification LEED, comme je l'ai déjà mentionné. Le fait de réfléchir aux différents types de normes qu'il faudrait respecter pour que la technologie se retrouve sur le marché devrait être une condition préalable des systèmes à risque élevé.
    Je vous remercie, monsieur le président.
    Je tiens à remercier les témoins.

[Français]

     Merci, monsieur Gaheer.
    Monsieur Lemire, vous avez la parole.
    Merci, monsieur le président.
    Madame Brandusescu, l'an dernier, lors de votre passage au Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique, vous avez parlé de l'approvisionnement des systèmes d'intelligence artificielle par le secteur public. Vous disiez que les technologies de reconnaissance faciale et d'autres technologies d'intelligence artificielle faisaient ressortir la nécessité d'une discussion sur la participation du secteur privé à la gouvernance publique.
    Pouvez-vous nous expliquer plus en détail ce que vous entendez par la participation du secteur privé à la gouvernance publique en ce qui concerne les technologies de reconnaissance faciale et d'autres systèmes liés à l'intelligence artificielle?

[Traduction]

    La technologie de reconnaissance faciale, comme nous le savons, est, espérons‑le, la voie facile de l'intelligence artificielle dangereuse. Il semble que le préjudice soit hors contexte. Je vais la qualifier de dangereuse parce que c'est ce qu'elle est. Pourtant, nous avons besoin de ces niveaux d'imagination pour interdire certaines technologies, et les technologies de reconnaissance faciale devraient être interdites.
    Le secteur public peut faire ce choix parce qu'il est redevable au public au bout du compte. Le secteur privé, dans sa forme actuelle, rend des comptes à l'actionnaire et au modèle d'affaires qui consiste à faire plus d'argent. C'est ainsi que fonctionne le capitalisme. C'est ce que nous constatons.
    Ce n'est pas le travail du gouvernement. Encore une fois, lorsque je dis que la LIAD devrait faire l'objet d'une réflexion publique et privée, c'est exactement ce à quoi je pense. Je songe à la technologie de reconnaissance faciale utilisée par les forces de l'ordre, la sécurité nationale et Immigration, Réfugiés et Citoyenneté Canada. Maintenant, elle peut être utilisée à Service Canada, ou peut-être à l'ARC de la façon dont l'Internal Revenue Service voulait utiliser la reconnaissance faciale pour faire des déclarations de revenus. Encore une fois, ces technologies ne sont pas limitées à un domaine. Tout comme Palantir est passée de l'armée à la santé, la technologie de reconnaissance faciale fonctionne de la même façon. Le secteur public doit intervenir et rendre des comptes à la population.
    Je reviens vraiment aux points soulevés par Mme Wylie au sujet de la démocratie. La participation est compliquée, mais nous devons le faire de façon à ce qu'il y ait dissidence, discussion, non-conformité dans l'ensemble et consensus, parce qu'il est important de s'assurer que ces technologies ne seront plus utilisées tant elles sont dangereuses. Nous avons vu ce qui s'est passé avec Clearview AI. C'est une affaire de protection de la vie privée, mais aussi de surveillance de masse, en plus de ce qui est évident, c'est‑à‑dire les dangers et les préjudices que la mesure a causés à tant de groupes marginalisés.

  (1725)  

[Français]

    Merci.
    On voit tous les dérapages qui ont lieu en Irlande et en Chine, entre autres.
    Merci.
    Merci, monsieur Lemire.
    Normalement, M. Masse aurait maintenant la parole, mais je pense qu'il a dû partir pour voter. Cela va donc conclure le dernier tour de questions, et, comme il reste peu de temps pour nous diriger vers la Chambre, cela va mettre fin à la rencontre d'aujourd'hui.
    M. Masse est de retour. Je pensais que nous l'avions perdu.

[Traduction]

    La parole est à vous, monsieur Masse.
    Monsieur le président, il faudrait peut-être conclure. Le temps commence à presser.
    Je suis d'accord.
    Je remercie tous nos témoins de nous avoir éclairés cet après-midi.
    Je tiens à remercier les analystes.

[Français]

    Je remercie également les interprètes et la greffière.
    La séance est levée.
Explorateur de la publication
Explorateur de la publication
ParlVU