Monsieur le président Lightbound et honorables députés, bonne Saint-Valentin.
Je vous remercie de me donner l'occasion de comparaître de nouveau et d'ajouter à mon témoignage précédent en expliquant mes préoccupations au sujet de la Loi sur l'intelligence artificielle et les données, dont les lacunes sur le plan du processus et du fond ont été bien documentées par les témoins experts. Les propositions subséquentes du ministre ne font que renforcer ma principale recommandation: il faut tout reprendre depuis le début. Il faut retourner à la table à dessin, mais pas pour qu'ISED, Innovation, Sciences et Développement économique Canada, puisse le rédiger seul. L'adoption précipitée d'un texte aussi imparfait ne fera qu'aggraver les craintes des citoyens à l'égard de l'IA, car la LIAD ne fait que prouver que les décideurs politiques ne peuvent pas prévenir efficacement les préjudices déjà existants ou émergents qui proviennent des nouvelles technologies.
Mettre l'accent sur des préjudices existentiels non quantifiables, indéterminés et non identifiables, c'est se laisser leurrer par l'industrie. Les récits des risques existentiels détournent l'attention des préjudices actuels comme la surveillance de masse, la mésinformation et l'atteinte à l'autonomie personnelle et aux marchés équitables, entre autres choses. Voici, selon une perspective de haut niveau, certaines des lacunes fondamentales de la LIAD.
Premièrement, le projet de loi est antidémocratique. Le gouvernement a présenté sa proposition de réglementation de l'IA sans consulter le public. Comme Andrew Clement l'a fait remarquer lors de votre séance du 31 janvier, les consultations subséquentes ont révélé des affirmations exagérées au sujet de réunions pour lesquelles on a encore fait appel de façon disproportionnée aux points de vue de l'industrie plutôt qu'à ceux de la société civile.
Deuxièmement, ce qu'on avance au sujet des bienfaits de l'IA n'est fondé sur aucune preuve. Un récent rapport sur l'écosystème de l'IA au Québec montre que la promotion actuelle de l'IA au Canada ne donne pas les résultats économiques qu'on prétend. La LIAD réitère bon nombre des affirmations outrancières de l'industrie selon lesquelles l'avancement de l'IA peut apporter de vastes avantages à la société sans pour autant justifier ces affirmations.
La déclaration du ministre voulant que l'intelligence artificielle offre une multitude d'avantages aux Canadiens n'est appuyée que par une seule source: Scale AI, un programme financé par ISDE et le gouvernement du Québec. Plutôt que de présenter des rapports crédibles sur la façon dont les projets identifiés ont profité à de nombreux Canadiens, les articles produits comme références ne sont que des annonces de projets récemment financés.
Troisièmement, l'innovation en matière d'IA n'est pas une excuse pour précipiter la réglementation. Ce ne sont pas toutes les innovations en matière d'IA qui sont bénéfiques, comme en témoignent la création et la diffusion d'images pornographiques hypertruquées non seulement de célébrités, mais aussi d'enfants. C'est un facteur important à considérer, car on prétend que la LIAD est nécessaire pour équilibrer innovation et réglementation.
Quatrièmement, le risque de préjudices est en revanche bien documenté, mais il n'est pas pris en compte dans la proposition actuelle. Les systèmes d'IA, entre autres caractéristiques, ont montré qu'ils facilitent la discrimination en matière de logement, font des associations racistes, empêchent les femmes de postuler certains postes en rendant les listes de postes visibles pour les hommes seulement, recommandent des peines d'emprisonnement plus longues pour les membres des minorités visibles et n'arrivent pas à reconnaître le visage des femmes à la peau foncée. Il y a d'innombrables incidents de préjudice supplémentaires, dont des milliers sont catalogués dans la base de données des incidents liés à l'AI.
Cinquièmement, à propos de l'utilisation de l'intelligence artificielle, la LIAD insiste trop sur les préjudices causés aux personnes plutôt qu'aux groupes ou communautés. La mésinformation et la désinformation facilitées par l'IA présentent de graves risques pour l'intégrité des élections et la démocratie.
Sixièmement, Innovation, Sciences et Développement économique Canada est en conflit d'intérêts, et la LIAD lui donne un chèque en blanc en matière de réglementation. Le ministère met de l'avant des lois et règlements visant à atténuer les multiples préjudices potentiellement graves causés par les développements techniques de l'IA, tout en investissant dans l'IA et en en faisant la promotion, notamment en finançant des projets d'IA pour les défenseurs de la LIAD, comme M. Bengio. Comme Teresa Scassa l'a montré par ses recherches, la proposition actuelle ne concerne pas l'agilité, mais se distingue par le manque de substance et de crédibilité.
Voici mes recommandations.
Retrancher la LIAD du projet de loi C‑27 et lancer des consultations dans le respect de la transparence et de la démocratie. Pour réglementer sérieusement l'IA, il faut des propositions de politique et une consultation publique inclusive et authentique éclairée par des rapports d'experts indépendants.
Il faut reconnaître à chacun le droit de contester l'AI qui le touche et de s'y opposer et pas seulement le droit à la transparence des algorithmes.
Il faut que le commissaire à l'intelligence artificielle et aux données soit indépendant du ministre, qu'il soit un mandataire du Parlement doté des pouvoirs voulus et d'un financement adéquat. Cette fonction exige un engagement plus sérieux que ce qu'on observe dans les cas du Bureau de la concurrence et des organismes de protection des renseignements personnels.
Bien d'autres dispositions de la LIAD laissent à désirer. Elles sont toutes décrites en détail dans le mémoire que le Centre pour les droits numériques a remis au Comité, Not Fit for Purpose. La précipitation inexplicable du ministre, qui veut faire adopter cette proposition à toute vapeur, est profondément inquiétante. Le Canada risque d'être le premier pays au monde à créer la pire réglementation sur l'intelligence artificielle.
Les grands modèles de langage, les GML les plus avancés, intègrent des centaines de milliards de paramètres tirés de données de formation contenant des billions d'unités. Leur comportement est souvent imprévisible et peu fiable, comme l'expert en intelligence artificielle Gary Marcus l'a bien établi.
Le coût et le pouvoir de calcul des GML sont très élevés, et le domaine est dominé par les grandes entreprises technologiques, comme Microsoft, Google, Meta, etc. Qu'il s'agisse de la façon dont ces entreprises bâtissent leurs modèles ou des risques qu'ils présentent, il n'y a aucune transparence. L'explicabilité de ces modèles est un problème non résolu, et la situation empire avec la taille des modèles construits. Les avantages allégués des GML reposent sur des suppositions, mais les préjudices et les risques, eux, sont bien documentés.
Je conseille au Comité de prendre le temps d'étudier les GML et de soutenir cette étude en faisant appel aux compétences voulues. Je me ferai un plaisir d'aider à organiser des forums d'étude, car j'ai de solides réseaux dans l'industrie et la société civile. Comme dans le cas de la LIAD, il est essentiel de comprendre toute la gamme des répercussions de la technologie si nous voulons aborder de façon souveraine, à notre manière, une réglementation capable d'appuyer l'économie canadienne et de protéger nos droits et libertés.
À propos de capacité souveraine, je m'en voudrais de ne pas dire ma déception de voir le ministre Champagne courtiser Nvidia et lui offrir son soutien. Imaginons que nous ayons un ministère qui appuie de tout son poids les entreprises de l'infonuagique et des semi-conducteurs pour faire avancer l'économie et la souveraineté du Canada.
Les Canadiens méritent une approche de l'IA qui renforce la confiance dans l'économie numérique, appuie la prospérité et l'innovation canadiennes et protège les Canadiens, non seulement comme consommateurs, mais aussi comme citoyens.
Merci.